Я согласен, что именование здесь немного сложнее.Вы можете проверить учебное пособие здесь.
https://www.kdnuggets.com/2018/04/implementing-deep-learning-methods-feature-engineering-text-data-skip-gram.html
Так что в word2vec в его простейшем варианте скип-граммы мы можем представить весь корпус как много пар, состоящих из целевого слова и выходного словачто мы хотим предсказать с нашей нейронной сетью.Таким образом, предложение «быстрая коричневая лиса перепрыгивает через ленивую собаку» и слово «коричневый» с окном-4 нашей модели word2vec может быть представлено как: (target_word, word_to_predict) (коричневый, быстрый) (коричневый, the) (коричневый, лиса) (коричневый, прыгает) Затем мы переходим к следующему слову «лиса» и так далее.Таким образом, мы используем скип-граммы для обучения нашей нейронной сети.Я не видел "k-skip-n-грамм" раньше, но, насколько я понимаю, мы получили 4-skip-биграммы