Я читаю статью Transformer, и позиционные вложения заставляют меня задуматься:
Предположим, что слово «кошка» предварительно обучено для встраивания в слово вектор [2,3,1,4]
. Если мы используем позиционное кодирование, которое превращает вектор в новый, например [3,1,5,2]
, не должно ли оно также изменить значение слова в матрице word2ve c? Поскольку корпус большой, небольшое изменение значения также может изменить его значение.