Учитывая, что встраиваемые системы, такие как Sense2Vec, включают лингвистические функции, такие как частичная речь, почему эти встраивания используются не так часто?
Среди популярных работ в NLP сегодня Word2Vec и GloVe являются наиболее распространеннымииспользуемые системы встраивания слов.Несмотря на то, что они включают только информацию о словах и не имеют лингвистических особенностей слов.
Например, при анализе настроений, классификации текста или задачах машинного перевода логично, что если входные данные включают лингвистические особенностиКроме того, производительность может быть улучшена.Особенно при неоднозначности таких слов, как «утка», глагол и «утка», существительное.
Является ли это мышление ошибочным?Или есть какая-то другая практическая причина, по которой эти вложения не так широко используются.