Слайды моего профессора сравнивают "Нейронную Net модель языка" (Bengio et al., 2003) с Google word2ve c (Миколов и др., 2013). Он говорит, что, в отличие от модели Bengio, в word2ve c «проекционный слой является общим (а не только матрица весов)» *
Что это значит? Что общего в чем?
Другие различия заключаются в том, что в модели Миколова нет скрытого слоя, и что контекст содержит слова из прошлого и будущего (в то время как в модели Бенжио учитываются только слова из прошлого) ).
Я понял эти последние различия, но мне трудно понять концепцию "общего слоя".