Я прочитал Разница между контекстно-зависимыми тензорами и векторами слов , но все еще испытываю трудности с пониманием причины, по которой маленькая модель Engli sh в Spacy способна генерировать вектор для каждого слова (даже опечатки) ).
Очень ценю любую помощь