Я ищу способ реализации сети встраивания слов со слоями LSTM в Pytorch, чтобы входные данные для слоя nn.Embedding
имели другую форму, чем векторы идентификаторов слов.
Каждое слово в моемcase имеет соответствующий вектор, и, следовательно, предложение в моем корпусе является вектором векторов. Так, например, у меня может быть слово «король» с вектором [500, 3, 18], где 500 - это идентификатор слова, 3 - это цвет слова, 18 - размер шрифта и т. Д. Роль слоя внедрения здесьсделать автоматическое уменьшение / извлечение объектов.
Как я могу заполнить слой внедрения такими данными формы? Или у вас есть предложения получше?