Является ли nn.Embedding () необходимым для обучения для LSTM?
Я использую LSTM в PyTorch для прогнозирования NER - пример аналогичной задачи здесь - https://pytorch.org/tutorials/beginner/nlp/sequence_models_tutorial.html
Код мудрый, я использую код, почти идентичный коду из учебника выше.
Единственная деталь - я использую word2Vec вместо nn.Embedding ().
Поэтому я удаляюслой nn.Embedding () и обеспечивает прямую функцию функциями непосредственно из word2Vec.RNN не изучает.
Следовательно, является ли nn.Embedding () необходимым для обучения для LSTM?