Формы с вложением:
- Форма входных данных:
X_train.shape == (reviews, words)
, что составляет (reviews, 500)
В LSTM (после встраивания или если у вас не было встраивания)
- Форма входных данных:
(reviews, words, embedding_size)
: (reviews, 500, 100)
-где 100 было автоматически создано встраиванием
- Форма ввода для модели (если у вас не было слоя для встраивания) может быть:
input_shape = (500, 100)
input_shape = (None, 100)
- эта опция поддерживает просмотр переменной длины
- Каждый
Xt
представляет собой срез из input_data[:,timestep,:]
, что приводит к форме: (reviews, 100)
- Но это полностью автоматически, сделано самим слоем.
- Каждый
Ht
отбрасывается, результат только последний h
, потому что вы не используете return_sequences=True
(но это нормально для вашей модели).
Ваш код, кажется, делает все, поэтому вам не нужно делать ничего особенного для обучения этой модели.Используйте fit
с правильным X_train
, и вы получите y_train
с формой (reviews,1)
.
Вопросы:
Если каждый Xt является 100-мерным вектором, представляющим одно слово в обзоре, передам ли я каждое слово в обзоре в LSTMза раз?
Нет, слой LSTM уже делает все сам, включая все повторяющиеся шаги, при условии, что его вход имеет форму (reviews, words, embedding_size)
Как связаны между собой 100 нейронов?
Они являются чем-то параллельным (вы можете представить 100 изображений, как вы разместили, все параллельно), почти так же, как другие виды обычных слоев.
Но на повторяющихся этапах присутствует математическое выражение, заставляющее их разговаривать (к сожалению, я не могу точно объяснить, как именно).
Почему я не могу простоиспользовать 1 ячейку на рисунке выше для классификации, так как это повторяющийся способ, поэтому он возвращает выходные данные самому себе в следующей отметке времени?
Можно, если хотите, но чем больше ячеек, тем умнееслой (как это происходит с любым другим видом слоя)
В выбранном номере 100 нет ничего особенного.Это, вероятно, совпадение или недоразумение.Это может быть любое число, 50 ячеек, 200 ячеек, 1000 ячеек ...
Глубокое понимание LSTM: