Keras - LSTM по встраиванию - плотные слои - PullRequest
0 голосов
/ 10 декабря 2018

Я пытаюсь воспроизвести работу статьи (о бинарной классификации текста), чтобы сформировать эталон для моей модели - в документе говорится: «эти токенизированные твиты превращаются в вложение с использованием вышеупомянутой предварительно обученной модели GloVE.Последовательность векторов затем подается в LSTM, который выводит один 32-мерный вектор, который затем передается через 2 активированных ReLU слоя размером 128 и 64 для получения вывода "

Так что это будет означать:

model_glove1 = Sequential()
model_glove1.add(Embedding(vocabulary_size, 25, input_length=50, weights=[embedding_matrix25],trainable=False))
model_glove1.add(LSTM(32))
model_glove1.add(Dense(128, activation='relu'))
model_glove1.add(Dense(64, activation='relu'))
model_glove1.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy',auc_roc])

Выход последнего плотного слоя будет иметь форму (64,), когда функция потерь binary_crossentropy ожидает формы (1,)

...