Я пытаюсь воспроизвести работу статьи (о бинарной классификации текста), чтобы сформировать эталон для моей модели - в документе говорится: «эти токенизированные твиты превращаются в вложение с использованием вышеупомянутой предварительно обученной модели GloVE.Последовательность векторов затем подается в LSTM, который выводит один 32-мерный вектор, который затем передается через 2 активированных ReLU слоя размером 128 и 64 для получения вывода "
Так что это будет означать:
model_glove1 = Sequential()
model_glove1.add(Embedding(vocabulary_size, 25, input_length=50, weights=[embedding_matrix25],trainable=False))
model_glove1.add(LSTM(32))
model_glove1.add(Dense(128, activation='relu'))
model_glove1.add(Dense(64, activation='relu'))
model_glove1.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy',auc_roc])
Выход последнего плотного слоя будет иметь форму (64,), когда функция потерь binary_crossentropy ожидает формы (1,)