Я пытаюсь реализовать модель резюмирования извлекающего текста. Я использую keras и tensorflow. Я использовал вложения предложений Берта, и выходные данные вложений подаются на уровень LSTM, а затем на плотный слой с функцией активации сигмоида. Я использовал оптимизатор Адама и двоичную кроссентропию в качестве функции потерь.
Обучающие метки y представляют собой 2d-массив, т.е. [array_of_documents [array_of_biniary_labels_foreach_sentence]] получение точности обучения около 0,22.
Как я могу повысить точность для модели?
sentence_embedding = tf.keras.layers.Input(shape=(185,768))
LSTM_layer = tf.keras.layers.LSTM(185)
Dense = tf.keras.layers.Dense(185, activation='sigmoid')
doc_rep = LSTM_layer(sentence_embedding)
f_output = Dense(doc_rep)
model = tf.keras.Model(sentence_embedding, f_output, name="model")
model.compile(
loss='binary_crossentropy',
optimizer='adam',
metrics=["accuracy"],
)
history = model.fit(x_train_embeddings, ytrain_label, epochs=100, verbose=2)