Я построил модель для суммирования текста, я создал небольшой документ (текстовый файл) с его резюме, затем я обучил модели на этом, я снова создал документ того же типа для теста, учебные и тестовые документы довольно аналогично, но с другими данными.
Например, учебный документ содержит:
name : train
family name : train
Тестовый документ:
name : test
family name : test
Я надеялся, что после тренировки модель , он запомнит структуру важных предложений, после тестирования я получил точность 100%.
Проблема в том, что когда я тренирую модель на другом документе, предыдущий тест дает более низкую точность, это похоже на это забывает предыдущую тренировку. вот моя модель:
model = Sequential()
model.add(Embedding(200,64, input_length=max_sent_length))
model.add(Conv1D(filters=64, kernel_size=3, padding='same', activation='relu'))
model.add(MaxPooling1D(pool_size=2))
model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
for i in range(0,len(xtrains)):
model.fit(xtrains[i],ytrains[i], epochs=200, batch_size=64, shuffle=False)
Я искал об этом, и я получил ответы, что переоснащение модели не сбрасывает вес, поэтому мне было интересно, почему всякий раз, когда я обучаю модель новым документам, я получить более низкую точность для предыдущих тестов, тогда как вначале я получил точность 100%.
Как я могу решить эту проблему?