Обобщение текста - PullRequest
       22

Обобщение текста

0 голосов
/ 06 марта 2020

Я построил модель для суммирования текста, я создал небольшой документ (текстовый файл) с его резюме, затем я обучил модели на этом, я снова создал документ того же типа для теста, учебные и тестовые документы довольно аналогично, но с другими данными.

Например, учебный документ содержит:

name : train

family name : train

Тестовый документ:

name : test

family name : test

Я надеялся, что после тренировки модель , он запомнит структуру важных предложений, после тестирования я получил точность 100%.

Проблема в том, что когда я тренирую модель на другом документе, предыдущий тест дает более низкую точность, это похоже на это забывает предыдущую тренировку. вот моя модель:

model = Sequential()
model.add(Embedding(200,64, input_length=max_sent_length))
model.add(Conv1D(filters=64, kernel_size=3, padding='same', activation='relu'))
model.add(MaxPooling1D(pool_size=2))
model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) 
for i in range(0,len(xtrains)):
    model.fit(xtrains[i],ytrains[i], epochs=200, batch_size=64, shuffle=False)

Я искал об этом, и я получил ответы, что переоснащение модели не сбрасывает вес, поэтому мне было интересно, почему всякий раз, когда я обучаю модель новым документам, я получить более низкую точность для предыдущих тестов, тогда как вначале я получил точность 100%.

Как я могу решить эту проблему?

...