LSTM производит повторяющийся вывод - PullRequest
0 голосов
/ 24 июня 2019

Я использую tenorflow-keras для генерации текста, и этот код похож на https://machinelearningmastery.com/text-generation-lstm-recurrent-neural-networks-python-keras/. Проблема, которую я получаю, заключается в том, что выходная сеть остается той же. Единственная разница между кодом здесь и моим - это строка model.fit(X,y,epochs=20,batch_size=512) где я использовал batch_size 512. Это код, который генерирует текст

 for i in range(1000):
        x = numpy.reshape(pattern, (1, 100, 1))
        x = x / float(n_vocab)
        prediction = model.predict(x, verbose=0)
        index = numpy.argmax(prediction)
        result = int_to_char[index]
        pattern.append(index)
        pattern = pattern[1:]
        print(result,end=' ')
 print ("\nDone.")

Я получил точность 80% и более, но текст, который он генерирует, все еще повторяется. Что-то не так с кодом? Результат выглядит как "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis

...