Я использую tenorflow-keras для генерации текста, и этот код похож на https://machinelearningmastery.com/text-generation-lstm-recurrent-neural-networks-python-keras/. Проблема, которую я получаю, заключается в том, что выходная сеть остается той же. Единственная разница между кодом здесь и моим - это строка
model.fit(X,y,epochs=20,batch_size=512)
где я использовал batch_size 512. Это код, который генерирует текст
for i in range(1000):
x = numpy.reshape(pattern, (1, 100, 1))
x = x / float(n_vocab)
prediction = model.predict(x, verbose=0)
index = numpy.argmax(prediction)
result = int_to_char[index]
pattern.append(index)
pattern = pattern[1:]
print(result,end=' ')
print ("\nDone.")
Я получил точность 80% и более, но текст, который он генерирует, все еще повторяется. Что-то не так с кодом? Результат выглядит как
"'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis "'tis