Я использую гугл колаб, и почему-то каждая эпоха в тренировочном процессе уменьшается примерно на 1% данных. используя:
history=model.fit(x=padded_docs,y=y2,validation_split=0.1,batch_size=64,epochs=5)
например, и x.shape равен (691058,1), как вы можете видеть на картинке:
вы также можете Обратите внимание, что 5704 (в настоящее время обрабатываются примеры) нельзя разделить на размер пакета 64, что означает, что размер пакета на самом деле не равен 64