Я смотрю в учебник Tensorflow text_generation (https://www.tensorflow.org/tutorials/text/text_generation) и задаюсь вопросом, почему они являются данными случайного обучения, хотя для состояния GRU установлено состояние TRUE?
Это противоречит документации (https://www.tensorflow.org/api_docs/python/tf/keras/layers/RNN): "Примечание по использованию отслеживания состояния в RNN: вы можете установить слои RNN в состояние сохранения состояния, что означает, что состояния, вычисленные для выборок в одном пакете, будут повторно использоваться как начальные состояния для образцов в следующем пакете. Это предполагает взаимно-однозначное сопоставление между образцами в различных последовательных пакетах. "
Фрагменты кода из учебника:
dataset = dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)
tf.keras.layers.GRU(rnn_units,
return_sequences=True,
stateful=True,
recurrent_initializer='glorot_uniform')