Вводящее в заблуждение перетасовывание данных для GRU с сохранением состояния в учебнике Tensorflow text_generation - PullRequest
0 голосов
/ 30 марта 2020

Я смотрю в учебник Tensorflow text_generation (https://www.tensorflow.org/tutorials/text/text_generation) и задаюсь вопросом, почему они являются данными случайного обучения, хотя для состояния GRU установлено состояние TRUE?

Это противоречит документации (https://www.tensorflow.org/api_docs/python/tf/keras/layers/RNN): "Примечание по использованию отслеживания состояния в RNN: вы можете установить слои RNN в состояние сохранения состояния, что означает, что состояния, вычисленные для выборок в одном пакете, будут повторно использоваться как начальные состояния для образцов в следующем пакете. Это предполагает взаимно-однозначное сопоставление между образцами в различных последовательных пакетах. "

Фрагменты кода из учебника:

dataset = dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)
tf.keras.layers.GRU(rnn_units,
                        return_sequences=True,
                        stateful=True,
                        recurrent_initializer='glorot_uniform')
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...