Я воспроизводлю код учебника TensorFlow Прогнозирование временных рядов * Учебное пособие 1002 *.
Они используют tf.data
для перемешивания, пакетирования и кэширования набора данных. Точнее, они делают следующее:
BATCH_SIZE = 256
BUFFER_SIZE = 10000
train_univariate = tf.data.Dataset.from_tensor_slices((x_train_uni, y_train_uni))
train_univariate = train_univariate.cache().shuffle(BUFFER_SIZE).batch(BATCH_SIZE).repeat()
val_univariate = tf.data.Dataset.from_tensor_slices((x_val_uni, y_val_uni))
val_univariate = val_univariate.batch(BATCH_SIZE).repeat()
Я не могу понять, почему они используют repeat()
и, тем более, почему они не задают аргумент count
repeat. Какой смысл заставлять процесс повторяться бесконечно? И как алгоритм может прочитать все элементы бесконечно большого набора данных?