Я работаю с tf = 2.0.0 и концентратором тензорного потока. В настоящее время я использую API данных Tensorflow для загрузки своих данных, которые хранятся в файле tfrecords.
Я успешно загружаю набор данных и компилирую модель, но когда я пытаюсь вписать данные в модель, я получаю ошибка:
Ошибка при проверке ввода: ожидалось, что input_input имеет 1 измерение, но получил массив с формой (64, 1)
Так я загружаю свои данные :
def _dataset_parser(value):
"""Parse a record from value."""
featdef={
'id': tf.io.FixedLenFeature([1], tf.int64),
'question': tf.io.FixedLenFeature([1], tf.string),
'label': tf.io.FixedLenFeature([1], tf.int64)
}
example = tf.io.parse_single_example(value, featdef)
label = tf.cast(example['label'], tf.int32)
question = tf.cast(example['question'], tf.string)
return example['question'], example['label']
def _input(epochs, batch_size, filenames):
dataset = tf.data.TFRecordDataset(filenames)
dataset = dataset.repeat(epochs)
dataset = dataset.prefetch(1)
# Parse records.
dataset = dataset.map(_dataset_parser)
dataset = dataset.shuffle(100)
# Batch it up.
dataset = dataset.batch(batch_size)
iterator = tf.compat.v1.data.make_one_shot_iterator(dataset)
question_batch, label_batch = iterator.get_next()
label_batch = tf.one_hot(label_batch, NUM_CLASSES)
return question_batch, label_batch
train_ds = _input(20, 64, ['train_xs.tfrecords'])
Это моя модель:
model = tf.keras.Sequential([
hub.KerasLayer(HUB_URL, dtype=tf.string, input_shape=[], output_shape=[WIDTH], name='inputs'),
tf.keras.layers.Dense(256, 'relu', name ='layer_1'),
tf.keras.layers.Dense(128, 'relu', name = 'layer_2'),
tf.keras.layers.Dense(NUM_CLASSES, activation='softmax', name='output')
])
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=["accuracy"])
Я уже пытался установить форму ввода слоя входа как (Нет, 1), но он продолжает сбой, не уверен, что проблема связана с концентратором TensorFlow, однако я попытался запустить этот пример из книги практических заданий по мл:
model = tf.keras.Sequential([
hub.KerasLayer("https://tfhub.dev/google/tf2-preview/nnlm-en-dim50/1",
dtype=tf.string, input_shape=[], output_shape=[50]),
tf.keras.layers.Dense(128, activation="relu"),
tf.keras.layers.Dense(1, activation="sigmoid")
])
model.compile(loss="binary_crossentropy", optimizer="adam",
metrics=["accuracy"])
datasets, info = tfds.load("imdb_reviews", as_supervised=True, with_info=True)
train_size = info.splits["train"].num_examples
batch_size = 32
train_set = datasets["train"].repeat().batch(batch_size).prefetch(1)
history = model.fit(train_set, steps_per_epoch=5, epochs=5)#steps_per_epoch=train_size // batch_size, epochs=5)
, и он работает нормально, однако я обнаружил одно различие в том, что если я распечатываю train_set на примере из книги я получаю:
<PrefetchDataset shapes: ((None,), (None,)), types: (tf.string, tf.int64)>
В то время как с моим кодом я получаю это при печати набора данных, который я передаю модели:
(<tf.Tensor: id=11409, shape=(64, 1), dtype=string, numpy= array([[b'Restroom score out of 9'],
[b'Name'],
[b'Lastname'],
[b'Type of house'],
[b'Inspection date'],
[b'Pet'],
[b'Phone'], dtype=object)>, <tf.Tensor: id=11414, shape=(64, 1, 80), dtype=float32, numpy= array([[[0., 0., 0., ...,
0., 0., 0.]],
[[0., 0., 0., ..., 0., 0., 0.]],
[[0., 0., 0., ..., 0., 0., 0.]],
...,
[[0., 0., 0., ..., 0., 0., 0.]],
[[0., 0., 0., ..., 0., 0., 0.]],
[[0., 0., 0., ..., 0., 0., 0.]]], dtype=float32)>)
Кто-то знает, почему разница в форме даты стоит?