Я делаю colab тензорного потока, и у меня проблемы с пониманием наборов данных, особенно после нормализации данных ... в разделе «Исследовать данные процесса». Я использую здесь for l oop, чтобы понять печатаемые данные. Когда я смотрю и беру один из набора данных, почему я печатаю такой длинный набор данных, если изображения имеют размер 28x28 и используют numpy для печати представления данных в виде 2-мерного массива ... вот ссылка на упражнение colab с использованием набора данных MNIST https://colab.research.google.com/github/tensorflow/examples/blob/master/courses/udacity_intro_to_tensorflow_for_deep_learning/l03c01_classifying_images_of_clothing.ipynb
dataset, metadata = tfds.load('fashion_mnist', as_supervised=True, with_info=True)
train_dataset, test_dataset = dataset['train'], dataset['test']
class_names = ['T-shirt/top', 'Trouser', 'Pullover', 'Dress', 'Coat',
'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle boot']
def normalize(images, labels):
images = tf.cast(images, tf.float32)
images /= 255
return images, labels
# The map function applies the normalize function to each element in the train
# and test datasets
train_dataset = train_dataset.map(normalize)
test_dataset = test_dataset.map(normalize)
# The first time you use the dataset, the images will be loaded from disk
# Caching will keep them in memory, making training faster
train_dataset = train_dataset.cache()
test_dataset = test_dataset.cache()
for img, label in test_dataset.take(1):
print(img.numpy().reshape((28,28)))
break