Как преобразовать новые изображения в формат изображений набора данных fashion-mnist? - PullRequest
0 голосов
/ 12 мая 2019

У меня есть модель нейронной сети, которая обучается на наборе данных fashion-MNIST. Теперь я предсказываю, используя модель, несколько новых случайных изображений (от Google) и хочу преобразовать их в тот же формат, что и изображения из fashion-MNIST. набор данных. Может ли кто-нибудь предоставить мне код / ​​функции Python, которые могут помочь мне в этом? Спасибо.

Я знаю, что формат изображений из набора данных составляет 28X28 пикселей, оттенки серого. Что я не знаю, так это как конвертировать новые изображения в тот же формат точно. Так что модель будет правильно предсказывать эти новые изображения.

1 Ответ

0 голосов
/ 17 мая 2019

Есть много разных способов сделать это; вот пример, хотя я уверен, что это далеко не лучший вариант.

num_imgs = len(os.listdir(my_path))
X = np.empty([int(num_imgs),28,28,1]) # in which to put the images
for i,image in enumerate(os.listdir(my_path)):
    the_img = cv2.imread(os.path.join(my_path,image),cv2.IMREAD_GRAYSCALE)
    the_img = cv2.resize(the_img,(28,28))
    X[i] = the_img

Тогда X подобен стопке из N изображений с размерами 28x28 и одним каналом, т. Е. (N, 28,28,1). Надеюсь, это поможет!

Редактировать: Примите также во внимание, что некоторые пакеты, такие как Keras, имеют отличные инструменты для оптимизации этого процесса (включая метки, случайные преобразования и т. Д.). Настоятельно рекомендуем проверить эти инструменты.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...