При подаче изображения в предварительно обученную сеть InceptionResNetV2 у меня получаются следующие результаты:
from keras.applications.inception_resnet_v2 import InceptionResNetV2
INPUT_SHAPE = (200, 250, 3)
img = load_img() # loads a 200x250 rgb image into a (200, 250, 3) numpy array
assert img.shape == INPUT_SHAPE # just fine
model = InceptionResNetV2(include_top=False, input_shape=INPUT_SHAPE)
model.predict(img)
ValueError: Ошибка при проверке ввода: ожидается, что input_1 имеет 4 измерения, но получил массив с формой (200, 150, 3)
Я не понимаю, почему и как модель ожидает четырехмерный ввод. Что необходимо сделать, чтобы адаптировать изображение (200, 250, 3) для его обработки моделью?