У меня есть простая модель для демонстрации:
input_layer = Input(shape=(100,))
encoded = Dense(2, activation='relu')(input_layer)
X = np.ones((1000, 100))
Y = np.ones((1000, 2))
print(X.shape)
model = Model(input_layer, encoded)
model.compile(loss='categorical_crossentropy', optimizer='adam')
model.fit(x=X, y=Y, batch_size = 2)
Вывод:
2.2.4
(1000, 100)
Epoch 1/1
1000/1000 [==============================] - 3s 3ms/step - loss: 1.3864
Почему в одну эпоху 1000 итераций (как показано в выходных данных).
Я пытался изменить это, но не меняет вывод. Я думаю, это должно было быть 1000/2 = 500. Пожалуйста, объясните, что не так с моим пониманием и как я могу правильно установить размер партии.
Спасибо