Если вы не используете методы модели Keras (.fit
, .train_on_batch
, ...), и вы пишете свой собственный цикл обучения, используя нетерпеливое выполнение (и, необязательно, заключая его в tf.function
, чтобы преобразовать его вего графическое представление) вы можете контролировать многословие, как вы привыкли делать в 1.x
training_epochs = 10
step = 0
for epoch in range(training_epochs)
print("starting ",epoch)
for features, labels in dataset:
with tf.GradientTape() as tape:
loss = compute_loss(model(features),labels)
gradients = tape.gradients(loss, model.trainable_variables)
optimizer.apply_gradients(zip(gradients, model.trainable_variables))
step += 1
if step % 10 == 0:
# measure other metrics if needed
print("loss: ", loss)
print("Epoch ", epoch, " finished.")