При использовании train_and_evaluate из api средства оценки тензорного потока в нераспределенной настройке потеря обучения регулярно печатается, и дополнительно train_and_evaluate возвращает запись потери обучения:
training_record = tf.estimator.train_and_evaluate(estimator, train_spec, eval_spec)
Однако в распределенном обучении, согласно документации, возвращаемое значение train_and_evaluate не определено. Кроме того, информация не печатается во время обучения.
Есть ли способ контролировать потерю обучения во время распределенного обучения (либо распечатать его, либо в идеале записать его в файл)?