Я с радостью использую tf.estimator.train_and_evaluate
для обучения и оценки модели.Теперь я хотел бы иметь немного больше контроля над всем этим, а точнее, я бы хотел:
- сохранять контрольную точку каждые
N
шагов - запускать оценкучерез контрольную точку (возможно, также на разных наборах данных);
- запустить прогноз и вывести результаты в удобочитаемой форме на одну и ту же контрольную точку.
Есть ли что-нибудь легкое (возможно готовый) способ сделать это?Спасибо!