У меня есть рабочая оценка, которую я train_and_evaluate
. Для фазы оценки требуется несколько пакетов проверочных данных и усреднение всех показателей. У меня есть показатели, которые нужно вычислять по всему набору данных, а не по отдельным партиям. Более конкретно, моя модель выводит вложение, которое мне нужно собирать и оценивать метрики после получения вложений для всего набора проверки.
Как измерить глобальные оценки eval? Есть ли ловушка / обратный вызов , которую я могу добавить к EvalSpec
, где я могу получить все вложения и оценить метрики, кроме обычной оценки, которая происходит в каждой партии? Или есть обходной путь?
Неоптимальное решение : Если я напишу для l oop с estimator.train
, estimator.evaluate
и estimator.predict + eval global metrics
, я смогу сделать то же самое однако, как уже упоминалось SO Question и в газете (3.2, параграф 4), это явно не рекомендуется, так как каждый раз будет перестраивать графики.