Я обучаю сеть прогнозированию классификации временных рядов с помощью adapt_universal_transformer
и tensor2tensor
фреймворка. Каждая целевая временная метка является классификацией и не имеет отношения к предыдущей. Я использую py_func
для получения функций, а затем печатаю прогнозы и входные данные в пользовательской функции метрик. Прогнозы различны для t2t_decode
и t2t_eval
с тем же набором тестовых данных, который был создан с помощью t2t_datagen
. Я проверил, что входы одинаковы. Полученные результаты намного точнее прогнозируемых.
Если результаты eval в t2t_train
и t2t_eval
являются базовой линией, прогнозы в результате decode_from_dataset
в t2t_decoder
и estimator.evaluate
из обычного генератора, заключенного в tensor2tensor.utils.decoding.make_input_fn_from_generator
, неверны.
Каждый из них, который я проверил features['inputs']
, predictions
, labels
в пользовательской функции метрик, features['inputs']
одинаков, но прогнозы - нет.
Как я мог решить проблему? или как получить результаты в нетерпеливом исполнении без изменения кода tensor2tensor
?