Я хотел попробовать мою модель seq2seq в Tensorflow Serving для развертывания. Итак, я реализовал Custom operation
для замены py_func для успешного экспорта кода на основе Python.
Я протестировал эту пользовательскую операцию C ++ двумя способами.
- Использование load_op_library
- Встроенный Tensorflow, обслуживающий источник
Оба пути работают успешно.
Но производительность и точность отличаются при работе секунда способ.
Я также использовал некоторые printf()
внутри пользовательской реализации для отладки входных и выходных значений.
С load_op_library
, он печатает в стандартный вывод.
С TF Serving
не удалось увидеть print
s в stdout.
Почему выполнение одного и того же кода в TF Serving не дает точных результатов?
Как можно отладить значения, когда модель работает в режиме TF Serving ( не может видеть результаты printf )?
Есть ли способ проверить значения в SavedModel
variables
файлах?