Я следовал учебному пособию по переводу записной книжки colab, как это было предложено в хранилище Google tenor2tensor
После экспорта модели и ее загрузки в механизм Google AI Platform для онлайн-прогнозирования у меня возникли проблемы с созданиемзапросы к модели.
Я считаю, что входные данные для модели перевода являются тензором исходного текста. Но я получаю сообщение об ошибке: TypeError: Object of type 'EagerTensor' is not JSON serializable
def encode(input_str, output_str=None):
"""Input str to features dict, ready for inference"""
inputs = encoders["inputs"].encode(input_str) + [1] # add EOS id
batch_inputs = tf.reshape(inputs, [1, -1, 1]) # Make it 3D.
return {"inputs": batch_inputs}
enfr_problem = problems.problem(PROBLEM)
encoders = enfr_problem.feature_encoders(DATA_DIR)
encoded_inputs = encode("Some text")
model_output = predict_json('project_name','model_name', encoded_inputs,'version_1')["outputs"]
Я пытался преобразовать тензор в numpy, но все же не повезло. Может ли кто-нибудь указать мне правильное направление?