Я обучил модель тф (не пользуясь услугами мудреца). Я использовал версию TF 2.1.0. Я сохранил его со следующей сигнатурой def MetaGraphDef с набором тегов: 'serve' содержит следующий SignatureDef:
The given SavedModel SignatureDef contains the following input(s):
inputs['inputs'] tensor_info:
dtype: DT_FLOAT
shape: (-1, 80)
name: text_input_1:0
The given SavedModel SignatureDef contains the following output(s):
outputs['predictions'] tensor_info:
dtype: DT_FLOAT
shape: (-1, 738)
name: output_1/Identity:0
Method name is: tensorflow/serving/predict
Я сжал модель и создал объект Model, используя AWS sagemaker's Python SDK
model = Model(model_data=s3_location,
role=role,
framework_version='2.1.0')
predictor = model.deploy(initial_instance_count=1, instance_type='ml.m5.xlarge') {code}
После создания модели у меня возникает много проблем с прогнозированием. Я получаю странные ошибки, такие как "error": "Session was not created with a graph before Run()!"
или "error": "Failed to process element: 0 of 'instances' list. Error: Invalid argument: JSON Value:
Я испробовал как методpretor.predict (), так и методы client.invoke_endpoint (), используя различные форматы, такие как Forex.predict (список), различные варианты форматов обслуживания REST API с использованием формата "instances"
. Я пробовал json .dumps () на всех вариациях. Но ничего не работает. Может кто-нибудь предложить способ предсказать. Как показано в signature_def, мой ввод имеет форму (1,80). Спасибо
Я ищу ответ в виде predictor.predict($what here?)
. Или подскажите, что я тут делаю не так.
Спасибо