- Я обучил пример задачи tenor2tensor languagemodel_lm1b32k
Я экспортировал его и запустил tenorflow_model_server --port = 9000 --model_name = my_model --model_base_path = /tmp / output / export / --rest_api_port = 8501
curl http://localhost:8501/v1/models/my_model/metadata возвращает следующее:
{
"model_spec":{
"name": "my_model",
"signature_name": "",
"version": "1551791688"
}
,
"metadata": {"signature_def": {
"signature_def": {
"serving_default": {
"inputs": {
"input": {
"dtype": "DT_STRING",
"tensor_shape": {
"dim": [
{
"size": "-1",
"name": ""
}
],
"unknown_rank": false
},
"name": "serialized_example:0"
}
},
"outputs": {
"scores": {
"dtype": "DT_FLOAT",
"tensor_shape": {
"dim": [
{
"size": "-1",
"name": ""
}
],
"unknown_rank": false
},
"name": "transformer/strided_slice_5:0"
},
"batch_prediction_key": {
"dtype": "DT_INT32",
"tensor_shape": {
"dim": [
{
"size": "-1",
"name": ""
},
{
"size": "1",
"name": ""
}
],
"unknown_rank": false
},
"name": "DatasetToSingleElement:0"
},
"outputs": {
"dtype": "DT_INT32",
"tensor_shape": {
"dim": [
{
"size": "-1",
"name": ""
},
{
"size": "-1",
"name": ""
}
],
"unknown_rank": false
},
"name": "transformer/strided_slice_6:0"
}
},
"method_name": "tensorflow/serving/predict"
}
}
}
}
}
Вопрос: Как правильно составить прогнозный запрос? Мой запрос: curl -X POST http://localhost:8501/v1/models/my_model:predict -d '{"signature_name": "serving_default", "inputs": {"input": ["This is my test"]}}'
Результаты до: { "error": "Could not parse example input, value: \'This is my test\'\n\t [[{{node ParseSingleExample/ParseSingleExample}}]]\n\t [[{{node DatasetToSingleElement}}]]" }