(1) Вы указали --runtime-version
при развертывании модели?По умолчанию это 1.0, но, вероятно, вам нужна версия TensorFlow 1.8
или что-то в этом роде.Если ваша модель использует операции, которые были добавлены после 1.0, вы можете получить это сообщение.
(2) Вы можете использовать локальный прогноз gcloud ml-engine даже с записями TF.Предположительно, экспортируемая модель имеет однорядный входной тензор с измерением [Нет], который напрямую передается в операцию ParseExample.В этом случае вы просто следуете стандартному синтаксису API JSON, отправляя партию строк, содержащих сериализованные записи tf.Example (их кодирует base64 и использует синтаксис для их указания):
{"instances": [{"b64": base64.b64encode(example1), {"b64": base64.b64encode(example2}}, ...]}
Другой (лучший) вариантреэкспортируйте его (не нужно переобучаться, вы всегда можете экспортировать из контрольных точек или SavedModel, написав скрипт с несколькими строками для загрузки модели и экспорта новой) и вместо использования build_parsing_transforming_serving_input_receiver_fn
используйте build_default_transforming_serving_input_receiver_fn
,Тогда ваш JSON прост:
{"instances": [{"input_name": [10,3,5,6]}]}
Если у вас есть только один вход, вы можете упростить его до:
{"instances": [[10,3,5,6]]}