Ошибка прогноза Google Cloud MLEngine 429 - PullRequest
0 голосов
/ 25 мая 2018

Я промочил ноги с помощью Tensorflow и MLEngine.
На основе faster_rcnn_resnet101_coco_11_06_2017 Я обучил модель с пользовательскими данными, используя API обнаружения объектов .

Экспортированные моделиразмер составляет 190,5 МБ.

Локальный прогноз работает отлично.Но MLEngine выдает мне следующую ошибку при использовании gcloud:

"error": {
    "code": 429,
    "message": "Prediction server is out of memory, possibly because model size 
    is too big.",
    "status": "RESOURCE_EXHAUSTED"
 }

И следующую ошибку при использовании клиентской библиотеки NodeJS :

code: 429,
errors: 
 [ { message: 'Prediction server is out of memory, possibly because model size is too big.',
     domain: 'global',
     reason: 'rateLimitExceeded' } ] }

Изображения, которыми я являюсьдля тестирования используются прогнозы PNG с размерами 700px * 525px (365kb) и 373px * 502px (90kb)

Я не уверен, как поступить слишком долго.
Ожидается ли, что обнаружение объекта требует больше памяти, чем MLEngineпредложения?
Действительно ли размер модели здесь важен и как я могу улучшить это?

Спасибо за вашу помощь и идеи!

1 Ответ

0 голосов
/ 29 мая 2018

В документации есть страница , объясняющая, как коды состояния http можно интерпретировать в контексте онлайн-прогнозирования.В этом конкретном случае узлам, на которых запущена ваша модель, не хватило памяти (см. Также этот ответ на старый вопрос сотрудника Google, работающего с ML Engine).Предлагаемые решения - уменьшить размер вашей модели и / или использовать меньший размер пакета (по умолчанию установлено значение 64 записей на пакет ).Учитывая, что ваша модель уже меньше, чем максимум 250 МБ , вы можете сначала рассмотреть последнее решение.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...