Я промочил ноги с помощью Tensorflow и MLEngine.
На основе faster_rcnn_resnet101_coco_11_06_2017
Я обучил модель с пользовательскими данными, используя API обнаружения объектов .
Экспортированные моделиразмер составляет 190,5 МБ.
Локальный прогноз работает отлично.Но MLEngine выдает мне следующую ошибку при использовании gcloud:
"error": {
"code": 429,
"message": "Prediction server is out of memory, possibly because model size
is too big.",
"status": "RESOURCE_EXHAUSTED"
}
И следующую ошибку при использовании клиентской библиотеки NodeJS :
code: 429,
errors:
[ { message: 'Prediction server is out of memory, possibly because model size is too big.',
domain: 'global',
reason: 'rateLimitExceeded' } ] }
Изображения, которыми я являюсьдля тестирования используются прогнозы PNG с размерами 700px * 525px (365kb) и 373px * 502px (90kb)
Я не уверен, как поступить слишком долго.
Ожидается ли, что обнаружение объекта требует больше памяти, чем MLEngineпредложения?
Действительно ли размер модели здесь важен и как я могу улучшить это?
Спасибо за вашу помощь и идеи!