Развертывание модели обнаружения объектов Tensorflow и обслуживание предсказаний - PullRequest
0 голосов
/ 10 февраля 2019

У меня есть модель обнаружения объектов Tensorflow, развернутая на ML Engine облачной платформы Google.Я встречал сообщений , предлагающих Tensorflow Serving + Docker для лучшей производительности.Я новичок в Tensorflow и хочу знать, как лучше всего делать прогнозы.В настоящее время онлайн-прогнозы ML Engine имеют задержку> 50 секунд.Мой пример использования: пользователь загружает картинки с помощью мобильного приложения и получает подходящий ответ на основе результата прогноза.Итак, я ожидаю, что задержка прогнозирования снизится до 2-3 секунд.Что еще я могу сделать, чтобы сделать прогнозы быстрее?

1 Ответ

0 голосов
/ 22 февраля 2019

Google Cloud ML Engine недавно выпустил поддержку графических процессоров для онлайн-прогнозирования (Alpha).Я считаю, что наше предложение может обеспечить улучшения производительности, которые вы ищете.Не стесняйтесь зарегистрироваться здесь: https://docs.google.com/forms/d/e/1FAIpQLSexO16ULcQP7tiCM3Fqq9i6RRIOtDl1WUgM4O9tERs-QXu4RQ/viewform?usp=sf_link

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...