Я пытаюсь спроектировать, как моя система использует Google ML для прогнозов.
У меня большой набор изображений, которые мне нужно использовать для прогнозов.Я могу либо:
- отправить один большой набор данных в Google ML и заставить модель разбить данные на более мелкие итеративные наборы данных, либо
- разбить набор данных заранее и отправитьнесколько запросов на предсказание Google ML с меньшими наборами данных.Это обеспечит параллелизм, но в итоге я отправлю данные примерно в 3 раза.
Если я выделю больше ресурсов для Google ML, будет ли Google ML автоматически распараллеливать итеративные наборы данных, если я выберу вариант 1?Или мне лучше самому заняться этим?
Заранее спасибо!