поезд на нескольких устройствах - PullRequest
0 голосов
/ 10 апреля 2020

Я знаю, что TensorFlow предлагает API распределенного обучения, который может обучаться на нескольких устройствах, таких как несколько графических процессоров, процессоров, TPU или нескольких компьютеров (рабочих). Выполните следующие действия: c: https://www.tensorflow.org/tutorials/distribute/multi_worker_with_keras

Но у меня есть вопрос, это какой-нибудь возможный способ разделить поезд, используя параллелизм данных для обучения на нескольких машинах (включая мобильные устройства и компьютерные устройства)?

Буду очень признателен, если у вас есть учебник / инструкция.

...