Я знаю, что TensorFlow предлагает API распределенного обучения, который может обучаться на нескольких устройствах, таких как несколько графических процессоров, процессоров, TPU или нескольких компьютеров (рабочих). Выполните следующие действия: c: https://www.tensorflow.org/tutorials/distribute/multi_worker_with_keras
Но у меня есть вопрос, это какой-нибудь возможный способ разделить поезд, используя параллелизм данных для обучения на нескольких машинах (включая мобильные устройства и компьютерные устройства)?
Буду очень признателен, если у вас есть учебник / инструкция.