Я пробую распределение TensorFlow, согласно документу здесь https://www.tensorflow.org/deploy/distributed, мы используем параллелизм данных. У меня есть настроенные сценарии ps-worker, все работает, как и ожидалось.
но один запрос, пожалуйста, помогите:
как гарантировать каждому работнику чтение разных частей данных из смонтированного хранилища?
например:
У меня есть данные:
1,2,3,4,5,6,7,8,9,10 в моем хранилище
и два рабочих: рабочий1 и рабочий2
Я предполагал, что worker1 будет читать данные: 1,2,5,7,9, а worker2 читает 3,4,6,8,10 из-за параллелизма данных.
есть ли в TensorFlow какой-либо связанный код, реализующий такого рода магию, если нет, как гарантировать каждому работнику чтение разных фрагментов данных из смонтированного хранилища?
Спасибо,
Аллен Чжан