Сервер параметров TF2 Кастомные работники - PullRequest
0 голосов
/ 06 февраля 2020

TF2 сильно продвигает стратегии распространения. Идея состоит в том, что простое предложение with может обеспечить параллелизм данных для любых операций, ориентированных на распространение. В основном это предполагает, что все пользователи обучают данные параллельным простым сетям.

Мне нужно реализовать настраиваемые рабочие, которые выполняют все виды задач (выполняют обширный массив окружений RL) и способны синхронизировать параметры модели с сервер параметров.

Я заметил, что все документы, не относящиеся к стратегии распространения, были удалены. Интересно, планируется ли документировать способы реализации пользовательских распределенных рабочих TensorFlow.

TF, используемый для документирования и поддержки очень продвинутых низкоуровневых API (графическая сессия). Кажется, что в наши дни простые схемы обучения с Keras - это единственный полностью документированный и поддерживаемый API.

...