Я использую тензорный кластер для ускорения тренировок, я не знаю почему ps сервер все еще сильно загружен после того, как все рабочие завершили?
Сервер параметров в распределенном TensorFlow никогда не завершается. См. Обсуждение в этой проблеме на GitHub.