в этой ссылке https://www.tensorflow.org/beta/tutorials/distribute/multi_worker_with_estimator они говорят, что при использовании Estimator для обучения нескольких рабочих необходимо разделить набор данных на количество рабочих, чтобы обеспечить конвергенцию модели. Для нескольких рабочих они означают несколько одна система или распределенное обучение? у меня 2 gpus в одной системе, нужно ли мне осколок набора данных?