Здесь возможно смешанная терминология: в зависимости от того, что означает эпоха , в федеративном обучении этого можно ожидать.
Если эпоха считает "раунды" "(for-l oop в приведенном выше коде): обычно раунд в федеративном обучении намного меньше, чем эпоха в централизованном обучении. Глобальная модель обновляется только один раз в раунде , и эти обновления обучаются на гораздо меньшем количестве примеров, чем весь набор данных. Часто, если в наборе данных есть M
примеров, разделенных на K
клиентов, федеративное обучение может выбрать только несколько из этих клиентов для участия в раунде, увидев только несколько из M / K
примеров в этом раунде.
В отличие от централизованного обучения, в котором эпоха по одному и тому же набору данных с M
примерами и процедура обучения с размером пакета N
продвинет модель на M / N
шагов и увидит все M
примеры.
Обычно требуется больше раундов в федеративном обучении для обучения модели, чем эпох в централизованном обучении, что можно рассматривать как вызванное раундов намного меньше