Я пытался охарактеризовать процесс обучения (точность и потери) в учебнике по записной книжке Федеративное обучение для классификации изображений с помощью TF Federated. * 1001 эпоха гиперпараметра. Смена эпох с 5, 10, 20 и c. Но я также вижу значительное повышение точности тренировок. Я подозреваю, что происходит переобучение, хотя затем я оцениваю, что точность набора тестов все еще высока.
Интересно, что происходит. ?
Насколько я понимаю, параметр эпохи управляет числом опор вперед / назад для каждого клиента за раунд обучения. Это верно ? Итак, ie 10 раундов обучения на 10 клиентах с 10 эпохами составят 10 эпох на 10 клиентов на 10 раундов. Поймите, что требуется более широкий круг клиентов и c, но я ожидал увидеть меньшую точность на тестовой выборке.
Что я могу сделать, чтобы узнать, что происходит? Могу ли я использовать оценочную проверку с чем-то вроде кривых обучения, чтобы увидеть, происходит ли переоснащение?
test_metrics = evaluation(state.model, federated_test_data)
Кажется, что дает только одну точку данных, как я могу получить индивидуальную точность теста для каждого проверенного примера теста ?