Обучая нейронную сеть в Tensorflow 2.0 на python, я замечаю, что точность обучения и потери резко меняются в разные эпохи. Я знаю, что напечатанные метрики являются средними по всей эпохе, но точность, похоже, значительно падает после каждой эпохи, несмотря на то, что среднее значение постоянно увеличивается.
Потеря также демонстрирует это поведение, значительно снижаясь в каждую эпоху, но в среднем увеличивается. Вот изображение того, что я имею в виду (из Tensorboard):

Я заметил такое поведение на всех моделях, которые я реализовал самтак что это может быть ошибкой, но я хочу получить второе мнение о том, является ли это нормальным поведением и если да, что это значит?
Кроме того, я использую довольно большой набор данных (примерно 3 миллиона примеров),Размер партии равен 32, и каждая точка на графиках точности / потерь представляет 50 партий (2 К на графике = 100 К партий). График скорости обучения составляет 1: 1 для пакетов.