i need to understand how the epochs/iterations affect the training of a deep learning model
- никто не уверен в этом.После определенного количества эпох вы можете переодеться, вы должны проверить свою точность (или другие метрики) в наборе проверочных данных.Такие методы, как Ранняя остановка , часто используются для борьбы с этим.
so i cannot train more than 200 documents per iteration.
- Вы имеете в виду серию примеров?Если это так, он должен быть меньше (слишком много информации за одну итерацию и слишком дорого).32
обычно используется для текстовых данных, до 64
.Размеры партий часто тем меньше, чем больше эпох вы тренируете, чтобы лучше достичь минимума (или избежать седловых точек).
Более того, вам следует использовать генераторы Python, чтобы вы могли перебирать данные, размер которых больше, чем вашОбъем оперативной памяти.
И последнее, но не менее важное: каждый пример обычно тренируется один раз за эпоху.Различные подходы (скажем, oversampling
или undersampling) are sometimes used but usually when your classes distribution is imbalanced (say 10% examples belong to class
0 and 90% to class
1`) или нейронная сеть имеют проблемы с определенным классом (хотя этот подход требует более продуманного подхода).