Должен ли я использовать одни и те же эпохи для каждой партии? - PullRequest
0 голосов
/ 16 апреля 2019

Мне нужно понять, как эпохи / итерации влияют на обучение модели глубокого обучения.

Я тренирую модель NER с помощью Spacy 2.1.3, мои документы очень длинные, поэтому я не могу тренироваться больше, чем200 документов за итерацию.В общем, я делаю

из документа 0 в документ 200 -> 20 эпох

из документа 201 в документ 400 -> 20 эпох

и так далее.

Может быть, это глупый вопрос, но должны ли эпохи следующих партий быть такими же, как первые 0-200?так что, если я выбрал 20 эпох, я тоже должен обучить следующее с 20 эпохами?

Спасибо

Ответы [ 2 ]

1 голос
/ 16 апреля 2019

i need to understand how the epochs/iterations affect the training of a deep learning model - никто не уверен в этом.После определенного количества эпох вы можете переодеться, вы должны проверить свою точность (или другие метрики) в наборе проверочных данных.Такие методы, как Ранняя остановка , часто используются для борьбы с этим.

so i cannot train more than 200 documents per iteration. - Вы имеете в виду серию примеров?Если это так, он должен быть меньше (слишком много информации за одну итерацию и слишком дорого).32 обычно используется для текстовых данных, до 64.Размеры партий часто тем меньше, чем больше эпох вы тренируете, чтобы лучше достичь минимума (или избежать седловых точек).

Более того, вам следует использовать генераторы Python, чтобы вы могли перебирать данные, размер которых больше, чем вашОбъем оперативной памяти.

И последнее, но не менее важное: каждый пример обычно тренируется один раз за эпоху.Различные подходы (скажем, oversampling или undersampling) are sometimes used but usually when your classes distribution is imbalanced (say 10% examples belong to class 0 and 90% to class 1`) или нейронная сеть имеют проблемы с определенным классом (хотя этот подход требует более продуманного подхода).

0 голосов
/ 16 апреля 2019

Обычная практика - тренировать каждую партию только с 1 эпохой. Обучение на одном и том же подмножестве данных за 20 эпох может привести к переоснащению, которое вредит вашей модели.

Чтобы лучше понять, как число эпох, обученных в каждой партии, влияет на вашу производительность, вы можете выполнить поиск по сетке и сравнить результаты.

...