Я пытаюсь обучить модель Inception v1 (предоставленную TensorFlow-Slim) с нуля с помощью пользовательского набора данных.
Мой набор данных составляет около 10 тыс. Выборок.Этот набор данных содержит два класса (двоичная классификация), и размер выборки распределяется поровну.Когда я тренирую модель Inception v1 с использованием tf-slim, прогнозы всегда остаются одинаковыми до 150 эпох (после этого точность в наборе тестовых данных также увеличивается).
Потеря постоянно уменьшается, а точность увеличивается.Приблизительно после 60 эпох потеря составляет около 0,01, а модель имеет точность обучения 100%.
- Размер партии: 64
- Оптимизатор Адама: скорость обучения 0,0001, время по умолчаниюнастройки: бета1 = 0,9, бета2 = 0,999, за исключением эпсилона, это 1,0
- Потеря: Softmax Cross Entropy
Это странно, и я не уверен, нормально ли это поведение?В чем может быть причина, неправильная функция потерь, скорость обучения, размер партии?