Я использую сэмплер TPE от optuna для оптимизации гиперпараметров для моделей машинного зрения Deep Learning. Мне было интересно, адаптирует ли optuna поиск в зависимости от количества попыток.
Если я тренируюсь для 1000 попыток и останавливаюсь на 500, я вижу, что многие параметры не были опробованы алгоритмом. Если я уменьшу n_trials, будет ли TPE исследовать быстрее (и менее точно)? Другими словами, прерывание optuna на 500 с n_step = 1000 аналогично использованию n_trials = 500 и ожиданию до конца.
У меня есть только базовое c понимание того, как работает TPE.
Спасибо.