Это вопросы понимания. Предположим, что я хочу выполнить перекрестную проверку вложенности (например, external: 5 x inner: 4) и использовать последовательную оптимизацию, чтобы найти лучший набор параметров. Настройка параметров происходит во внутренней l oop. Выполняя обычный поиск по сетке, я тренируюсь в три раза и проверяю в 1 раза внутренний l oop для каждой комбинации гиперпараметров, а затем выбираю лучший набор параметров. Затем гиперпараметрическая комбинация внутреннего l oop обучается и оценивается на новых контрольных сгибах внешнего l oop аналогично внутреннему l oop.
Но так как По сетке поиска все параметры априори известны. Как определяется новый набор параметров при использовании последовательной оптимизации? Зависят ли вновь предложенные точки от ранее оцененных точек, усредненных по всем внутренним сгибам? Но это кажется мне интуитивно неправильным, так как это похоже на сравнение яблок и апельсинов. Надеюсь, мой вопрос не слишком запутанный.