MLR: Как именно происходит процесс при использовании последовательной оптимизации во вложенной повторной выборке? - PullRequest
0 голосов
/ 09 января 2020

Это вопросы понимания. Предположим, что я хочу выполнить перекрестную проверку вложенности (например, external: 5 x inner: 4) и использовать последовательную оптимизацию, чтобы найти лучший набор параметров. Настройка параметров происходит во внутренней l oop. Выполняя обычный поиск по сетке, я тренируюсь в три раза и проверяю в 1 раза внутренний l oop для каждой комбинации гиперпараметров, а затем выбираю лучший набор параметров. Затем гиперпараметрическая комбинация внутреннего l oop обучается и оценивается на новых контрольных сгибах внешнего l oop аналогично внутреннему l oop.

Но так как По сетке поиска все параметры априори известны. Как определяется новый набор параметров при использовании последовательной оптимизации? Зависят ли вновь предложенные точки от ранее оцененных точек, усредненных по всем внутренним сгибам? Но это кажется мне интуитивно неправильным, так как это похоже на сравнение яблок и апельсинов. Надеюсь, мой вопрос не слишком запутанный.

1 Ответ

1 голос
/ 10 января 2020

Я думаю, вы можете неправильно понять термин «последовательная оптимизация».

Это может означать две вещи, в зависимости от контекста:

  • В При настройке контекста этот термин иногда используется как синоним «прямого выбора объектов» (FFS). В этом случае поиск по сетке не выполняется. Переменные набора данных последовательно добавляются в модель, чтобы увидеть, достигнута ли лучшая производительность.

  • Когда вы используете этот термин при выполнении «поиска по сетке», вы, скорее всего, просто имеете в виду, что процесс выполняется последовательно (т.е. на одном ядре, по одной настройке за раз). Аналогом этого будет «параллельный поиск по сетке», когда вы будете оценивать заранее определенные варианты сетки одновременно, используя несколько ядер.

...