Любой алгоритм регрессии просто отображает входные данные (x,z)
на выходные данные y
каким-то образом, уникальным для указанного алгоритма c. Для нового ввода (x0,z0)
алгоритм, скорее всего, будет предсказывать что-то очень близкое к истинному выводу y0
, если в тренинг было включено много точек данных, подобных этим. Если бы только данные обучения были доступны в совершенно другом регионе, прогнозы, скорее всего, будут очень плохими.
GPR включает в себя меру достоверности прогнозов, а именно дисперсию. Разница, естественно, будет очень высокой в регионах, где данные обучения не были замечены ранее, и низкими очень близко к уже замеченным точкам данных. Если «эксперимент» занимает гораздо больше времени, чем оценка гауссовского процесса, вы можете использовать гауссовский процесс, чтобы убедиться, что вы отбираете области, в которых вы очень не уверены в своем ответе.
Если целью является полное изучение Во всем пространстве ввода вы можете нарисовать много случайных значений (x,z)
и оценить дисперсию по этим значениям. Тогда вы можете выполнить дорогостоящий эксперимент в точке ввода, где вы наиболее неуверенны в y
. Затем вы можете переучить GPR со всеми исследованными данными и повторить процесс.
Для задач оптимизации (не вопрос ОП)
Если вы будете sh чтобы найти самое низкое значение y
во входном пространстве, вы не заинтересованы в проведении эксперимента в регионах, которые, как вы знаете, дают высокие значения y
, но вы просто не уверены в как высоко эти значения будут. Поэтому вместо выбора (x,z)
точек с наибольшей дисперсией вы можете выбрать прогнозируемое значение y
плюс одно стандартное отклонение. Этот способ минимизации значений называется байесовской оптимизацией, а эта схема c называется Upper Confidence Bound (UCB). Ожидаемое улучшение (EI) - вероятность улучшения ранее лучшего результата - также широко используется.