Классический подход к этому - через иерархическое моделирование (если вы можете иметь иерархии), модели с фиксированными эффектами (или случайные эффекты, в зависимости от допущений и обстоятельств), различные другие групповые или структурные модели.
Вы можете сделать то же самое в контексте машинного обучения, описав распределения как функцию источника, как с точки зрения выборочных совокупностей, так и переменной (ей) ответа. Таким образом, источник - это, по сути, функция, которая потенциально может взаимодействовать со всеми (или большинством) другими функциями.
Больший вопрос в том, будут ли ваши будущие (тестовые) данные поступать из одной из этих выборочных групп или из другой группы.
Обновление 1: если вы хотите сосредоточиться на машинном обучении, а не на статистике, необходимо рассмотреть еще одну связанную концепцию - это трансферное обучение. Это не очень сложно, хотя это довольно раскручено. Основная идея заключается в том, что в распределениях вспомогательных данных вы найдете общие свойства, которые можно сопоставить с каркасом предиктор / ответ целевого источника данных. В другом смысле, вы ищете способ исключить вариации, зависящие от источника. Это описания очень высокого уровня, но они должны помочь в ваших планах чтения.