Ответ ЭльКамины верный, но следует отметить, что он идентичен выполнению k независимых регрессий по методу наименьших квадратов.То есть то же самое, что делать отдельную линейную регрессию от X до высоты тона, от X до рыскания и от X до силы.Это означает, что вы не используете корреляции между выходными переменными.Это может подойти для вашего приложения, но одна альтернатива, которая использует преимущества корреляций в выходных данных, - это уменьшенная регрессия ранга ( реализация Matlab здесь ), или в некоторой степени связанная, вы можете явно некоррелировать y, проецируя ее наего основные компоненты (см. PCA , также называемый в данном случае PCA отбеливание , поскольку вы не уменьшаете размерность).
Я настоятельно рекомендую главу 6 учебника Изенмана "Современные многомерные статистические методы: регрессия, классификация и обучение в коллекторах" для достаточно высокого уровня обзора этих методов.Если вы учитесь в университете, он может быть доступен онлайн через вашу библиотеку.
Если эти альтернативы не работают должным образом, существует много сложных нелинейных методов регрессии, которые имеют несколько выходных версий (хотя большинство пакетов программного обеспеченияне имеют многомерные модификации), такие как поддержка векторной регрессия, гауссова регрессия процесса, решение дерева регрессия, или даже нейронные сети.