Я имею в виду результат, а не теорию:
В линейной регрессии есть формула для объяснения переменных и весов, которые вносят окончательный результат. В дереве решений есть карта путей, объясняющая, какие условия приводят к сегментации.
Единственный результат, который я могу прочитать из <из sklearn.tree import DecisionTreeRegressor>, - это pickle.dump. Но рассол все еще черный ящик. Хотя вывод features_importance_ объясняет важность веса каждой функции, однако это косвенный метод. Я до сих пор не могу понять, откуда взялась оценка.
Как читать данные и напрямую объяснять подходящий результат случайного леса? Есть ли какая-нибудь формула или карта пути?