Как прочитать подходящий результат Случайного леса? sklearn - PullRequest
0 голосов
/ 02 декабря 2019

Я имею в виду результат, а не теорию:

В линейной регрессии есть формула для объяснения переменных и весов, которые вносят окончательный результат. В дереве решений есть карта путей, объясняющая, какие условия приводят к сегментации.

Единственный результат, который я могу прочитать из <из sklearn.tree import DecisionTreeRegressor>, - это pickle.dump. Но рассол все еще черный ящик. Хотя вывод features_importance_ объясняет важность веса каждой функции, однако это косвенный метод. Я до сих пор не могу понять, откуда взялась оценка.

Как читать данные и напрямую объяснять подходящий результат случайного леса? Есть ли какая-нибудь формула или карта пути?

...