Настройка случайного леса классификатора sklearn - PullRequest
0 голосов
/ 05 июля 2019

В личных целях я пытаюсь изменить класс Random Forest Classifier с sklearn, чтобы достичь того, для чего я предназначен. По сути, я пытаюсь, чтобы мои деревья из случайного леса брали некоторую предопределенную выборку функций и вариантов, поэтому я изменяю класс по умолчанию. Я пытаюсь унаследовать все методы и структуру от исходного sklearn, чтобы метод fit моего настраиваемого класса случайного леса мог принимать исходные параметры sklearn

Например, я хотел бы, чтобы мой настроенный класс мог принимать те же параметры, что и исходный метод подгонки:

clf = RandomForestClassifier(n_estimators=10, max_depth=2, random_state=None, max_features=None...)


clf = Customized_RF(n_estimators=10, max_depth=2, random_state=None, max_features=None...)

но у меня возникают некоторые трудности с этим, в частности, похоже, что-то связано с определением super().__init__, где я получаю следующую ошибку: TypeError: object.__init__() takes no arguments

Я слежу за хранилищем github в качестве руководства

Rf класс

Я делаю что-то не так или пропускаю некоторые очевидные шаги?

Пока это мой подход:

import numpy as np
from sklearn.tree import DecisionTreeClassifier

class Customized_RF:
    def __init__(self, n_estimators=10, criterion='gini', max_depth=None, random_state=None):

        super().__init__(base_estimator=DecisionTreeClassifier(),
                         n_estimators=n_estimators,
                         estimator_params=("criterion", "max_depth")) # Here's where the error happens

        self.n_estimators = n_estimators

        if random_state is None:
            self.random_state = np.random.RandomState()
        else:
            self.random_state = np.random.RandomState(random_state)

        self.criterion = criterion
        self.max_depth = max_depth

    def fit(self, X, y, max_features=None, cutoff=None, bootstrap_frac=0.8):
        """
        max_features: number of features that each estimator will use,
                      including the fixed features.

        bootstrap_frac: the size of bootstrap sample that each estimator will use.

        cutoff: index feature number from which starting the features subsampling selection. Subsampling for each tree will be done retrieven a random number of features before and after the cutoff. Assuming that the features matrix is not sorted or altered somehow (sparsed).

        """
        self.estimators = []
        self.n_classes  = np.unique(y).shape[0]

        if max_features is None:
            max_features = X.shape[1]  # if max_features is None select all features for every estimator like original

        if cutoff is None:
            cutoff = int(X.shape[1] / 2)  # pick the central index number of the x vector

        print('Cutoff x vector: '.format(cutoff))

        n_samples = X.shape[0]
        n_bs = int(bootstrap_frac*n_samples)  # fraction of samples to be used for every estimator (DT)

        for i in range(self.n_estimators):
                                    replace=False)

            feats_left = self.random_state.choice(cutoff + 1, int(max_features / 2), replace=False)  # inclusive cutoff
            feats_right = self.random_state.choice(range(cutoff + 1, X.shape[1]), int(max_features/2), replace=False)
            # exclusive cutoff

            feats = np.concatenate((feats_left, feats_right)).tolist()

            self.feats_used.append(feats)

            print('Chosen feature indexes for estimator number {0}: {1}'.format(i, feats))

            bs_sample = self.random_state.choice(n_samples, 
                                                 size=n_bs,
                                                 replace=True)

            dtc = DecisionTreeClassifier(random_state=self.random_state)
            dtc.fit(X[bs_sample][:, feats], y[bs_sample])
            self.estimators.append(dtc)

    def predict_proba(self, X):
        out = np.zeros((X.shape[0], self.n_classes))
        for i in range(self.n_estimators):
            out += self.estimators[i].predict_proba(X[:, self.feats_used[i]])
        return out / self.n_estimators

    def predict(self, X):
        return self.predict_proba(X).argmax(axis=1)

    def score(self, X, y):
        return (self.predict(X) == y).mean()

1 Ответ

0 голосов
/ 07 июля 2019

Если вы хотите получить свой собственный класс из другого класса, определение класса должно иметь ссылку на базовый класс , например, class MyClass(BaseClass). super() затем ссылается на базовый класс.

В вашем случае базовый класс отсутствует, и Python предполагает, что используется универсальный класс object.

Из вашего вопроса не ясно, является ли требуемый базовый класс DecisionTreeClassifier или RandomForestClassifier. В любом случае вам нужно будет изменить параметры вашего класса, которые используются в __init__.

Незначительный: проверьте строку replace=False), это неверный синтаксис.

...