Python: распараллелить обучение OneClassSVM - PullRequest
0 голосов
/ 28 ноября 2018

Я использую OneClassSVM для обучения набора данных (4641820, 43).Я отправляю свою работу в кластер .Тренировка занимает три дня подряд.Как новичок, я также изучил LogisticRegression & RandomForestClassifier , где я видел параметр **n_jobs**: The number of jobs to run in parallel for both fit and predict.Я также изучил, что n_jobs = -1 означает, что вычисления будут отправлены на все процессоры компьютера.Но для OneClassSVM я не нашел ничего подобного.DoC's OneClassSVM выполняет это внутренне и как я могу сократить время тренировки или это нормально в соответствии с моим набором данных?

Настройки параметров моего классификатора

OneClassSVM(cache_size=200, coef0=0.0, degree=3, gamma=0.1,
      kernel='linear', max_iter=-1, nu=0.014371518068343882,
      random_state=None, shrinking=True, tol=0.001, verbose=False)

Есть связанный вопрос 1 & 2 , но я не нашел для меня никаких положительных решений.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...