GridSearchCV - Ошибка: значение истинности массива с более чем одним элементом является неоднозначным. Используйте a.any () или a.all () - PullRequest
0 голосов
/ 03 января 2019

Я пытаюсь выполнить Классификацию нейронных сетей , используя scikit-learn в python.

Я сгенерировал свои данные, разделил их для обучения и тестирования и использовал их в модели MLPClassifier().

Далее я планирую оценить параметры, используемые в этой модели, используя sklearn.model_selection.GridSearchCV.

Вот мой код:

import matplotlib.pyplot as plt
import numpy as np
import itertools

from sklearn.neural_network import MLPClassifier
from sklearn.datasets.samples_generator import make_blobs, make_moons
from sklearn.model_selection import train_test_split
from sklearn.model_selection import GridSearchCV

X, y = make_blobs(n_samples=500, centers=5, n_features=2, random_state=10, cluster_std=2.5)
y[y==0] = -1
X_train, X_test,  y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=10)

X_train и X_test - это массивы с двумя функциями.

model_MLP_RAW = MLPClassifier()
model_MLP_RAW.fit(X_train, y_train)
model_MLP_RAW.predict(X_test) == y_test
model_MLP_RAW.score(X_test, y_test)

model_MLP_RAW = MLPClassifier()

param_gridMLPC = {
    'learning_rate': ["constant", "invscaling", "adaptive"],
    'hidden_layer_sizes': [x for x in itertools.product((10,20,30,40,50,100),repeat=3)],
    'alpha': [10.0 ** -np.arange(1, 7)],
    'activation': ["logistic", "relu", "tanh"]
}

CV_unknwnMLPC = GridSearchCV(estimator=model_MLP_RAW, param_grid=param_gridMLPC, cv= 5)
CV_unknwnMLPC.fit(X_train, y_train)

print(CV_unknwnMLPC.best_params_)

Все работает нормально, но на линии CV_unknwnMLPC.fit(X_train, y_train) Я получаю следующую ошибку:

ValueError                                Traceback (most recent call last)
<ipython-input-30-90faf7e56738> in <module>()
     10 
     11 CV_unknwnMLPC = GridSearchCV(estimator=model_MLP_RAW, param_grid=param_gridMLPC, cv= 5)
---> 12 CV_unknwnMLPC.fit(X_train, y_train)
     13 
     14 print(CV_unknwnMLPC.best_params_)

~\Anaconda3\lib\site-packages\sklearn\model_selection\_search.py in fit(self, X, y, groups, **fit_params)
    638                                   error_score=self.error_score)
    639           for parameters, (train, test) in product(candidate_params,
--> 640                                                    cv.split(X, y, groups)))
    641 
    642         # if one choose to see train score, "out" will contain train score info

~\Anaconda3\lib\site-packages\sklearn\externals\joblib\parallel.py in __call__(self, iterable)
    777             # was dispatched. In particular this covers the edge
    778             # case of Parallel used with an exhausted iterator.
--> 779             while self.dispatch_one_batch(iterator):
    780                 self._iterating = True
    781             else:

~\Anaconda3\lib\site-packages\sklearn\externals\joblib\parallel.py in dispatch_one_batch(self, iterator)
    623                 return False
    624             else:
--> 625                 self._dispatch(tasks)
    626                 return True
    627 

~\Anaconda3\lib\site-packages\sklearn\externals\joblib\parallel.py in _dispatch(self, batch)
    586         dispatch_timestamp = time.time()
    587         cb = BatchCompletionCallBack(dispatch_timestamp, len(batch), self)
--> 588         job = self._backend.apply_async(batch, callback=cb)
    589         self._jobs.append(job)
    590 

~\Anaconda3\lib\site-packages\sklearn\externals\joblib\_parallel_backends.py in apply_async(self, func, callback)
    109     def apply_async(self, func, callback=None):
    110         """Schedule a func to be run"""
--> 111         result = ImmediateResult(func)
    112         if callback:
    113             callback(result)

~\Anaconda3\lib\site-packages\sklearn\externals\joblib\_parallel_backends.py in __init__(self, batch)
    330         # Don't delay the application, to avoid keeping the input
    331         # arguments in memory
--> 332         self.results = batch()
    333 
    334     def get(self):

~\Anaconda3\lib\site-packages\sklearn\externals\joblib\parallel.py in __call__(self)
    129 
    130     def __call__(self):
--> 131         return [func(*args, **kwargs) for func, args, kwargs in self.items]
    132 
    133     def __len__(self):

~\Anaconda3\lib\site-packages\sklearn\externals\joblib\parallel.py in <listcomp>(.0)
    129 
    130     def __call__(self):
--> 131         return [func(*args, **kwargs) for func, args, kwargs in self.items]
    132 
    133     def __len__(self):

~\Anaconda3\lib\site-packages\sklearn\model_selection\_validation.py in _fit_and_score(estimator, X, y, scorer, train, test, verbose, parameters, fit_params, return_train_score, return_parameters, return_n_test_samples, return_times, error_score)
    456             estimator.fit(X_train, **fit_params)
    457         else:
--> 458             estimator.fit(X_train, y_train, **fit_params)
    459 
    460     except Exception as e:

~\Anaconda3\lib\site-packages\sklearn\neural_network\multilayer_perceptron.py in fit(self, X, y)
    971         """
    972         return self._fit(X, y, incremental=(self.warm_start and
--> 973                                             hasattr(self, "classes_")))
    974 
    975     @property

~\Anaconda3\lib\site-packages\sklearn\neural_network\multilayer_perceptron.py in _fit(self, X, y, incremental)
    324 
    325         # Validate input parameters.
--> 326         self._validate_hyperparameters()
    327         if np.any(np.array(hidden_layer_sizes) <= 0):
    328             raise ValueError("hidden_layer_sizes must be > 0, got %s." %

~\Anaconda3\lib\site-packages\sklearn\neural_network\multilayer_perceptron.py in _validate_hyperparameters(self)
    390         if self.max_iter <= 0:
    391             raise ValueError("max_iter must be > 0, got %s." % self.max_iter)
--> 392         if self.alpha < 0.0:
    393             raise ValueError("alpha must be >= 0, got %s." % self.alpha)
    394         if (self.learning_rate in ["constant", "invscaling", "adaptive"] and

ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all()

Я проверил некоторыеотвечает онлайн, и я дважды проверил параметры в param_gridMLPC, чтобы убедиться, что они хорошо предоставлены, но ошибка не исчезла.

Что я делаю не так?

Заранее спасибо

1 Ответ

0 голосов
/ 04 января 2019

'alpha': [10.0 ** -np.arange (1, 7)]

В документации MLPClassifier : -

alpha : float , необязательно, по умолчанию 0,0001

Параметр штрафа L2 (термин регуляризации).

"alpha" должен быть плавающим.Таким образом, в сетке параметров это может быть список различных чисел с плавающей запятой.

Но когда вы делаете это:

'alpha': [10.0 ** -np.arange(1, 7)]

Это становится списком массивов.Это своего рода последовательность последовательности (список, массив, массив и т. Д.).Это означает, что первый элемент списка - это пустой массив, который будет передан во внутренний MLPClassifier вместо "alpha".Это ошибка.

Вы можете сделать следующее:

'alpha': 10.0 ** -np.arange(1, 7)

Это будет простой массив, из которого будут выбраны элементы (значения с плавающей запятой) для отправки в модель.

...