Используя Hyperparameter Tuning для SGD Regressor, я хочу настроить следующие гиперпараметры, используя следующие значения.
альфа: 0,1, 0,01, 0,001
learning_rate: «постоянная», «оптимальная»
l1_ratio ': от 0 до 1
max_iter ': попробуйте большие итерации от 20000
эта0: 0,01, 0,001
Я хочу сообщить о лучшем балле (среднеквадратичная ошибка) и оптимальных значениях гиперпараметра.
sgd_reg = SGDRegressor(alpha=0.1, average=False, early_stopping=False,
epsilon=0.1, eta0=0.01, fit_intercept=True, l1_ratio=0.15,
learning_rate='constant', loss='squared_loss', max_iter=10000,
n_iter=None, n_iter_no_change=5, penalty='l2', power_t=0.25,
random_state=None, shuffle=True, tol=0.001, validation_fraction=0.1,
verbose=0, warm_start=False)
print («Лучший результат (среднеквадратичная ошибка):% f», ??)
print («Оптимальные значения гиперпараметра:», ??)