Я пытаюсь построить нейронную сеть, которая умножила бы 2 числа.Чтобы сделать то же самое, я воспользовался помощью scikit-learn.Я иду к нейронной сети с 2 скрытыми слоями (5, 3) и ReLU в качестве моей функции активации.
Я определил мой MLPRegressor
следующим образом:
X = data.drop('Product', axis=1)
y = data['Product']
X_train, X_test, y_train, y_test = train_test_split(X, y)
scaler = StandardScaler()
scaler.fit(X_train)
X_train = scaler.transform(X_train)
X_test = scaler.transform(X_test)
mlp = MLPRegressor(hidden_layer_sizes=(5, 3), activation="relu", learning_rate="adaptive", max_iter=500000, verbose=True, validation_fraction=0.25)
Здесь, data
- это фрейм данных, который содержит 3 столбца, 2 случайных числа и 1 столбец продукта.Проблема в том, что потеря, которую я получаю, имеет порядок 10 ^ 14.Как мне уменьшить эту потерю, улучшить производительность моей модели и какие все возможные изменения могут помочь мне в этой ситуации?