Я создаю очень простую двухслойную сеть с прямой связью, но обнаруживаю, что потеря не обновляется вообще. У меня есть некоторые идеи, но я хотел получить дополнительную обратную связь / рекомендации.
Подробности о данных:
X_train:
(336876, 158)
X_dev:
(42109, 158)
Количество Y_train:
0 285793
1 51083
Name: default, dtype: int64
Y_dev считает:
0 35724
1 6385
Name: default, dtype: int64
А вот моя модель архитектуры:
# define the architecture of the network
model = Sequential()
model.add(Dense(50, input_dim=X_train.shape[1], init="uniform", activation="relu"))
model.add(Dense(3print("[INFO] compiling model...")
adam = Adam(lr=0.01)
model.compile(loss="binary_crossentropy", optimizer=adam,
metrics=['accuracy'])
model.fit(np.array(X_train), np.array(Y_train), epochs=12, batch_size=128, verbose=1)Dense(1, activation = 'sigmoid'))
Теперь, с этим, мои потери после первых нескольких эпох следующие:
Epoch 1/12
336876/336876 [==============================] - 8s - loss: 2.4441 - acc: 0.8484
Epoch 2/12
336876/336876 [==============================] - 7s - loss: 2.4441 - acc: 0.8484
Epoch 3/12
336876/336876 [==============================] - 6s - loss: 2.4441 - acc: 0.8484
Epoch 4/12
336876/336876 [==============================] - 7s - loss: 2.4441 - acc: 0.8484
Epoch 5/12
336876/336876 [==============================] - 7s - loss: 2.4441 - acc: 0.8484
Epoch 6/12
336876/336876 [==============================] - 7s - loss: 2.4441 - acc: 0.8484
Epoch 7/12
336876/336876 [==============================] - 7s - loss: 2.4441 - acc: 0.8484
Epoch 8/12
336876/336876 [==============================] - 6s - loss: 2.4441 - acc: 0.8484
Epoch 9/12
336876/336876 [==============================] - 6s - loss: 2.4441 - acc: 0.8484
И когда я тестирую модель после этого, мой f1_score равен 0. Моя основная мысль заключалась в том, что мне может понадобиться больше данных, но я все же ожидаю, что они будут работать лучше, чем сейчас на тестовом наборе. Может быть, это переоснащение? Я добавил Dropout, но там тоже не повезло.
Любая помощь будет принята с благодарностью.