Параметры нейронных сетей стабильны - PullRequest
0 голосов
/ 25 октября 2019

Я экспериментирую с классификацией аудио.

Мой код -

x_train = (800, 32, 1)
x_test = (200, 32, 1)
y_train = (800, 1)
y_test = (200, 1)

model = Sequential()

model.add(Conv1D(filters=64, kernel_size=20, padding='same', input_shape=(32,1), activation="relu"))
model.add(MaxPooling1D(3))

model.add(Conv1D(filters=64, kernel_size=15, padding='same',  activation="relu"))
model.add(MaxPooling1D(2))

model.add(Conv1D(filters=96, kernel_size=10, padding='same',  activation="relu"))

model.add(Flatten())
model.add(Dense(128, activation="relu"))
model.add(Dropout(0.5))
model.add(Dense(96, activation="relu"))
model.add(Dense(10, activation="softmax"))

model.compile(
    loss ='sparse_categorical_crossentropy',
    optimizer = Adam(lr=0.01),
    metrics = ['accuracy']
)
model.summary()

red_lr= ReduceLROnPlateau(monitor='val_loss', patience=3, verbose=1, factor=0.001, mode='min')
check=ModelCheckpoint(filepath=r'/content/drive/My Drive/Colab Notebooks/genre/cnn.hdf5', verbose=1,save_best_only = True)

History = model.fit(x_train,y_train, epochs=30,batch_size=128,validation_data = (x_test, y_test),verbose = 2, callbacks=[check, red_lr,],shuffle=True )

Я начал с 1 слоя и увеличил его для точности. У лучшей модели были эти значения - (потеря:0,5385 - в соотв: 0,8275 - val_loss: 0,8758 - val_acc: 0,7400)

Я запускаю от 4 до 5 раз, все имеют одинаковый шаблон в val_acc и val_loss. Эти два параметра постепенно увеличиваются, и после выполнения половины эпохоно станет стабильным для остальных эпох ... Как это,

Accuracy Loss

Любые предложения по увеличениюТочность и почему потеря не меняется в половине эпох

1 Ответ

0 голосов
/ 25 октября 2019

Есть два возможных ответа. Ваша модель уже находится на локальном минимуме или выходит за локальный минимум. Чтобы проверить это, вы можете установить более низкую скорость обучения в функции оптимизатора:

optimizer = Adam(lr=0.001) # change it to 0.001 or even lower
...