Я тренирую нейронную сеть и хочу уменьшить скорость обучения во время тренировки. В настоящее время я использую функцию ReduceLROnPlateau
, предоставленную keras. Но затем он достигает фактора терпения, он просто останавливается и не продолжает обучение.
Я хочу снизить скорость обучения и продолжить обучение net.
Вот мой код.
optimizer=k.optimizers.Adam(learning_rate=1e-5)
model.compile(loss='categorical_crossentropy',
optimizer=optimizer,
metrics=['acc'])
learningRate=callbacks.callbacks.ReduceLROnPlateau(monitor='val_acc', verbose=1, mode='max',factor=0.2, min_lr=1e-8,patience=7)
model.fit_generator(generator=training_generator,
validation_data=validation_generator,
steps_per_epoch=1000,
epochs=30,
validation_steps=1000,
callbacks=[learningRate]
)