Я задаю этот вопрос, потому что многие структуры глубокого обучения, такие как Caffe, поддерживают функцию уточнения модели.Например, в Caffe мы можем использовать снимок для инициализации параметров нейронной сети, а затем продолжить выполнение обучения, как показано в следующей команде:
./caffe train -solver solver_file.prototxt -snapshot snap_file.solverstate
Чтобы продолжить обучение модели, я могу сыграть на следующих приемахс:
- использовать меньшую скорость обучения
- изменить метод оптимизации.Например, изменить стохастический градиентный спуск на алгоритм ADAM
Какие-нибудь другие приемы, с которыми я могу играть?
пс: я понимаю, что уменьшение значения функции потерь обучающих выборок не означает, что мы можем получить лучшую модель.