Вы никогда не должны (я имею в виду, никогда ) использовать kernel_initializer='zero'
- если честно, я удивлен, что опция даже существует в Keras!
Также kernel_initializer='normal'
- этоне рекомендуется.
В качестве первого шага удалите все kernel_initializer
аргументы, чтобы вернуться к по умолчанию и рекомендованному, kernel_initializer='glorot-uniform'
;имейте в виду, что значения по умолчанию существуют по какой-то причине (обычно они работают хорошо), и вы должны изменить их только в том случае, если у вас действительно есть причина для этого (которую, я надеюсь, у вас нет здесь), иВы знаете, что делаете.
Если вы все еще не получили того, что ожидали, поэкспериментируйте с другими параметрами (количество слоев / нейронов, больше эпох и т. д.);Вы должны оставить скорость обучения (lr
) оптимизатора Adam такой же, как для начинающих (это также одно из этих значений по умолчанию, которое, похоже, хорошо работает для всех случаев).