Может ли Keras использовать два оптимизатора, параллельных для двух ветвей, и объединить их вместе на конечном уровне для одной и той же метки? - PullRequest
0 голосов
/ 04 марта 2019

Я пытаюсь реализовать модель Google Wide & Deep в Keras.

Начиная с оригинальной статьи и официальной реализации TF, оптимизация проводилась двумя оптимизаторами параллельно.https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/learn/python/learn/estimators/dnn_linear_combined.py#L328

Может ли модель быть скомпилирована с помощью словаря оптимизатора, такого как {branch1: «optimizer1", branch2: "optimizer2"}?? И потери можно рассчитать отдельно. Заранее спасибо.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...