У меня есть DCGAN, настроенный в тензорном потоке, который хорошо работает на гранях в диком наборе данных.В качестве эксперимента я попытался использовать ту же архитектуру в keras, чтобы лучше понять разницу в реализации.Пока что производительность в кератах намного хуже, но есть некоторые вещи, в которых я не уверен, как они переводятся, особенно регуляризатор.
В тф я применяю регуляризатор с
tf.contrib.layers.apply_regularization
Который, кажется, просто применяется ко всей сети.Однако в кератах это должно быть указано в каждом слое, и есть три разных вида: ядро, смещение и регуляризатор активности.
Я пытаюсь понять, как они отличаются, если регулятор tf применяет одну из 3 кертипы, и как реализовать это таким же образом - я называю это в каждом сверточном слое, включая конечный выходной слой?
Спасибо