Переменная is_train нормализации потока Tensorflow и реализация - PullRequest
0 голосов
/ 09 октября 2019

В Tensorflow (не 2.0) я пытаюсь реализовать пакетную нормализацию, которая идет не очень хорошо ...

Я использую реализацию DDPG (RL), где я пытаюсь реализовать пакетную обработку. Нормализация слоя до. В сети Actor (build_a) я хочу добавить между L1 и выходным уровнем уровень пакетной нормализации.

Я попытался выполнить tf.nn.batch_normalization и tf.layers.batch_normalization, и я также не совсем уверен, какиеодин, который я должен использовать для своей ситуации.

Таким образом, вам нужно определить, заполняет ли агент / алгоритм память или фактически тренируется, что определяется в реализации как

    def _build_a(self, s, reuse=None, custom_getter=None):
    trainable = True if reuse is None else False

, однако, когдая попытался добавить, что в качестве аргумента для слоя batchnormalization с is_train = trainable он дал мне ошибку с false_fn. Я понял, что для этого вам нужно создать отдельную переменную?

Моя путаница велика, и большинство уроков сделано для Кераса, а я этим не пользуюсь, и я надеюсь, что кто-то может мне помочьэта проблема, с которой я сталкиваюсь месяцами

Ожидается, что существует нормализация рабочих пакетов между L1 и выходным уровнем a в сети акторов в _build_a_, где уровень нормализации пакетов интегрирован с реализацией и обновляется какслой нормализации партии должен.

Использование Python 3.6+ и Tensorflow V1.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...