В Tensorflow (не 2.0) я пытаюсь реализовать пакетную нормализацию, которая идет не очень хорошо ...
Я использую реализацию DDPG (RL), где я пытаюсь реализовать пакетную обработку. Нормализация слоя до. В сети Actor (build_a) я хочу добавить между L1 и выходным уровнем уровень пакетной нормализации.
Я попытался выполнить tf.nn.batch_normalization и tf.layers.batch_normalization, и я также не совсем уверен, какиеодин, который я должен использовать для своей ситуации.
Таким образом, вам нужно определить, заполняет ли агент / алгоритм память или фактически тренируется, что определяется в реализации как
def _build_a(self, s, reuse=None, custom_getter=None):
trainable = True if reuse is None else False
, однако, когдая попытался добавить, что в качестве аргумента для слоя batchnormalization с is_train = trainable он дал мне ошибку с false_fn. Я понял, что для этого вам нужно создать отдельную переменную?
Моя путаница велика, и большинство уроков сделано для Кераса, а я этим не пользуюсь, и я надеюсь, что кто-то может мне помочьэта проблема, с которой я сталкиваюсь месяцами
Ожидается, что существует нормализация рабочих пакетов между L1 и выходным уровнем a в сети акторов в _build_a_, где уровень нормализации пакетов интегрирован с реализацией и обновляется какслой нормализации партии должен.
Использование Python 3.6+ и Tensorflow V1.