Уместно ли использовать как функцию normalizer_fn, так и пакетную нормализацию? - PullRequest
0 голосов
/ 05 октября 2019

Уместно ли использовать как функцию normalizer_fn, так и пакетную нормализацию, как указано ниже?


 feature_columns_complex_standardized = [         
          tf.feature_column.numeric_column("my_feature", normalizer_fn=lambda x: (x - xMean) / xStd)
        ]

          model1 = tf.estimator.DNNClassifier(feature_columns=feature_columns_complex_standardized,
                                            hidden_units=[512,512,512],
                                            optimizer=tf.train.AdamOptimizer(learning_rate=0.001, beta1= 0.9,beta2=0.99, epsilon = 1e-08,use_locking=False),
                                            weight_column=weights,
                                            dropout=0.5,
                                            activation_fn=tf.nn.softmax,
                                            n_classes=10,
                                            label_vocabulary=Action_vocab,
                                            model_dir='./Models9/Action/',
                                            loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE,
                                            config=tf.estimator.RunConfig().replace(save_summary_steps=10),
                                            batch_norm=True)

1 Ответ

1 голос
/ 11 октября 2019

Может быть, вы ошибаетесь, поскольку Normalization - это один из методов, используемых для приведения объектов в наборе данных к одному и тому же масштабу, где batch normalization используется для решения проблемы internal covariate shift, где ввод каждой скрытой единицыраспределение меняется каждый раз, когда происходит обновление параметра в предыдущем слое.

Таким образом, вы можете использовать оба параметра одновременно.

...