Для слоя BatchNormalization
, если вы внимательно прочитаете его исходный код doc / , его количество параметров зависит от следующих четырех параметров:
def build(self, input_shape):
dim = input_shape[self.axis]
if dim is None:
raise ValueError('Axis ' + str(self.axis) + ' of '
'input tensor should have a defined dimension '
'but the layer received an input with shape ' +
str(input_shape) + '.')
self.input_spec = InputSpec(ndim=len(input_shape),
axes={self.axis: dim})
shape = (dim,)
if self.scale:
self.gamma = self.add_weight(shape=shape,
name='gamma',
initializer=self.gamma_initializer,
regularizer=self.gamma_regularizer,
constraint=self.gamma_constraint)
else:
self.gamma = None
if self.center:
self.beta = self.add_weight(shape=shape,
name='beta',
initializer=self.beta_initializer,
regularizer=self.beta_regularizer,
constraint=self.beta_constraint)
else:
self.beta = None
self.moving_mean = self.add_weight(
shape=shape,
name='moving_mean',
initializer=self.moving_mean_initializer,
trainable=False)
self.moving_variance = self.add_weight(
shape=shape,
name='moving_variance',
initializer=self.moving_variance_initializer,
trainable=False)
self.built = True
, где каждая переменнаяимеет форму (dim,)
, что составляет 32 в вашем случае.Поскольку существует четыре переменные, общее количество параметров составляет 32x4=128
.Однако последние два, то есть moving_mean
и moving_variance
, не могут быть обучены.
Для использования слоя Dropout
я не думаю, что вам нужно беспокоиться об этом, прежде чем иметь базовую модель.Получив базовую модель, вы можете улучшить ее, добавив дополнительные выпадающие слои.Конечно, уровень отсева должен зависеть от вашей задачи, и вам, возможно, придется попробовать разные показатели, чтобы увидеть, какой из них работает лучше всего.