Имеет ли смысл смешивать регуляризаторы? Например, используя L1 для выбора объектов в первом слое и L2 для остальных?
Я создал эту модель:
model = Sequential()
# the input layer uses L1 to partially serve as a feature selection layer
model.add(Dense(10, input_dim = train_x.shape[1], activation = 'swish', kernel_regularizer=regularizers.l1(0.001)))
model.add(Dense(20, activation = 'swish', kernel_regularizer=regularizers.l2(0.001)))
model.add(Dense(20, activation = 'swish', kernel_regularizer=regularizers.l2(0.001)))
model.add(Dense(10, activation = 'softmax'))
Но я не уверен, что это хорошая идея чтобы смешать L1 и L2, мне кажется логичным иметь L1 в качестве селектора объектов во входном слое. Но везде я просто вижу код, который использует один и тот же регуляризатор для всех слоев.
(модель, похоже, дает довольно хорошие результаты,> 95% правильных предсказаний в задаче классификации мультикласса)