почему нужно использовать conv2D (64) дважды, вместо этого его можно использовать как conv2D (128). Являются ли оба запахи или разные - PullRequest
0 голосов
/ 12 января 2020
model = Sequential()
model.add(Conv2D(64, kernel_size=(3, 3), activation='relu', input_shape=(X_train.shape[1:])))
model.add(Conv2D(64,kernel_size= (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2), strides=(2, 2)))
model.add(Dropout(0.5))

В приведенном выше коде могу ли я использовать con2D (128) вместо conv24 (64) дважды.

1 Ответ

0 голосов
/ 12 января 2020

Нет, вы не можете, поскольку обе конфигурации не представляют одни и те же функции, этот шаблон был представлен в сетевой бумаге VGG и используется для увеличения мощности представления сети. Два слоя с фильтрами 3x3 являются своего рода эквивалентом одного слоя с фильтром 5x5 (через композицию), это не эквивалентно добавлению количества фильтров

В частности, если у вас был сверточный слой со 128 фильтрами, это не то же самое, что иметь два сверточных слоя с 64 фильтрами в каждом, особенно учитывая, что между ними имеется активация ReLU, что делает поведение более нелинейным.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...