Перевод модели от Keras к Pytorch и размер ввода - PullRequest
0 голосов
/ 22 мая 2018

Я следую учебному пособию по Keras и хочу замаскировать его в Pytorch, поэтому я перевожу.Я не очень хорошо знаком с этим, и я отклеиваюсь от параметра входного размера, особенно от последнего слоя - нужен ли мне еще один линейный слой?Может ли кто-нибудь перевести следующее в последовательное определение Pytorch?

visible = Input(shape=(64,64,1))
conv1 = Conv2D(32, kernel_size=4, activation='relu')(visible)
pool1 = MaxPooling2D(pool_size=(2, 2))(conv1)
conv2 = Conv2D(16, kernel_size=4, activation='relu')(pool1)
pool2 = MaxPooling2D(pool_size=(2, 2))(conv2)
hidden1 = Dense(10, activation='relu')(pool2)
output = Dense(1, activation='sigmoid')(hidden1)
model = Model(inputs=visible, outputs=output)

Это вывод модели:

Layer (type)                 Output Shape              Param #   
_________________________________________________________________
input_1 (InputLayer)         (None, 64, 64, 1)         0         
conv2d_1 (Conv2D)            (None, 61, 61, 32)        544       
max_pooling2d_1 (MaxPooling2 (None, 30, 30, 32)        0         
conv2d_2 (Conv2D)            (None, 27, 27, 16)        8208      
max_pooling2d_2 (MaxPooling2 (None, 13, 13, 16)        0         
dense_1 (Dense)              (None, 13, 13, 10)        170       
dense_2 (Dense)              (None, 13, 13, 1)         11        

Total params: 8,933
Trainable params: 8,933
Non-trainable params: 0

То, что я разработал, не имеет спецификации для формывход, и я также немного озадачен переводом шага в указанной модели Keras, поскольку он использует шаг 2 в MaxPooling2D, но не указывает это где-либо еще - это, возможно, игрушечный пример.

model = nn.Sequential(
      nn.Conv2d(1, 32, 4),
      nn.ReLU(),
      nn.MaxPool2d(2, 2),
      nn.Conv2d(1, 16, 4),
      nn.ReLU(),
      nn.MaxPool2d(2, 2),
      nn.Linear(10, 1),
      nn.Sigmoid(),
      )
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...