Пользовательский слой с входным ядром и смещением - PullRequest
0 голосов
/ 01 мая 2018

У меня проблема при реализации настроенного слоя conv2d с входным ядром и смещением. Это ядро ​​и смещение являются выходами другого слоя A, затем используют эти веса для создания conv2d. И я просто хочу, чтобы этот слой использовал вес, а не для обучения, поэтому, если этот слой не обучаемый, градиент будет перенесен на слой А, то есть я хочу, чтобы слой А был обучаемым

1 Ответ

0 голосов
/ 01 мая 2018

Вам не нужно писать такой слой с необучаемыми параметрами. Если я правильно понимаю, вам нужно что-то ниже.

import keras
from keras.layers import Conv2D, Dense, Input, Flatten, Lambda
from keras.models import Model
from keras import backend as K

img = Input(shape=(32,32,3), name='img_in')
# this is the standard way of calling a learnable conv kernel and bias
# but kernel and bias are independent of input
x = Conv2D( 64,(5,5),padding='same',name='StandardConv')(img)
# this is a custom way of calling a learnable conv kernel and bias
# but this time they are dependent on the input
img_flat = Flatten(name='flat')(img)
conv_kernel = Dense( 3*5*5*64, name='regConvKernel' )( img_flat )
conv_bias = Dense( 64, name='regConvBias' )( img_flat )
# of course, you need to use conv_kernel and conv_bias to apply conv operation
# and this happens here
def custom_conv( input_vars ) :
    x, kernel, bias = input_vars
    kernel = K.reshape( kernel, (5,5,3,64))
    bias = K.reshape( bias, [1,1,1,64])
    x = K.conv2d( x, kernel, padding='same' )
    x += bias
    return x
def custom_conv_shape( input_shapes ) :
    x_shape, kernel_shape, bias_shape = input_shapes
    return x_shape[:3] + bias_shape[-1:]
y = Lambda( custom_conv, output_shape=custom_conv_shape, name='CustomConv')([img, conv_kernel, conv_bias])
# define your final model
model = Model( inputs=img, outputs=[x,y], name='compareConv')

print model.summary()

# test use dummy numpy arrays
import numpy as np 
a = np.random.randn(1,32,32,3)
b, c = model.predict(a)
print "standard conv output shape =", b.shape
print "custom conv output shape =", c.shape

И вы увидите результаты, как показано ниже.

Layer (type)                    Output Shape         Param #     Connected to                     
==================================================================================================
img_in (InputLayer)             (None, 32, 32, 3)    0                                            
__________________________________________________________________________________________________
flat (Flatten)                  (None, 3072)         0           img_in[0][0]                     
__________________________________________________________________________________________________
regConvKernel (Dense)           (None, 4800)         14750400    flat[0][0]                       
__________________________________________________________________________________________________
regConvBias (Dense)             (None, 64)           196672      flat[0][0]                       
__________________________________________________________________________________________________
StandardConv (Conv2D)           (None, 32, 32, 64)   4864        img_in[0][0]                     
__________________________________________________________________________________________________
CustomConv (Lambda)             (None, 32, 32, 64)   0           img_in[0][0]                     
                                                                 regConvKernel[0][0]              
                                                                 regConvBias[0][0]                
==================================================================================================
Total params: 14,951,936
Trainable params: 14,951,936
Non-trainable params: 0
__________________________________________________________________________________________________
None
standard conv output shape = (1, 32, 32, 64)
custom conv output shape = (1, 32, 32, 64)

Конечно, вы можете использовать другой размер ядра или схему заполнения. И вы можете рассмотреть более разумный способ оценки conv_kernel и conv_bias, чем прямую регрессию их по входным данным.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...