В Keras, как применить функцию softmax к каждой строке весовой матрицы? - PullRequest
0 голосов
/ 13 ноября 2018
from keras.models import Model
from keras.models import Input
from keras.layers import Dense

a = Input(shape=(3,))
b = Dense(2, use_bias=False)(a)
model = Model(inputs=a, outputs=b)

Предположим, что вес слоя Dense в приведенном выше коде равен [[2, 3], [3, 1], [-1, 1]].Если мы дадим [[2, 1, 3]] в качестве входных данных для model, то результат будет:

no softmax

Но я хочу применить функцию softmaxк каждой строке слоя Dense, чтобы выходные данные были:

with softmax

Как я могу это сделать?

1 Ответ

0 голосов
/ 13 ноября 2018

Одним из способов достижения того, что вы ищете, является определение пользовательского слоя путем создания подкласса слоя Dense и переопределения его call метода:

from keras import backend as K

class CustomDense(Dense):
    def __init__(self, units, **kwargs):
        super(CustomDense, self).__init__(units, **kwargs)

    def call(self, inputs):
        output = K.dot(inputs, K.softmax(self.kernel, axis=-1))
        if self.use_bias:
            output = K.bias_add(output, self.bias, data_format='channels_last')
        if self.activation is not None:
            output = self.activation(output)
        return output

Проверьте, чтобы убедиться, что он работает:

model = Sequential()
model.add(CustomDense(2, use_bias=False, input_shape=(3,)))

model.compile(loss='mse', optimizer='adam')

import numpy as np

w = np.array([[2,3], [3,1], [1,-1]])
inp = np.array([[2,1,3]])

model.layers[0].set_weights([w])
print(model.predict(inp))

# output
[[4.0610714 1.9389288]]

Проверьте это с помощью numpy:

soft_w = np.exp(w) / np.sum(np.exp(w), axis=-1, keepdims=True)
print(np.dot(inp, soft_w))

[[4.06107115 1.93892885]]
...