Керас, маскирующий ноль перед софтмаксом - PullRequest
0 голосов
/ 10 мая 2019

Предположим, что у меня есть следующий вывод из слоя LSTM

[0.         0.         0.         0.         0.01843184 0.01929785 0.         0.         0.         0.         0.         0. ]

, и я хочу применить softmax к этому выходу, но я хочу замаскировать сначала 0.

Когда я использовал

mask = Masking(mask_value=0.0)(lstm_hidden)
combined = Activation('softmax')(mask)

Не сработало.Есть идеи?

Обновление: выход из скрытого LSTM: (batch_size, 50, 4000)

1 Ответ

0 голосов
/ 10 мая 2019

Вы можете определить пользовательскую активацию для достижения этой цели.Это эквивалентно маске 0.

from keras.layers import Activation,Input
import keras.backend as K
from keras.utils.generic_utils import get_custom_objects
import numpy as np
import tensorflow as tf

def custom_activation(x):
    x = K.switch(tf.is_nan(x), K.zeros_like(x), x) # prevent nan values
    x = K.switch(K.equal(K.exp(x),1),K.zeros_like(x),K.exp(x))
    return x/K.sum(x,axis=-1,keepdims=True)

lstm_hidden = Input(shape=(12,))
get_custom_objects().update({'custom_activation': Activation(custom_activation)})
combined = Activation(custom_activation)(lstm_hidden)

x = np.array([[0.,0.,0.,0.,0.01843184,0.01929785,0.,0.,0.,0.,0.,0. ]])
with K.get_session()as sess:
    print(combined.eval(feed_dict={lstm_hidden:x}))

[[0.         0.         0.         0.         0.49978352 0.50021654
  0.         0.         0.         0.         0.         0.        ]]
...