У меня есть собственный слой keras, и я должен создать свою собственную функцию активации. Можно ли поместить фиксированные активации для разных нейронов в одном слое? Например, допустим, у меня есть что-то вроде плотного слоя с 3 юнитами, и я хочу, чтобы активация первого юнита была рефлю, второго - танхом, а третьего - сигмоидом;независимо от значения x, так что это не нормально:
def myactivation(x):
if x something:
return relu(x)
elif something else :
return another_activation(x)
Что я хочу сделать, это применить активацию к определенному нейрону как
def myactivation(x):
if x == neuron0:
return relu(x)
elif x == neuron1:
return tanh(x)
else:
return sigmoid(x)
Возможно ли это? Или есть другой способ реализовать что-то подобное?