Моя проблема регрессии требует, чтобы сетевой выход y
имел единичную норму ||y|| = 1.
.Я хотел бы наложить это как Lambda
слой после линейной активации:
from keras import backend as K
...
model.add(Dense(numOutputs, activation='linear'))
model.add(Lambda(lambda x: K.l2_normalize(x)))
Бэкэнд - TensorFlow.Код компилируется, но сеть прогнозирует выходные векторы с различными нормами (норма не 1 и меняется).
Есть ли какие-либо подсказки относительно того, что я делаю неправильно?