Я строю регрессию LSTM
с помощью keras
. У меня два выхода, но я использую только одну функцию потерь (пользовательскую), поскольку она верна для обоих выходов. Я также не указываю loss_weights
. Это мой compile
оператор:
self.model.compile(optimizer=opt, loss=self.custom_loss)
, где настраиваемая потеря принимает как прогнозные, так и фактические результаты:
custom_loss(y_true, y_pred)
Для каждого теста, который я делаю, второй результат всегда менее точен, чем первый.
- Может быть, я не указываю веса?
- Какие значения
loss_weights
по умолчанию для регрессии с несколькими выходами в keras? - Если ничего не указывать, является ли функция потерь взвешенной суммой потерь всех выходов?