Регрессия Кераса - точность второго вывода всегда хуже, чем первого (одиночная функция потерь, без loss_weights) - PullRequest
0 голосов
/ 11 июля 2020

Я строю регрессию LSTM с помощью keras. У меня два выхода, но я использую только одну функцию потерь (пользовательскую), поскольку она верна для обоих выходов. Я также не указываю loss_weights. Это мой compile оператор:

self.model.compile(optimizer=opt, loss=self.custom_loss)

, где настраиваемая потеря принимает как прогнозные, так и фактические результаты:

custom_loss(y_true, y_pred)

Для каждого теста, который я делаю, второй результат всегда менее точен, чем первый.

  • Может быть, я не указываю веса?
  • Какие значения loss_weights по умолчанию для регрессии с несколькими выходами в keras?
  • Если ничего не указывать, является ли функция потерь взвешенной суммой потерь всех выходов?
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...