Меня интересуют неконтролируемые методы обучения, которые могут работать с несбалансированным набором данных. В этой статье обсуждается удобный подход https://arxiv.org/pdf/1812.02293.pdf - RDE C.
У меня есть некоторые проблемы при реализации предложенной функции потерь с Keras: Потери кластеризации
первый вопрос: должен ли мой уровень кластеризации иметь два выхода?
Я намереваюсь использовать метод train_on_batch для пакетного увеличения данных поезда и вычисления потери дивергенции kl между реальным распределением и расширенное распределение + расхождение kl между мягкими назначениями Q и целевым распределением P.
Может кто-нибудь сказать мне, как лучше всего реализовать это в Keras?