У меня есть рекуррентная нейронная сеть для классификации последовательных данных.
Не все выборки имеют одинаковое отношение к прогнозу, другие включают в себя несколько классов одновременно.Например, последовательность слов может быть как классом 0, так и классом 1.
[1,0,0], [0,1,0] -> [0.5,0.5,0]
Поэтому я хотел бы смешать вероятности классов в моих данных обучения, используя несколько многократное кодирование.Я чувствую, что этот подход просто создает новые (масштабированные) классы вместо того, чтобы давать лучшие результаты обучения для существующих классов.
При использовании этих данных в качестве sample_weights для обучения это приводит к очень маленьким классам, например:
Эти три класса: Класс 0: [1.0,0.0,0.0]
Класс 1: [0.0,1.0,0.0]
Класс 2: [1.0,0.0,1.0]
становится
Класс 0: [1.0,0.0,0.0]
Класс 1: [0.9,0.1,0.0]
.. Класс 9: [0.0,1.0,0.0]
..
Это проблематично, потому что я хотел быустановить class_weights только для трех классов независимо от масштабирования в соответствии с их количеством выборок.
Также: Как я могу сделать это в Keras?