Масштабирование выходных данных в многопоточном кодировании и использование весов классов - PullRequest
0 голосов
/ 23 ноября 2018

У меня есть рекуррентная нейронная сеть для классификации последовательных данных.

Не все выборки имеют одинаковое отношение к прогнозу, другие включают в себя несколько классов одновременно.Например, последовательность слов может быть как классом 0, так и классом 1.

[1,0,0], [0,1,0] -> [0.5,0.5,0] 

Поэтому я хотел бы смешать вероятности классов в моих данных обучения, используя несколько многократное кодирование.Я чувствую, что этот подход просто создает новые (масштабированные) классы вместо того, чтобы давать лучшие результаты обучения для существующих классов.

При использовании этих данных в качестве sample_weights для обучения это приводит к очень маленьким классам, например:

Эти три класса: Класс 0: [1.0,0.0,0.0] Класс 1: [0.0,1.0,0.0] Класс 2: [1.0,0.0,1.0]

становится

Класс 0: [1.0,0.0,0.0] Класс 1: [0.9,0.1,0.0] .. Класс 9: [0.0,1.0,0.0] ..

Это проблематично, потому что я хотел быустановить class_weights только для трех классов независимо от масштабирования в соответствии с их количеством выборок.

Также: Как я могу сделать это в Keras?

...