логистическая регрессия всегда предсказывает одно и то же значение, когда Nework глубже - PullRequest
0 голосов
/ 25 июня 2018

я использую darknet для обучения модели логистической регрессии.но он всегда выводит одно и то же предсказание для разных входных изображений.

но когда я удаляю некоторые сверточные слои, это кажется нормальным. (Разные выходные данные для разных входных изображений)

Файл cfg модели выглядит следующим образом:

[net]
некоторый параметр ...
[сверток]
[сверток]
[ярлык]
...
[avgpool]
[подключен]
batch_normalize = 1
выход = 1
активация = линейная

[логистика]

я попробовал другую скорость обучения, импульс.не работает.
и данные об учете сбалансированы.два класса, 15000 изображений для каждого класса.
какие-нибудь советы?спасибо.

...