Многослойные перцептронные вопросы - PullRequest
0 голосов
/ 10 ноября 2018

Я работаю над школьным проектом, проектирую нейронную сеть (mlp),

Я сделал это с графическим интерфейсом, чтобы он мог быть интерактивным.

Для всех своих нейронов я использую СУММУ в качестве функции GIN, пользователь может выбрать функцию активации для каждого слоя.

У меня есть теоретический вопрос:

  • установить ли пороговые значения, параметры g и a индивидуально для каждого нейрона или для всего слоя?

Image of the project so far

1 Ответ

0 голосов
/ 10 ноября 2018

выглядит красиво! У вас может быть 3 скрытых слоя, но вы увидите, что экспериментируя, вам редко понадобится такое количество слоев. Какая у тебя схема тренировок?

Ответ на ваш вопрос зависит от вашей схемы обучения и назначения входных нейронов .. когда, например. у некоторого входного нейрона есть другой тип значения, вы можете использовать другую пороговую функцию или другие настройки для параметров в нейронах, подключенных к этому входному нейрону.

Но в целом лучше вводить данные нейронной сети в отдельные персептроны. Итак, ответ таков: теоретически вы могли бы задавать индивидуальные свойства нейронов ... но на практике обучения обратному распространению это не нужно. Не существует «индивидуальных свойств» нейронов, значения веса, которые получаются в результате ваших тренировочных циклов, будут каждый раз отличаться. Все начальные веса могут быть установлены на небольшое случайное значение, порог передачи и скорость обучения должны быть установлены для каждого слоя.

...