Как обучаются конвейерные нейронные сети? - PullRequest
0 голосов
/ 30 октября 2019

Это мой первый вопрос к stackoverflow. Я хотел бы спросить кое-что о нейронных сетях, и мне просто нужно интуитивное объяснение. Давайте предположим, что существует сложная архитектура нейронной сети (как на картинке). Есть четыре вектора G, B, R, P (зеленый, синий, красный, фиолетовый) и скалярное число y. Зависимости - это что-то вроде R = f (G; Веса), P = g (G, B; Веса) и y = h (R, G; Веса). Выход вычисляется как output = y * R + (1-y) * P. Мы также определяем функцию затрат / потерь для расчета ошибки e. Мой вопрос заключается в том, как ошибка e распространяется обратно, чтобы исправить все веса каждой сети прямой связи. Мне просто нужно интуитивное объяснение (не математика градиентного спуска). Я имею в виду, как ошибка «исправляет» скаляр y, который затем «исправляет» R и G, но R также «исправляет» G? Я запутался, как эта архитектура работает во время обучения. Пожалуйста, помогите мне. Спасибо

Архитектура сложной модели

...