Это правильная реализация обратного распространения? - PullRequest
0 голосов
/ 07 декабря 2018

Это правильная реализация для обратного распространения?Сеть имеет три уровня и функция активации - relu.

def back_propagation(error, learning_rate, layer, wights, bias):
    for i0 in range(len(layer)):
        for i1 in range(len(layer[0])):
            wights[i0][i1] = wights[i0][i1] - (learning_rate * ((layer[i0][i1] / wights[i0][i1]) * (error / layer[i0][i1])))
            bias = bias - (learning_rate * ((layer[i0][i1] / bias) * (error / layer[i0][i1])))
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...