Это правильная реализация для обратного распространения?Сеть имеет три уровня и функция активации - relu.
def back_propagation(error, learning_rate, layer, wights, bias):
for i0 in range(len(layer)):
for i1 in range(len(layer[0])):
wights[i0][i1] = wights[i0][i1] - (learning_rate * ((layer[i0][i1] / wights[i0][i1]) * (error / layer[i0][i1])))
bias = bias - (learning_rate * ((layer[i0][i1] / bias) * (error / layer[i0][i1])))