Я пытаюсь создать основную c нейронную сеть с нуля, чтобы прогнозировать запасы яблок. Следующий код - это то, что я получил до сих пор с помощью просмотра учебников по науке о данных. Тем не менее, я нахожусь на пороге фактической подачи данных и уверенности в том, что они делают это правильно. Это мой взгляд на NN.
- 5 Входные узлы (Open, Close, High, Low, Volume) * примечание - это будет в pandas фрейме данных с индексом даты и времени
- AF, который суммирует веса каждого входа.
- Сигмоидальная функция для нормализации значений
- 1 выход (прил. Близко) * Не уверен, что я должен использовать в качестве фактического значения
Тогда процесс состоит в том, чтобы вернуться назад, используя технику обратного распространения.
import pandas as pd
import pandas_datareader as web
import matplotlib.pyplot as plt
import numpy as np
def sigmoid(x):
return 1.0/(1+ np.exp(-x))
def sigmoid_derivative(x):
return x * (1.0 - x)
class NeuralNetwork:
def __init__(self, x, y):
self.input = x
self.weights1 = #will work out when i get the correct input
self.weights2 = #will work out when i get the correct input
self.y = y
self.output = #will work out
def feedforward(self):
self.layer1 = sigmoid(np.dot(self.input, self.weights1))
self.output = sigmoid(np.dot(self.layer1, self.weights2))
def backprop(self):
# application of the chain rule to find derivative of the loss function with respect to weights2 and weights1
d_weights2 = np.dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output)))
d_weights1 = np.dot(self.input.T, (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1)))
# update the weights with the derivative (slope) of the loss function
self.weights1 += d_weights1
self.weights2 += d_weights2
if __name__ == "__main__":
X = #need help here
y = #need help here
nn = NeuralNetwork(X,y)
for i in range(1500):
nn.feedforward()
nn.backprop()
print(nn.output)
Если у вас есть какие-либо предложения, исправления или что-то еще, пожалуйста, дайте мне знать, потому что я тщательно инвестировал в обучение нейронные сети.
Спасибо.