Полностью подключенная сеть прямой пересылки Pytorch для решения проблемы регрессии - дает одинаковый результат для всех входных данных - PullRequest
1 голос
/ 05 апреля 2019

Я строю модель нейронной сети в Pytorch для простой задачи регрессии (w1x1 + w2x2 + w3x3 = y), где я сгенерировал 2000 записей для обучающих данных со случайными значениями для x1, x2, x3 и W1 = 4, W2 = 6 W3 = 2. Я создал тестовый набор данных из 20 записей с только значениями для x1, x2, x3, и я надеялся получить результат для Но, модель возвращает одинаковое значение для всех 20 входных строк. Я не знаю, где проблема. Ниже приведен фрагмент кода.

inputs = df[['x1', 'x2', 'x3']]
target = df['y']
inputs = torch.tensor(inputs.values).float()
target = torch.tensor(target.values).float()

test_data = torch.tensor(test_data.values).float()

import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):

  def __init__(self):
    super(Net,self).__init__()

    hidden1 = 10
    hidden2 = 15

    self.fc1 = nn.Linear(3,hidden1)
    self.fc2 = nn.Linear(hidden1,hidden2)
    self.fc3 = nn.Linear(hidden2,1)


  def forward(self,x):
    x = F.relu(self.fc1(x))
    x = F.relu(self.fc2(x))
    x = self.fc3(x)
    return x

#instantiate the model

model = Net()
print(model)

criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)

model.train()

#epochs
epochs = 500


for x in range(epochs):
  #initialize the training loss to 0
  train_loss = 0
  #clear out gradients
  optimizer.zero_grad() 

  #calculate the output
  output = model(inputs)

  #calculate loss
  loss = criterion(output,target)

  #backpropagate
  loss.backward() 

  #update parameters
  optimizer.step()

  if ((x%5)==0):
    print('Training Loss after epoch {:2d} is {:2.6f}'.format(x,loss))

#set the model in evaluation mode
model.eval()

#Test the model on unseen data

test_output = model(test_data)

print(test_output)
...