, поэтому я строил MSE против итераций для задачи линейной регрессии. Однако я понял, что matplotlib строит график, который не соответствует данным, когда данные уходят в бесконечность. Остальные цифры, которые он изобразил, были в порядке.
Вот данные, которые я попытался показать достаточно, чтобы была видна тенденция.
Epoch 1 :
Loss= tensor(89.5862, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 2 :
Loss= tensor(89.5847, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 3 :
Loss= tensor(89.5833, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 4 :
Loss= tensor(89.5820, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 5 :
Loss= tensor(89.5807, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 6 :
Loss= tensor(89.5795, device='cuda:0', grad_fn=<DivBackward0>)
.
.
Epoch 55 :
Loss= tensor(554.9543, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 56 :
Loss= tensor(958.5474, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 57 :
Loss= tensor(1712.1147, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 58 :
Loss= tensor(3119.1350, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 59 :
Loss= tensor(5746.2451, device='cuda:0', grad_fn=<DivBackward0>)
.
.
Epoch 167 :
Loss= tensor(1.0959e+33, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 168 :
Loss= tensor(inf, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 169 :
Loss= tensor(inf, device='cuda:0', grad_fn=<DivBackward0>)
.
.
Epoch 199 :
Loss= tensor(inf, device='cuda:0', grad_fn=<DivBackward0>)
Epoch 200 :
Loss= tensor(inf, device='cuda:0', grad_fn=<DivBackward0>)
А вот картинка: