Должен ли вход nn.LSTM в pytorch всегда быть упакованной последовательностью? - PullRequest
0 голосов
/ 01 октября 2019

Я новичок в этих модулях LSTM и изучаю nn.LSTM для использования с набором данных временного шага. В документе nn.LSTM сказано, что для моделей nn.rnn требуется Packedsequence, но в моем наборе данных нет значений переменной последовательности, поэтому я подумал, что в моем случае это может не понадобиться.

Iпредварительно обработал набор данных матрицы MxN в 3D-матрицы, включая информацию о последовательности, используя:

for i in range(seq_len,len(Dataset)):
    data_train.append(Dataset[i-seq_len:i,0:])

Я подал в этой матрице от [batch,seq_len,input_size] до nn.LSTM, но результат, похоже, не такой, как я ожидал. Значение потерь уменьшается (довольно линейно ... я не уверен, почему) и достигает пика после начала другой эпохи с колеблющимся поведением.

Кто-то сказал мне, что это из-за параметров, которые должны бытьнастроен, но я сомневаюсь в самом поведении сети, возможно, не использую правильную форму ввода.

Заранее спасибо за ваше время.

...