В моделях pytorch LSTM, RNN или GRU есть параметр под названием " num_layers ", который управляет количеством скрытых слоев в LSTM. Мне интересно, что, поскольку в LSTM есть несколько слоев, почему параметр «hidden_size» представляет собой только одно число вместо списка, содержащего количество скрытых состояний в нескольких слоях, например [10, 20, 30].
Я сталкивался, когда работал над проектом регрессии, в котором я передаю данные последовательности (seq_len, batch, feature) в LSTM, и я хочу получать скалярные выходные данные каждого временного шага.
Полезная ссылка для понимания структуры LSTM pytorch, здесь .
Буду очень признателен, если кто-нибудь ответит на это.