Это общие термины, используемые в моделях последовательностей (например, RNN, LSTM, GRU и т. Д.). Вот описание того, что означают эти термины:
ninp (num_input)
: размерность векторов в матрице вложения
emsize (embedding size)
: размерность векторов в матрице вложения
nhid (num_hidden)
: сколько «скрытых» юнитов мы хотим иметь в каждом скрытом слое
Графическое описание может помочь лучше понять его. Ниже приводится хорошая иллюстрация. (Авторы: Киллиан Левахер)
На приведенном выше рисунке emsize
- размер вложения (т.е. размерность вектора вложения). Это зависит от архитектуры модели, но большинство людей будет использовать что-то вроде 300
.
На рисунке выше у нас есть пять нейронов в каждом "скрытом" слое. Следовательно, значение nhid
равно 5. Выходной слой будет иметь размерность, равную размеру словаря, так что распределение вероятности будет сгенерировано по всем токенам в словаре.