Источник на LSTM в: https://medium.com/@jon.froiland/recurrent-neural-networks-part-6-d585c7af8923
output_t = activation(dot(state_t, Uo) + dot(input_t, Wo) + dot(C_t, Vo) + bo)
i_t = activation(dot(state_t, Ui) + dot(input_t, Wi) + bi)
f_t = activation(dot(state_t, Uf) + dot(input_t, Wf) + bf)
k_t = activation(dot(state_t, Uk) + dot(input_t, Wk) + bk)
Вы получаете новое состояние переноса (следующий c_t), комбинируя i_t, f_t и
c_t+1 = i_t * k_t + c_t * f_t
Я понимаюпотребность в f_t и i_t ИЛИ k_t, однако, я не понимаю, зачем нужны i_t и k_t.Каждый содержит одни и те же входные данные (state_t и input_t).Это для целей реализации, чтобы помочь выровнять с c_t * f_t с точки зрения размерности матрицы?Любые мысли по этому поводу приветствуются!