Я работаю с функцией потери тензорного потока ctc tf.nn.ctc_loss(labels,inputs,__)
Здесь аргумент inputs
является выводом некоторого RNN1, а аргумент labels
является истинной целью, которую мы хотим достичь.
В моем случае labels
также генерируется из другого RNN2.
Но после обучения только веса RNN1 обновляются путем обратного распространения тензорного потока, а веса RNN2 вообще не меняются. Я думаю, что tenorflow не поддерживает обратное распространение в labels
для ctc_loss
, как в tf.nn.softmax_cross_entropy_with_logits_v2()
.
Каков возможный обходной путь для этого?