У меня есть модель кодера-декодера для символьного уровня Engli sh коррекция орфографии языка, это довольно просто c материал с двумя LSTM-кодером и другим LSTM-декодером.
Однако, до до сих пор я предварительно дополнял входные последовательности кодера, как показано ниже:
abc -> -abc
defg -> defg
ad -> --ad
И затем я разбивал данные на несколько групп с одинаковой длиной входного сигнала декодера, например,
train_data = {'15': [...], '16': [...], ...}
где ключ - длина входных данных декодера, и я обучал модель один раз для каждой длины в al oop.
Однако, должен быть лучший способ сделать это например, заполнение после EOS или перед символами SOS et c. Но если это так, как бы я изменил функцию потерь, чтобы это дополнение не учитывалось в потере?