У меня есть нейронная сеть seq2seq, которую я использую для перевода текста. Мне нужно, чтобы предложения оставались неизменными во время партий, точнее, предложение должно быть как неразделимый блок токенов. Однако, похоже, что итераторы, предоставляемые Torchtext (BucketIterator и Iterator), не сохраняют начальный порядок токенов. Есть ли решение для этого, кроме написания моих собственных функций заполнения и пакетирования?