В настоящее время мы пытаемся преобразовать модель преобразователя в граф с тензорным потоком, но, похоже, проблема заключается в механизме самосохранения.
Мы не можем обработать график.Изучая код tf-lite, мы сузили его до tf.matmul
lite-версии.
Состояние docs :
tf.matmul
- до тех пор, пока второй аргумент является постоянным и транспонирование не используется
Однако, это касается внимания:
(источник: Внимание - это все, что вам нужно )
Есть ли известный обходной путь для такой ситуации?