Я пытаюсь преобразовать модель, основанную на тензорном потоке (LSTM), в тензор потока облегченный, используя инструмент tenorflow TOCO и tf_convert
, но модель тензор потока облегченная после преобразования составляет около 245 МБ, тогда как исходный мобильный тензор потока составляет около ~ 1 МБ.
Ниже приведена команда, которую я использовал
bazel run --config=opt //tensorflow/contrib/lite/toco:toco -- \
--input_file= <inputfile> \
--output_file= <outputfile> \
--input_format=TENSORFLOW_GRAPHDEF \
--output_format=TFLITE \
--input_shape=1,1\
--input_array=input\
--output_array=output\
--inference_type=QUANTIZED_UINT8 \
--inference_type=FLOAT \
--input_data_type=FLOAT \
--allow_custom_ops
Я пробовал с --allow_custom_ops
, и размер преобразованной модели совпадает с / без пользовательской операции в инструменте TOCO.
2018-08-27 18: 09: 18.538279: I
tensorflow / вно / облегченная / ТОСО / graph_transformations / graph_transformations.cc: 39]
Перед удалением неиспользованных операций: 4210 операторов, 6021 массив (0 квантовано)
2018-08-27 18: 09: 19.255416: I
tensorflow / вно / облегченная / ТОСО / graph_transformations / graph_transformations.cc: 39]
До общих преобразований графов: 4210 операторов, 6021 массивов (0
квантовано) 2018-08-27 18: 09: 20.504422: I
tensorflow / вно / облегченная / ТОСО / graph_transformations / graph_transformations.cc: 39]
После общих преобразований графов передают 1: 3604 оператора, 6008
массивы (с квантованием 0) 2018-08-27 18: 09: 21.335526: I
tensorflow / вно / облегченная / ТОСО / graph_transformations / graph_transformations.cc: 39]
До преобразования графов деквантования: 3604 оператора, 6008
массивы (с квантованием 0) 2018-08-27 18: 09: 21.897161: I
tenorflow / contrib / lite / toco / allocate_transient_arrays.cc: 329] Всего
выделенный размер переходного массива: 15616 байт, теоретически оптимальный
значение: 15616 байт.
Планируется ли использование тензорного потока для поддержки операций, связанных с LSTM, в ближайшем будущем?