Неожиданный сбой при подготовке тензорных выделений - PullRequest
0 голосов
/ 22 апреля 2019

Я использую tflite для семантической сегментации. У меня есть модель, обученная сегментировать объекты из фона, эта модель обучена на deeplab .

Я преобразовал эту модель (замороженный вывод) в формат tflite, используя следующий код:

tflite_convert \
  --output_file=test.lite \
  --graph_def_file=frozen_inference_graph.pb \
  --input_arrays=ImageTensor \
  --output_arrays=SemanticPredictions \
  --input_shapes=1,600,450,3 \
  --inference_input_type=QUANTIZED_UINT8 \
  --inference_type=FLOAT \
  --mean_values=128 \
  --std_dev_values=128 

Модель загружается на Android, но когда я пытаюсь запустить вывод, она выдает мне эту ошибку:

Вызвано: java.lang.IllegalStateException: Внутренняя ошибка: неожиданно ошибка при подготовке тензорных выделений: third_party / tenorflow / lite / kernels / unpack.cc: 54 NumDimensions (входные данные)

1 не соответствует действительности. Узлу № 4 (UNPACK) не удалось подготовиться.

Как мне исправить эту ошибку?

1 Ответ

0 голосов
/ 03 мая 2019

Сработало для следующей команды:

bazel-bin/tensorflow/lite/toco/toco \
  --input_file=deeplabv3_mnv2_pascal_tain.pb \
  --output_file=test.tflite \
  --inference_input_type=QUANTIZED_UINT8  \
  --inference_type=FLOAT \
  --input_arrays=ImageTensor  \
  --output_arrays=SemanticPredictions  \
  --input_shapes=1,513,513,3 \
  --mean_values=128 \
  --std_dev_values=128

Сработало, когда я установил тензор потока из источника.Чтобы установить тензор потока из источника, я использовал ( ссылка )

...