Ошибка Tensorflow Lite Quant: ошибка при использовании модели TF Lite Quant для классификации 2 классов. Точность низкая 1% - PullRequest
0 голосов
/ 15 марта 2020

Я использовал этот ноутбук для обучения сети: https://colab.research.google.com/github/tensorflow/examples/blob/master/community/en/flowers_tf_lite.ipynb

У меня в основном есть 2 класса для обучения: 1 и 2 класс;

В конце На тренинге я преобразовал модель в квантованную модель, используя код: https://www.tensorflow.org/lite/performance/post_training_quantization

import tensorflow as tf
converter = tf.lite.TFLiteConverter.from_saved_model (saved_model_dir)
converter.optimizations = [tf.lite.Optimize.OPTIMIZE_FOR_SIZE]
tflite_quant_model = converter.convert ()

При передаче преобразованной квантованной модели в пример Android. Он просто не распознает мои уроки, когда дело доходит до оценки и оценки ниже 1%.

Модель FLOAT без оптимизации работала хорошо.

Может кто-нибудь сказать мне, что происходит ?

Репозиторий, из которого я получил код Android: https://github.com/tensorflow/examples/tree/master/lite/examples/image_classification/android

Даже после повторного повторения процесса, это все еще проблема.

Модель TF Lite Квантованная: https://i.ibb.co/kB0VpN2/Whats-App-Image-2020-03-14-at-19-02-16.jpg

Modelo TF Lite Поплавок: https://i.ibb.co/0CksR2y/Whats-App-Image-2020-03-14-at-19-02-16-1.jpg

...