Firebase ML kit Хостинг Пользовательской Модели - PullRequest
0 голосов
/ 04 февраля 2019

Можно ли использовать хостинг по пользовательской модели ML ML для обнаружения объектов, а не только для классификации объектовЯ знаком с этим в образце Android-приложения tenorflow, но я бы хотел использовать Firebase, так как он имеет возможность обновления модели и поддержки iOS / Android.

По сути, я не уверен, как это начатьсо строкой:

int [] outputDims = {DIM_BATCH_SIZE, Не уверен, какие другие значения, поскольку я не занимаюсь только классификацией };

Поддерживает ли это интерпретатор модели Firebase?

1 Ответ

0 голосов
/ 04 февраля 2019

Да, интерпретатор пользовательских моделей ML Kit должен поддерживать ваши модели обнаружения объектов TFLite.Размеры ввода / вывода в коде должны соответствовать вашей модели ввода / вывода TFLite.

Так как вы знакомы с примером приложения TFLite для Android.Давайте возьмем пример приложения TFLite для Android и пример приложения ML Kit.

В примере приложения TFLite для Android мы определяем выходные размеры как двумерный массив с типом float: https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/java/demo/app/src/main/java/com/example/android/tflitecamerademo/ImageClassifierFloatInception.java#L38

В примере приложения ML Kit мы также определяем его как двумерный массив с типом float: https://github.com/firebase/quickstart-android/blob/master/mlkit/app/src/main/java/com/google/firebase/samples/apps/mlkit/java/custommodel/CustomImageClassifier.java#L191

Размеры выражаются в виде списка, а тип данных является параметром в ML Kit.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...