По этой ссылке Github в качестве базы кода.
https://github.com/googlesamples/android-vision/tree/master/visionSamples/FaceTracker
Я хочу реализовать, когда лицо было обнаружено, позвоните .takePicture()
, чтобы отправить данные ByteArray
наСлужба Azure Cognitive Face с REST api.
На onPictureTaken()
выполняется обратный вызов, я выполняю некоторый процесс на данных ByteArray
, чтобы сделать его соответствующим требованиям службы.
// make raw data decoded to Bitmap object
BitmapFactory.decodeByteArray(...)
// scale image into specific size of service requirement
Bitmap.createScaledBitmap(...)
// compress data into JPEG or PNG format
decodedBitMap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutpuStream)
// Then call REST service with Retrofit2 library
Чтоскрыт ли позади Bitmap или Retrofit2 или Azure Cognitive Face - алгоритм API REST, который я, возможно, не знаю, чтобы сделать вызов службы успешным?
Потому что с той же службой REST я могу реализовать с другим языком программирования, таким как Python, Java (с Spring Boot), Javascript, но Android (Kotlin) - исключение?
Любая помощь будет полезна, я попробовал Google, но был только код с устаревшими классами / библиотекой или не относящийся к моей цели ответапоявляются.