Копирование кода прямо из Google: ссылка
дает мне 7 секунд времени для обнаружения лица, используя изображение размером 2 МБ. Если я сжимаю растровое изображение в 10 раз, это дает мне 0,05 секунды времени обнаружения лица. Однако нигде больше я не могу найти людей, предлагающих вам сжать растровое изображение перед запуском определения лица, фактически, документы предполагают, что для обнаружения лица требуется всего 10 мс, и это происходит в реальном времени, когда я использую камеру в качестве источника изображения.
Связанный вопрос без ответа:
API мобильного видения слишком долго распознает лицо
Просто интересно, нормально ли это, или я что-то не так делаю:
public class MainActivity extends AppCompatActivity {
private static final String TAG = "MainActivity";
private int FACE_DETECTION_RATIO_MINIMUM = 10;
FaceDetector detector;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
Button btn = (Button) findViewById(R.id.button);
btn.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
Log.d(TAG, "onClick: 1");
ImageView myImageView = (ImageView) findViewById(R.id.imageView);
BitmapFactory.Options options = new BitmapFactory.Options();
options.inMutable=true;
Bitmap myBitmap = BitmapFactory.decodeResource(
getApplicationContext().getResources(),
R.drawable.test2,
options);
Log.d(TAG, "onClick: 2");
Log.d(TAG, "onClick: width: " + myBitmap.getWidth() + " height: " + myBitmap.getHeight());
Paint myRectPaint = new Paint();
myRectPaint.setStrokeWidth(5);
myRectPaint.setColor(Color.RED);
myRectPaint.setStyle(Paint.Style.STROKE);
Log.d(TAG, "onClick: 3");
Bitmap tempBitmap = Bitmap.createBitmap(myBitmap.getWidth(), myBitmap.getHeight(), Bitmap.Config.RGB_565);
Bitmap scaledBitmap = Bitmap.createScaledBitmap(myBitmap, myBitmap.getWidth()/10, myBitmap.getHeight() /10, false);
Log.d(TAG, "scaled width: " + scaledBitmap.getWidth() + " height: " + scaledBitmap.getHeight());
//tempBitmap.compress(Bitmap.CompressFormat.JPEG, 40, tempBitmap)
Canvas tempCanvas = new Canvas(tempBitmap);
Canvas tempCanvasScaled = new Canvas(scaledBitmap);
tempCanvas.drawBitmap(myBitmap, 0, 0, null);
Log.d(TAG, "onClick: 4");
FaceDetector faceDetector = new
FaceDetector.Builder(getApplicationContext()).setTrackingEnabled(false).setMode(FAST_MODE).setLandmarkType(NO_LANDMARKS).setClassificationType(NO_CLASSIFICATIONS)
.build();
if(!faceDetector.isOperational()){
new AlertDialog.Builder(v.getContext()).setMessage("Could not set up the face detector!").show();
return;
}
Log.d(TAG, "onClick: 5");
Frame frame = new Frame.Builder().setBitmap(myBitmap).build();
Frame frameScaled = new Frame.Builder().setBitmap(scaledBitmap).build();
Log.d(TAG, "onClick: 5.1");
SparseArray<Face> faces = faceDetector.detect(frameScaled);
-->> SparseArray<Face> faces2 = faceDetector.detect(frame); <-- Takes 7 seconds
Log.d(TAG, "onClick: 6");
for(int i=0; i<faces.size(); i++) {
Face thisFace = faces.valueAt(i);
float x1 = thisFace.getPosition().x;
float y1 = thisFace.getPosition().y;
float x2 = x1 + thisFace.getWidth();
float y2 = y1 + thisFace.getHeight();
tempCanvas.drawRoundRect(new RectF(x1, y1, x2, y2), 2, 2, myRectPaint);
Log.d(TAG, "onClick: x,y,x,y: " + x1 +", " + y1 + ", " + x2 +", " + y2);
}
for(int i=0; i<faces2.size(); i++) {
Face thisFace = faces2.valueAt(i);
float x1 = thisFace.getPosition().x;
float y1 = thisFace.getPosition().y;
float x2 = x1 + thisFace.getWidth();
float y2 = y1 + thisFace.getHeight();
tempCanvas.drawRoundRect(new RectF(x1, y1, x2, y2), 2, 2, myRectPaint);
Log.d(TAG, "onClick: x,y,x,y: " + x1 +", " + y1 + ", " + x2 +", " + y2);
}
Log.d(TAG, "onClick: 5");
myImageView.setImageDrawable(new BitmapDrawable(getResources(),tempBitmap));
faceDetector.release();
//cropImage(x1,y1,x2,y2);
}
});
}