Мне нужно получить фактическое X, Y захваченного изображения. В настоящее время используется x = event.getX(); y = event.getY();
, но это дает координаты, которые не соответствуют фактическим размерам захваченного изображения.
Размер моего захваченного изображения 3840x2160
.
Но Display display = getActivity().getWindowManager().getDefaultDisplay();
display.getWidth(), display.getHeight()
дает размеры экрана как 1080x2290.
Что-то здесь не так. Существует предыдущий вопрос , который задает тот же запрос, но не получил адекватного ответа.
Мой файл макета для предварительного просмотра камеры выглядит примерно так:
<RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android"
android:layout_width="match_parent"
android:layout_height="match_parent">
<org.tensorflow.lite.examples.detection.AutoFitTextureView
android:id="@+id/texture"
android:layout_width="wrap_content"
android:layout_height="wrap_content"
android:layout_alignParentStart="true"
android:layout_alignParentTop="true" />
<SurfaceView
android:layout_width="match_parent"
android:layout_height="match_parent"
android:id="@+id/surfaceView"/>
</RelativeLayout>