Пишу приложение камеры. Мне нужно 2 изображения с временным расстоянием 240FPS. Они нужны мне в буфере, поэтому я могу использовать их для следующего шага обработки. Поэтому я создал CameraConstrainedHighSpeedCaptureSession, но не могу напрямую получить доступ к данным. Я успешно настроил MediaRecorder для записи видео с частотой 240 кадров в секунду, но мне нужны исходные данные с камеры напрямую.
Так что я попробовал его с OpenGL SurfaceTexture, но он поддерживает только 30 кадров в секунду.
Возможно ли в любом виде получить доступ к данным прямо из потока? У меня была идея использовать кольцевой буфер, потому что мне нужны только два последних кадра, и они нужны только по запросу. Таким образом, все кадры между двумя запросами могут быть отброшены.
Надеюсь, кто-нибудь может мне помочь.