Мне интересно, возможно ли, чтобы экземпляр AVCaptureSession
и UIImagePicker
одновременно обращался к камере.
Я хочу создать приложение, которое отображает измеритель / индикатор освещенностиналожение UIImagePicker
, когда камера активна.Ранее я реализовал это, используя UIGetScreenImage()
, но Apple теперь запрещает использование этого частного API в пользу AVCaptureSession
.В моих экспериментах AVCaptureSession
кажется приостановленным, когда UIImagePicker
отображает вид с камеры.Есть идеи?Спасибо!