Я получаю кадрированные изображения с камеры iPhone со скоростью 25 кадров в секунду, используя разрешение 192 x 144 и 420 В, формат BGRA.
Я конвертирую CVImageBufferRef
s в UIImage
s, а затем вызывая UIImageJPEGRepresenation(image, compressionQuality)
, чтобы получить сжатую версию изображения в формате JPEG.
Используя Time Profiler в инструментах, я вижу, что 75% моего процессорного времени тратится на получение представления изображения в формате JPEG., вызывая замедление с другими операциями, которые мне нужно выполнить в приложении.
Это немного колеблется, тратя меньше времени, если я устанавливаю сжатие на 1,0 (т.е. без сжатия), и тратя больше, если я его устанавливаюдо 0,0 (т. е. полное сжатие).
Существует ли более эффективный способ получить представление изображения JPEG с камеры iPhone?
Можно ли получить представление JPEG без преобразования CVImageBufferRef
до UIImage
(и, следовательно, вырезать довольно дорогую операцию рисования Core Graphics)?