У меня есть задача по программированию приложения, которое я пишу для iPad, и в документации не ясно, как это сделать.Я надеюсь получить несколько полезных советов по решению этой проблемы.
По сути, у меня есть буфер памяти, в котором хранится необработанный RGB для изображения с разрешением 256x192 пикселей.Это изображение будет регулярно записываться, и я хочу отобразить его в области размером 768x576 пикселей на экране при вызове обновления.Я хотел бы, чтобы это было относительно быстро и, возможно, оптимизировало его, обрабатывая только те области изображения, которые действительно меняются.
Как бы я поступил так?Моя первоначальная мысль - создать CGBitmapContext для управления изображением 256x192, затем создать из него CGImage, затем создать из него UIImage и изменить свойство изображения экземпляра UIImageView.Это звучит как довольно медленный процесс.
Я на правильных линиях или я должен смотреть на что-то другое.Еще одно замечание: это изображение должно сосуществовать с другими представлениями UIKit на экране.
Спасибо за любую помощь, которую вы можете предоставить.