Для приложения ios, которое я пишу, я хотел бы сделать фотографию из библиотеки фотографий, а затем позволить пользователю «очистить ее», по существу удалив ненужные части.Например, предположим, что пользователь выбирает фотографию человека, моему приложению нужна только голова, а все остальное должно быть удалено, поэтому пользователю необходимо очистить фотографию, удалив фон, тело или других людей на фотографии.Представьте себе фотошоп как опыт, но только с одним инструментом - ластиком.
Я ищу библиотеки с открытым исходным кодом или примеры или просто советы о том, как начать работу с этим.
Я знаю, как использовать UIImagePickerController для выбора изображения, чтобы отсутствующая часть была фактическим редактированием.Как полный новичок, я был бы рад получить несколько советов о том, что было бы разумным подходом к этому, предпочтительно с некоторым примером кода или даже многоразовой библиотекой.
Полагаю, на высоком уровне я хочу начать с прямоугольного изображения и убедиться, что у него есть альфа-слой, а затем, когда пользователь касается частей изображения, чтобы удалить их, мне нужно«удалить» больше пикселей из изображения, изменив их альфа-уровень на 0. Но это слишком высокоуровневое описание, которое я даже не уверен, что правильно ... Другое разумное требование - отменить поддержку.
Другой подход, который приходит на ум, заключается в использовании исходного изображения и маскирующего изображения, которое пользователь редактирует, касаясь экрана, и когда «готово», каким-то образом скомпилируйте два изображения в одно изображение с альфа-каналом.Конечно, это деталь реализации, и пользователю не нужно знать, что на экране есть два изображения.
Если возможно, я бы хотел остаться на уровнях UIImage или UIImageView или Core Graphics и не иметьсвязываться с OpenGL ES.У меня такое ощущение, что более высокие графические уровни должны быть достаточно производительными и легкими для понимания, удобство сопровождения чистого кода - это вопрос ...
Любой совет приветствуется, спасибо!