Смотрите видео, где Дипак упоминает подробности, но да, это то, что вы можете создать сами, если хотите.
Обязательно сначала задайте себе пару вопросов: хотите ли вы воссоздать всю «структуру» распознавателя, или просто сможете распознать, скажем, пролистывание? Если последнее, то в сети должно быть множество примеров от предварительных 3.2 дней обнаружения свипов с использованием обычных сенсорных обработчиков событий.
Если вы действительно хотите воссоздать фреймворк, вы можете, и это на самом деле довольно интересное упражнение. У объекта UIKit есть некоторые крючки в конвейере событий на более ранних стадиях, но вы можете получить аналогичный результат, отслеживая касания и создавая конвейер объектов распознавателя. Если вы прочитаете документы на UIGestureRecognizer, вы увидите, что управление состояниями, которое они используют, довольно четко изложено. Вы можете скопировать это, а затем просто создать свой собственный MyPanGestureRecognizer, MySwipeGestureRecognizer и т. Д., Которые являются производными от базы MyGestureRecognizer. У вас должен быть некоторый подкласс UIView (MyGestureView), который обрабатывает все касания и проходит через список MyGestureRecognizer, используя конечный автомат, который подразумевается в документах.