По сути, я пытаюсь создать простое приложение для распознавания лиц в режиме реального времени IOS, которое транслирует лица пользователей и сообщает им, закрыты ли их глаза. Я следую учебнику Google здесь - https://firebase.google.com/docs/ml-kit/ios/detect-faces. Я на шаге 2 (запустить детектор лиц) и пытаюсь создать visionImage с помощью CMSampleBufferRef. Я просто копирую код, и когда я это делаю, нет ссылки на «sampleBuffer», как показано в руководстве. Я не знаю, что делать, потому что я действительно не понимаю, что такое CMSampleBuffer.