Я пытаюсь построить детектор улыбки для видео в реальном времени (передняя камера), используя Uibezierpath по координатам экрана, обнаруживая ориентиры лица с помощью VNDetectFaceLandmarksRequest и "Landmarks.outerlips", вычисляя смещение Y между верхними точками, без идеального использования CoreML - но я, кажется, могу получить только нормализованные точки для ориентира, где эти точки имеют свою собственную систему координат. Я не уверен, как преобразовать каждую точку в систему координат экрана.
Этот ответ @Rickster, кажется, направлен в правильном направлении, но я не в состоянии полностью понять следующие шаги:
Как преобразовать нормализованные точки, полученные из VNFaceLandmarkRegion2D
Любая дополнительная помощь будет принята с благодарностью! спасибо
Токовый выход:
Желаемый результат: