Я использую CoreImage CIDetector с CIDetectorTypeFace для обнаружения лиц и хочу определить, когда рот отсутствует.
Однако, обнаруженная CIFaceFeature hasMouthPosition всегда кажется истинной, когда мое лицо видно, даже когда я закрываю рот каким-либо предметом, таким как рука или книга.
Другие свойства, такие как leftEyeClosed , изменяются, как ожидается, например, когда я моргаю или закрываю глаз.Я пытался использовать разные уровни CIDetectorAccuracy, но это не помогло.У кого-нибудь есть идеи?