Стандартный способ фильтрации обнаженного / явного пользовательского контента на iOS - PullRequest
0 голосов
/ 24 мая 2018

Это ситуация, когда нереально предварительно одобрять изображения модератором.

Я подумал о двух решениях:

-Иметь кнопку флага / отчета и автоматически удалять изображение, еслиоб этом сообщается определенное количество раз за все время его просмотра.

-Используйте библиотеку, которая обнаруживает обнаженные тела в изображениях.

Проблема с первым способом заключается в том, что а) Мне придется подойтис пороговым числом, которое не является слишком чувствительным или недостаточно чувствительным, и b) этот метод сообщения обязательно заставит людей видеть изображения, прежде чем они сообщат о них.

Проблема со вторым способом заключается в том, чтоЯ читал, что обнаружение изображений для обнаженных людей, как правило, ненадежно.

Так что я думаю, мне интересно, каким должен быть нормальный способ сделать это.В магазине приложений так много приложений с пользовательским контентом, что должен быть хороший способ сделать это.Мой главный страх / вопрос заключается в том, что будет Apple, запретить приложение, которое имеет какие-либо порно, даже если разработчик взял немного надлежащих мер, которые он мог бы предпринять, чтобы предотвратить это.Если бы я использовал комбинацию этих двух подходов, я чувствую, как это было бы приемлемо для моего приложения, но компания Apple запретить любое приложение, которое просачивается немного порно?Есть ли лучшие подходы?

1 Ответ

0 голосов
/ 24 мая 2018

Не могу дать вам слишком подробный ответ, поскольку у меня нет большого опыта работы с CoreML, но вы можете попробовать использовать CoreML вместе с моделью машинного обучения для обнаженных людей (которую вы сможете найти длябесплатно), и отфильтруйте каждое изображение / видео, которое ваш пользователь загружает вместе с моделью.

...