Мне интересно, стоит ли мне добавлять на свой сайт отчет (smodin.me), который получает 30 тысяч обращений в день. Проще говоря, он переписывает текст с помощью специально созданного API, который я создал.
Я не уверен, сколько роботов попадают на мой сайт, вводят текст в текстовое поле и используют API (например, веб-скребок), и я рассматриваю возможность использования рекапчи. Но лично я ненавижу сталкиваться с повторениями, поэтому я не хочу, чтобы это всплывало, если реальный человек переписывает немало статей по реальной причине.
Есть ли настройки рекапчи, которые идеально подходят для этой ситуации? Должен ли я использовать рекапчу и показывать ее после 3 последовательных вариантов использования, например?
Достаточно ли уменя Google recaptcha, чтобы знать, что это не робот?
Существуют ли лучшие альтернативы, возможно, популярные решения, которые блокируют скребки?
Любой совет приветствуется.