Каким образом веб-сканеры (как из поисковых, так и не поисковых систем) могут влиять на статистику сайта (например, при проведении AB-тестирования различных вариантов страницы)?И как можно решить эти проблемы?
Например:
Многие ли люди, пишущие сканеры, часто удаляют свои файлы cookie и маскируют свои IP-адреса, поэтомучто веб-сканеры часто отображаются как разные пользователи при каждом сканировании сайта?
Какую эвристику использовать, чтобы распознать, что что-то является ботом?(Я предполагаю, что любой достаточно сложный бот может быть неотличим от реального пользователя, если он хочет - это правильно?)
Просто чтобы уточнить, основываясь на комментариях ниже:Меня также интересует случай, когда мой сайт является целевым (возможно, незаконным сканером).