Я согласен с подходом honeypot в целом. Однако я поместил ТОЛЬКО ссылку на страницу / ресурс honeypot на страницу, заблокированную файлом "/robots.txt", а также заблокированную таким образом honeypot. Таким образом, злонамеренный робот должен нарушать правило «запретить» ДВАЖДЫ, чтобы забанить себя. Типичный пользователь, вручную переходящий по не кликаемой ссылке, может сделать это только один раз и может не найти страницу с URL-адресом honeypot.
Ресурс honeypot регистрирует нарушающий IP-адрес вредоносного клиента в файл, который используется в качестве списка запрета IP в другом месте конфигурации веб-сервера. Таким образом, после перечисления веб-сервер блокирует весь дальнейший доступ по этому IP-адресу клиента, пока список не будет очищен. У других может быть какое-то автоматическое истечение срока действия, но я верю только в ручное удаление из списка банов.
В сторону: я также делаю то же самое со спамом и моим почтовым сервером: сайты, которые отправляют мне спам, когда их первое сообщение получает запрет на отправку каких-либо дальнейших сообщений, пока я не очищу файл журнала. Хотя я реализую эти списки банов на уровне приложений, у меня также есть динамические списки банов на уровне брандмауэра. Моя почта и веб-серверы также обмениваются запрещенной информацией об IP между ними. Для неискушенного спамера я подумал, что на одном и том же IP-адресе могут размещаться как вредоносный паук, так и спамер. Конечно, это было до BotNet, но я никогда не удалял его.