У меня есть веб-сайт с высоким трафиком.
Я хочу создать программное обеспечение, которое на лету анализирует клиентские запросы и решает, поступают ли они от реального пользователя или бот-ботнета.Для обучения нейронной сети для выявления законных («хороших») пользователей я могу использовать журналы, когда нет активности DDoS.После обучения сеть будет отличать реальных пользователей от ботов.
Что у меня есть:
- запрос URI (и порядок)
- cookie
- пользовательский агент
- частота запросов.
Любые идеи о том, как лучше спроектировать ANN для этой задачи и как ее настроить?
Редактировать: [вответ на комментарии о чрезмерно широком объеме этого вопроса]
В настоящее время у меня есть работающая программа на C #, которая блокирует клиентов на основе частоты идентичных запросов.Теперь я хотел бы улучшить его «интеллект» с помощью классификатора на основе нейронной сети.
Я не знаю, как нормализовать эти входы для ANN, и мне нужны предложения в этой конкретной области.