Как справляться с массовыми запросами на очистку веб-страниц - PullRequest
0 голосов
/ 09 декабря 2018

Наши серверы находятся под большим давлением, когда многие наши клиенты ломают наши веб-страницы.Иногда наши веб-страницы очищаются от множества разных IP-адресов, которые не принадлежат некоторым известным паукам, таким как Google, Bing.Поэтому наша защитная стратегия, основанная на IP-адресах, бесполезна.Мы хотим, чтобы некоторые наши веб-страницы сканировались обычными пауками с правильной частотой, но мы против любого, кто может нанести ущерб нашему серверу.Кэширование может быть вариантом.Но у нас так много URL для SEO.Например, у нас есть несколько URL с шаблоном "https://www.xxxx.com/hot-goods/mobile-phone-1.html".". На этой странице представлен список продуктов о мобильном телефоне. Существуют тысячи страниц для результата поиска одного поискового слова. Таким образом, коэффициент использования кэшированияможет быть не очень высоко. Поэтому мне просто интересно, есть ли другие решения для снижения нагрузки на наши серверы.

1 Ответ

0 голосов
/ 10 декабря 2018

Помимо файла robots.txt, который невежливые сканеры, вероятно, в любом случае проигнорируют, вы можете предоставить файл sitemap.xml для отображения всех ваших страниц.Сканеры пойдут на это, вместо того чтобы использовать функцию поиска на вашем сайте, что уменьшит нагрузку.Это также способ избежать нескольких запросов на один и тот же контент, когда URL-адреса различаются только по нескольким параметрам.

Если вы не можете избежать их, сделайте их работу проще, чтобы они не доставляли неудобств.

...