URL-адреса, ограниченные ошибками robots.txt в поисковой консоли Google - PullRequest
0 голосов
/ 20 мая 2018

Я создаю сайт WordPress на поддомене, и я сталкиваюсь с этой ошибкой: Sitemap содержит URL-адреса, которые заблокированы robots.txtв поисковой консоли Google

1 Ответ

0 голосов
/ 05 марта 2019

Файл robots.txt регулирует веб-роботов (как правило, роботов поисковых систем), как сканировать страницы на их веб-сайте, поэтому, если ссылка заблокирована robots.txt, вы должны перейти к этому файлу, отредактировать его и удалить ссылку изDisallow или добавьте его к Allow.

Например

user-agent : *

Disallow : /wp-admin/ >> Это заблокирует сканер для сканирования /wp-admin/

Allow : /wp-content/ >> Это позволит веб-сканеру сканировать /wp-content/

Здесь user-agent может быть любым, то есть пользователь или веб-сканер .

Посмотрите и попробуйте настроить ваш robots.txt на Moz.com

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...