Файл robots.txt
регулирует веб-роботов (как правило, роботов поисковых систем), как сканировать страницы на их веб-сайте, поэтому, если ссылка заблокирована robots.txt
, вы должны перейти к этому файлу, отредактировать его и удалить ссылку изDisallow
или добавьте его к Allow
.
Например
user-agent : *
Disallow : /wp-admin/
>> Это заблокирует сканер для сканирования /wp-admin/
Allow : /wp-content/
>> Это позволит веб-сканеру сканировать /wp-content/
Здесь user-agent
может быть любым, то есть пользователь или веб-сканер .
Посмотрите и попробуйте настроить ваш robots.txt
на Moz.com