Я создал веб-сайт с использованием WordPress, и в первый день он был полон фиктивного контента, пока я не загрузил свой. Google проиндексировал страницы, такие как:
www.url.com / кошка = 1
Теперь этих страниц не существует, и чтобы сделать запрос на удаление, Google попросил меня заблокировать их на robots.txt
Должен ли я использовать:
User-Agent: *
Disallow: /?cat=
или
User-Agent: *
Disallow: /?cat=*
Мой файл robots.txt будет выглядеть примерно так:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /author
Disallow: /?cat=
Sitemap: http://url.com/sitemap.xml.gz
Это выглядит нормально или может вызвать проблемы с поисковыми системами? Должен ли я использовать Allow: / вместе со всеми Disallow:?