Удаляет ли метатег Robots No Index индексированные URL? - PullRequest
0 голосов
/ 27 марта 2012

У нас есть приложение, которое имеет около 15000 страниц.Для лучшего SEO мы должны были изменить URL.Google уже просканировал все эти страницы ранее, и из-за изменений мы видим много повторяющихся заголовков / мета-описаний у веб-мастеров.Наши впечатления от Google упали, и мы считаем, что это причина.Поправьте меня, если мое предположение неверно.Теперь мы не можем написать регулярное выражение для изменения URL с помощью перенаправления 301, потому что изменение было таким.Единственный способ сделать это - написать 301 переадресацию для отдельных URL-адресов, что невозможно для 10000 URL-адресов.Теперь мы можем использовать метатег роботов с NOINDEX? Мой вопрос в основном таков: если я напишу метатег NOINDEX, Google удалит уже проиндексированные URL-адреса? Если нет, каковы другие способы удаления старых проиндексированных URL-адресов из Google?Еще одна вещь, которую я могу сделать, это сделать все ошибки предыдущих страниц 404, чтобы избежать дубликатов, но будет ли это правильно?

Ответы [ 2 ]

0 голосов
/ 27 марта 2012

Теперь мы не можем написать регулярное выражение для изменения URL использует перенаправление 301, потому что изменение было таким. Единственный способ сделать это было бы написать 301 перенаправления для отдельных URL, который невозможно для 10000 URL.

Конечно, вы можете! Я переписываю более 15000 URL-адресов с помощью mod_rewrite и RewriteMap! Это всего лишь вопрос написания сценария / вывода всех URL-адресов и освоения vim, но вы можете и легко. Если вам нужна дополнительная информация, просто спросите.

То, что вы можете сделать, это RewriteMap, например:

/baskinrobbins/branch/branch1/ /baskinrobbins/branch/Florida/Jacksonville/branch1

Я сделал огромный ответ здесь , и вы можете очень легко адаптировать его к вашим потребностям.

Я мог бы сделать эту работу максимум за 1-2 часа, но я дорогой ;).

0 голосов
/ 27 марта 2012

Реиндексация медленная

В любом случае, Google все равно придется игнорировать старые URL-адреса.

Использовать перенаправления Htaccess 301

Вы можете добавить на свой сервер Apache файл с именем .htaccess, который может перечислить все старые и новые URL-адреса и мгновенно перенаправить пользователя на новую страницу.Можете ли вы создать такой текстовый файл?Я уверен, что вы можете циклически проходить по разделам в своем приложении и т. Д. И генерировать список URL-адресов.

Используйте следующий синтаксис.

 Redirect 301 /oldpage.html http://www.yoursite.com/newpage.html 
 Redirect 301 /oldpage2.html http://www.yoursite.com/folder/

Это предотвращает ошибки 404 File Not Found, и это лучше, чем мета-обновление или перенаправление тега, потому что старая страница даже не обслуживается клиентам.

Я сделал это для сайта, который прошел недавнее обновление, и так как Google продолжал указывать настарые файлы, нам нужно было перенаправить клиентов для просмотра нового контента.

Где находится .htaccess?

Перейдите в корневую папку своего сайта и создайте / загрузите .htaccess файл на свой локальный компьютер и отредактируйте его с помощью простого текстового редактора (например, Блокнот).Если вы используете программное обеспечение FTP-клиента и не видите никакого файла .htaccess на своем сервере, убедитесь, что вы просматриваете невидимые / системные файлы.

...