Я провел некоторый рефакторинг для приложения asp.net mvc, уже развернутого на живом веб-сайте. Среди рефакторинга было перемещение функциональности на новый контроллер, что привело к изменению некоторых URL. Вскоре после того, как различные роботы поисковых систем начинают забивать старые URL.
Какой правильный способ справиться с этим в целом?
- Игнорировать это? Со временем SE должны выяснить, что они получают только 400 от старых URL.
- Блокировать старые URL-адреса с помощью robots.txt?
- Продолжать перехватывать старые URL-адреса, а затем перенаправлять на новые? Пользователи, перемещающиеся по сайту, никогда не получат перенаправление, так как URL-адреса обновляются во всей новой версии сайта. Я вижу это как мусорный код - разве это не может быть обработано какой-то необычной маршрутизацией?
- Другое
Как всегда, все комментарии приветствуются ...
Спасибо,
Андерс, Дания