Кто-то испортил наш robots.txt, случайно добавив \n
после всего нашего allow: /products/
, что составляет около 30 000 страниц. Ошибки на нескольких языковых сайтах. Это одна из наших поисковых консолей.
Я быстро заметил ошибку и удалил ее. Я попросил Google проверить мое решение, но примерно через 3 месяца ошибки все еще увеличиваются Смотрите изображения ниже:
Что я могу сделать, чтобы ускорить процесс? Я начал проверку.