googlebot интерпретирует почти каждую строку в inline-javascript как URL, который содержит «/» или общее расширение файла («.html», «.php») ... особенно первая очень раздражает.
запутайте каждый URL во встроенном JS, который вы не хотите сканировать. т.е. заменить "/" на '|' на стороне сервера и создайте метод-оболочку в JS, который заменяет «|» на "/" снова.
да, это в основном раздражает, и есть лучшие способы, т. Е. Иметь все ваши js во внешнем файле, который нельзя сканировать.
решение robots.txt на самом деле не является решением. поскольку URL-адреса все еще находят, подталкивают к обнаружению (канал Google использует для определения того, что сканировать дальше), но затем сканирование блокируется, что по сути является одной из упущенных возможностей.