Он успешно извлекает саму страницу, но затем разрывается на любую страницу, которую пытается загрузить: изображения, стили, шрифты, файлы js, вызовы API - что угодно.Каждый раз что-то другое.И это говорит о том, что ресурсы «временно недоступны».
И иногда он успешно загружается и отображает всю страницу без ошибок.
Их документ говорит, что «временно недоступно» означает, что любой сервер занял слишком много времени.долго не отвечал, или эта выборка была отменена «потому что на сервер было отправлено слишком много последовательных запросов для разных URL».
Страница, которую я тестировал, полностью загружается в течение 1,5-2 с.Это слишком долго?
Он делает 20 запросов: 1 html, 4 файла css (3 из них являются 3-сторонними шрифтами), 6 файлов js, 4 вызова API (1 сбой, он преднамеренный),4 файла шрифта, 1 изображение.Общий объем данных составляет 2,5 МБ.Это слишком много?
Я проверил каждый сбойный ресурс с помощью их "robots.txt tester" - каждый из них разрешен для googlebot.
У меня нет ни одной директивы noindex / nofollow нигдена сайте.
И я напоминаю, что иногда это просто удается, как будто все в порядке.
Со всем этим у меня есть 3 вопроса:
- Должен ли я вообще заботиться о рендеринге в Google? Если я просто сделаю предварительный рендеринг своего html (с phantomjs или чего-то еще) для googlebot, этого будет недостаточно для нормальной индексации?
- Если мне нужен рендеринг Google - Должен ли я позаботиться о том, что случайный сбой? Если хотя бы иногда выборка-и-рендеринг завершается успешно, возможно, это означает, что мой сайт будет проиндексирован нормально?
- Если мне нужно позаботиться о том, что не получается - Что еще мне нужно сделать, чтобы заставить его работать стабильно?! Такое случайное поведение не имеет никакого смысла и не дает мне никаких подсказок по этому поводу..