Я столкнулся с довольно уникальной проблемой. Если вы имеете дело с масштабированием больших сайтов и работаете с такой компанией, как Akamai, у вас есть исходные серверы, с которыми Akamai общается. Что бы вы ни служили Акамаю, они будут распространяться на своем диске.
Но как вы справляетесь с robots.txt? Вы не хотите, чтобы Google сканировал ваше происхождение. Это может быть ОГРОМНАЯ проблема безопасности. Подумайте об отказе в обслуживании.
Но если вы отправите robots.txt в вашем источнике со словом "disallow", то весь ваш сайт будет недоступен для сканирования!
Единственное решение, которое я могу придумать, - это предоставить другой файл robots.txt Акамаю и всему миру. Откажитесь от мира, но позвольте Акамаю. Но это очень смешно и склонно ко многим проблемам, и я не могу думать об этом.
(Конечно, серверы происхождения не должны быть доступны общественности, но я бы сказал, что большинство из них по практическим соображениям ...)
Кажется, проблема в том, что протокол должен обрабатываться лучше. Или, возможно, разрешите скрытый robots.txt для конкретного сайта в инструментах для веб-мастеров поисковой системы ...
Мысли