[Я знаю, что эта ветка старая, но я отвечаю на нее для таких людей, как я, которые видят ее несколько месяцев спустя.]
Из того, что я прочитал и увидел, CloudFront не всегда идентифицирует себя вЗапросы.Но вы можете обойти эту проблему, переопределив robots.txt в дистрибутиве CloudFront.
1) Создайте новую корзину S3, которая содержит только один файл: robots.txt.Это будет файл robots.txt для вашего домена CloudFront.
2) Перейдите в настройки распространения в консоли AWS и нажмите «Создать источник».Добавьте корзину.
3) Перейдите в «Поведения» и нажмите «Создать поведение: Шаблон пути: robots.txt Origin: (ваше новое ведро)»
4) Установите поведение robots.txt выше.приоритет (меньшее число).
5) Перейдите к аннулированию и сделайте недействительным /robots.txt.
Теперь abc123.cloudfront.net/robots.txt будет обслуживаться из корзины, а все остальное будетобслуживаться с вашего домена.Вы можете разрешить / запретить сканирование на любом уровне независимо.
Другой домен / поддомен также будет работать вместо корзины, но зачем идти на неприятности.