Robots.txt не обслуживается - PullRequest
1 голос
/ 25 января 2011

Я использую Python с фреймворком django для веб-приложения.Я сделал запись urls.py для обслуживания файла robots.txt, однако по какой-то причине кажется, что он не может его обработать.

url(r'^robots.txt$', 'support.views.robot_file',name="robot_file"),

этот метод работает для sitemap.xml, который имееточень похожая запись работает

url(r'^sitemap.xml', 'support.views.sitemap_file',name="sitemap_file"),

Что заставляет меня верить, что только обслуживание файла robots.txt является проблемой, так как когда я изменяю его на обслуживание robot.txt, он работает.

Может кто-нибудь подскажет, почему это происходит?

Ответы [ 4 ]

5 голосов
/ 25 января 2011

Вы, похоже, используете apache - возможно, в вашей конфигурации apache есть что-то, что нарушает robots.txt - возможно, это может быть "Alias ​​/robots.txt /somewhere/that/does't/exist.txt".

0 голосов
/ 25 января 2011

Мой рабочий раствор похож на следующий:

(r'^robots.txt$', 'my_project.views.robots'),

мой взгляд:

def robots(request):
    template = 'robots.txt'
    context = {}
    return render_to_response(template, context,
                           context_instance=RequestContext(request))
0 голосов
/ 25 января 2011

Я думаю, что статические файлы лучше всего обслуживать используемым вами веб-сервером.По моему мнению, это просто создает ненужные накладные расходы для Джанго.

0 голосов
/ 25 января 2011

Вы ошиблись robots.txt.Если это копирование, то это ваша проблема.

Это также может быть ваша конфигурация веб-сервера пытается сервер robots.txt откуда-то еще.Какую конкретную ошибку вы получаете, когда запрашиваете robots.txt?

Кроме того, отформатируйте свой код, используя ctrl-k или кнопку кода в редакторе WYSIWYG.

...