Web Crawler - игнорировать файл Robots.txt? - PullRequest
11 голосов
/ 05 декабря 2011

Некоторые серверы имеют файл robots.txt, чтобы запретить сканерам обходить свои сайты. Есть ли способ заставить веб-сканер игнорировать файл robots.txt? Я использую Mechanize для Python.

Ответы [ 2 ]

28 голосов
/ 05 декабря 2011

Документация для механизации имеет следующий пример кода:

br = mechanize.Browser()
....
# Ignore robots.txt.  Do not do this without thought and consideration.
br.set_handle_robots(False)

Это именно то, что вы хотите.

8 голосов
/ 05 декабря 2011

Это выглядит так, как вам нужно:

from mechanize import Browser
br = Browser()

# Ignore robots.txt
br.set_handle_robots( False )

но вы знаете, что делаете ...

...