Привет, я хочу закодировать спамер запросов, который неоднократно запрашивает страницу на сайте с другим прокси.
Я устранял неполадки с Wireshark, если мои запросы проходят или нет.
это мой код:
import requests
from itertools import cycle
import traceback
#def get_proxies():
url = 'https://free-proxy-list.net/'
response = requests.get(url)
parser = fromstring(response.text)
proxies = set()
for i in parser.xpath('//tbody/tr')[:10]:
if i.xpath('.//td[7][contains(text(),"yes")]'):
proxy = ":".join([i.xpath('.//td[1]/text()')[0], i.xpath('.//td[2]/text()')[0]])
proxies.add(proxy)
return proxies
proxies = open('proxies.txt', 'r')
#proxies = get_proxies()
#proxy_pool = cycle(proxies)
url = "https://www.bol.com/nl"
print(''' Request spammer V1.0''')
print("\n\n TARGET URL: " + url)
for i in range(1,3892):
#Get a proxy from the pool
#proxy = next(proxy_pool)
proxy = proxies.readline()
print("Request: #%d "%i +" "+ proxy)
try:
response = requests.get(url,proxies={"http": proxy, "https": proxy})
except:
#Most free proxies will often get connection errors. You will have retry the entire request using another proxy to work.
#We will just skip retries as its beyond the scope of this tutorial and we are only downloading a single url
print("Skipping. Connnection error")
Но на самом деле происходит то, что всякий раз, когда он говорит об ошибке подключения, он будет включать прокси-IP, как я здесь кодировал: print("Request: #%d "%i +" "+ proxy)
, но если этого не произойдет, он будет печатать только «Запрос № 1,2,3 et c ..»
Кто-нибудь может мне помочь с этим? Заранее спасибо