Я экспериментирую с прокси-серверами, я хочу создать бота, который каждые несколько минут подключается к моему веб-серверу и очищает файл (а именно индекс. html) для изменений.
Я пытался чтобы применить вещи, которые я выучил в нескольких многочасовых python уроках и получил результат, чтобы сделать его более забавным, я мог бы использовать случайные прокси.
Поэтому я записал этот метод:
import requests
from bs4 import BeautifulSoup
from random import choice
#here I get the proxy from a proxylist due processing a table embedded in html with beautifulSoup
def get_proxy():
print("bin in get_proxy")
proxyDomain = 'https://free-proxy-list.net/'
r = requests.get(proxyDomain)
print("bin in mache gerade suppe")
soup = BeautifulSoup(r.content, 'html.parser')
table = soup.find('table', {'id': 'proxylisttable'})
#this part works
#print(table.get_text)
print("zeit für die Liste")
ipAddresses = []
for row in table.findAll('tr'):
columns = row.findAll('td')
try:
ipAddresses.append("https://"+str(columns[0].get_text()) + ":" + str(columns[1].get_text()))
#ipList.append(str(columns[0].get_text()) + ":" + str(columns[1].get_text()))
except:
pass
#here the program returns one random IP Address from the list
return choice(ipAddresses)
# return 'https://': + choice(iplist)
def proxy_request(request_type, url, **kwargs):
print("bin in proxy_request")
while 1:
try:
proxy = get_proxy()
print("heute verwenden wir {}".format(proxy))
#so until this line everything seems to work as i want it to do
#now the next line should do the proxied request and at the end of the loop it should return some html text....
r = requests.request(request_type, url, proxies=proxy, timeout=5, **kwargs)
break
except:
pass
return r
def launch():
print("bin in launch")
r = proxy_request('get', 'https://mysliwje.uber.space.')
### but this text never arrives here - maybe the request is going to be carried out the wrong way
###does anybody got a idea how to solve that program so that it may work?
print(r.text)
launch()
Как я уже объяснял в разделе кода ранее, код работает хорошо, он выбирает некоторый случайный ip из списка случайных ip и печатает его даже в кли. следующий шаг внезапно, кажется, выполняется неправильно, потому что инструменты запускают очистку нового IP-адреса, другого, другого, другого, другого ... списка, который, кажется, обновляется каждые несколько минут. ... поэтому я спрашиваю себя, что происходит, почему я не вижу простой html код моей главной страницы?
У кого-нибудь есть идея?
Thanxx