Мне было просто интересно, знает ли кто-нибудь более быстрый / более эффективный способ сделать это, и улучшить его немного быстрее, потому что это тестер, и я буду в основном иметь дело с 123 городами в 20 странах
for country in cities:
for city in cities[country]:
for job_title in _job_title:
for start in range(0, max_results_per_city, 10):
url = urls[country] + \
"/jobs?q={}&l={}&sort=date&start={}".format(
job_title, city, start)
print(url)
time.sleep(1)
response = requests.get(url)
data = response.text
soup = get_soup(data)
html = soup.find_all(name="div", attrs={"class": "row"})
for page in html:
job = extract_job_title(page)
job_title_match = [job_prefix for job_prefix in _job_title if job_prefix in job]
if not len(job_title_match) > 0:
pass
else:
with open(self.file, 'w') as outfile:
json.dump(unique(self.data_extracted), outfile, indent=4)
время
real 0m45.970s
user 0m1.657s
sys 0m0.090s