Я очищаю несколько URL-адресов веб-сайта с BeautifulSoup и хочу создать файл для каждого URL.
categories = ["NEWS_AND_MAGAZINES", "ART_AND_DESIGN",...,"FAMILY"]
subcategories = ["topselling_free",...,"topgrossing"]
urls = []
for i in range (0,len(categories)):
for j in range (0,len(subcategories)):
url = categories_url_prefix + categories[i]+'/collection/'+subcategories[j]
urls.extend([url])
for i in urls:
response = get(i)
html_soup = BeautifulSoup(response.text, 'html.parser')
app_container = html_soup.find_all('div', class_="card no-rationale square-cover apps small")
file = open("apps.txt","a+")
for i in range(0, len(app_container)):
print(app_container[i].div['data-docid'])
file.write(app_container[i].div['data-docid'] + "\n")
file.close()
Я создаю уникальный файл app.txt, как я могу сгенерироватьфайл для каждого URL?Спасибо