urllib
import urllib.request
with open('links.txt', 'r') as f:
links = f.readlines()
for link in links:
with urllib.request.urlopen(link) as f:
# get html text
html = f.read().decode('utf-8')
# append html to file
with open('result.txt', 'w+') as f:
f.write(html)
вы также можете использовать библиотеку запросов, которую я считаю гораздо более читаемой
pip install requests
import requests
with open('links.txt', 'r') as f:
links = f.readlines()
for link in links:
response = requests.get(link)
html = response.text
# append html to file
with open('result.txt', 'w+') as f:
f.write(html)
Используйте l oop для навигации по страницам
Используйте для l oop для создания ссылок на страницы, поскольку единственное, что изменяется, - это номер страницы
links = [
f'https://www.ebay.com/sch/i.html?_from=R40&_nkw=abc&_sacat=0&_pgn={n}'
for n in range(1, 10) # [1, 2, 3, 4, 5, 6, 7, 8, 9]
]
или как вы go по
for n in range(1, 10):
link = f'https://www.ebay.com/sch/i.html?_from=R40&_nkw=abc&_sacat=0&_pgn={n}'
[...]