raw
должен быть список, содержащий данные каждой веб-страницы. Для каждой записи в raw
проанализируйте ее и создайте суповой объект. Вы можете хранить каждый объект супа в списке (я назвал его soups
):
links= ['http://www.nuforc.org/webreports/ndxe201904.html',
'http://www.nuforc.org/webreports/ndxe201903.html',
'http://www.nuforc.org/webreports/ndxe201902.html',
'http://www.nuforc.org/webreports/ndxe201901.html',
'http://www.nuforc.org/webreports/ndxe201812.html',
'http://www.nuforc.org/webreports/ndxe201811.html']
raw = [urlopen(i).read() for i in links]
soups = []
for page in raw:
soups.append(BeautifulSoup(page,'html.parser'))
Вы можете получить доступ, например. объект супа для первой ссылки с soups[0]
.
Кроме того, для получения ответа каждого URL, рассмотрите возможность использования модуля requests
вместо urllib
. Смотрите этот пост .