Я предполагаю, что у вас есть список URL, которые вы хотите проанализировать. В этом случае вы можете l oop через них, а когда make_soup()
возвращает None
, вы можете перейти к следующей итерации с ключевым словом continue
.
def make_soup(url):
try:
html = requests.get(url).content
except:
return None
return BeautifulSoup(html, "lxml")
urls = [
"https://cdn.podigee.com/uploads/u735/1d4d4b22-528e-4447-823e-b3ca5e25bccb.mp3?v=1578558565&source=webplayer",
]
for url in urls:
soup = make_soup(url)
if soup is None:
continue
print(soup.select_one("a.next").get('href'))
Для случаев, когда URL-адрес занимает слишком много времени, вы можете указать функцию тайм-аута . Если вы на Windows, вы можете посмотреть здесь