Если вы хотите очистить все ссылки, полученные с первой страницы, а затем очистить все ссылки, полученные по этим ссылкам и т. Д., Вам нужна рекурсивная функция.
Вот некоторый исходный код, который поможет вамначалось:
if __name__ == "__main__":
initial_url = "https://menupages.com/restaurants/ny-new-york"
scrape(initial_url)
def scrape(url):
print("now looking at " + url)
# scrape URL
# do something with the data
if (STOP_CONDITION): # update this!
return
# scrape new URLs:
for new_url in soup.find_all(...):
scrape(new_url, file)
Проблема с этой рекурсивной функцией заключается в том, что она не остановится, пока на страницах не будет ссылок, что, вероятно, не произойдет в ближайшее время.Вам нужно будет добавить условие остановки.