поэтому для этого проекта по утилизации веб-страниц, над которым я работаю, я пытался отделить некоторые результаты от результатов. в основном, если заголовок содержит ん さ れ れ ペ ー ー ジ が 見 つ り ま ん ん, я хочу скопировать URL-адрес и записать его в один файл fail.csv. Что-нибудь еще, я хочу скопировать URL-адрес и записать его в sucess.csv
html = 'www.abc.com'
url = BeautifulSoup(html,'html.parser').title.string
pattern = re.compile(r' 指定されたページが見つかりません')
if pattern.finditer(url):
with open('fail.csv','w') as f:
cw=csv.writer
cw.writerow([url])
else:
move on, run some other codes and write to sucess.csv
Однако, похоже, что регулярное выражение не распознает я что-то делаю не так или здесь что-то не так?
Спасибо