Вам необходимо отслеживать статьи, которые вы видели раньше, либо используя полное решение для базы данных, либо просто сохраняя информацию в файле.Файл должен быть прочитан перед началом.Затем веб-сайт очищается и сравнивается с существующим списком.Любые статьи, которых нет в списке, добавляются в список.В конце обновленный список сохраняется обратно в файл.
Вместо того, чтобы хранить весь текст в файле, вместо него можно сохранить хеш текста.т.е. преобразовать текст в уникальный номер, в этом случае используется шестнадцатеричный дайджест, чтобы его было легче сохранить в текстовом файлеПоскольку каждый хеш будет уникальным, они могут быть сохранены в наборе Python для ускорения проверки:
import hashlib
import requests
import bs4
import os
# Read in hashes of past articles
db = 'past.txt'
if os.path.exists(db):
with open(db) as f_past:
past_articles = set(f_past.read().splitlines())
else:
past_articles = set()
fonte = requests.get('https://www.noticiasaominuto.com/')
soup = bs4.BeautifulSoup(fonte.text, 'lxml')
for paragrafo in soup.body.find_all('p', class_='article-thumb-text'):
m = hashlib.md5(paragrafo.text.encode('utf-8'))
if m.hexdigest() not in past_articles:
print('New {} - {}'.format(m.hexdigest(), paragrafo.text))
past_articles.add(m.hexdigest())
# ...Update telegram here...
# Write updated hashes back to the file
with open(db, 'w') as f_past:
f_past.write('\n'.join(past_articles))
При первом запуске все статьи будут отображаться.В следующий раз статьи не будут отображаться, пока сайт не будет обновлен.