Все предыдущие ответы более или менее основывались на существующих службах, чтобы иметь копию этого канала или механизма каналов для динамического предоставления более старых элементов.
Существует, однако, еще один, по общему признанию, проактивный и довольно теоретический способ сделать это: пусть ваш feedreader использует прокси-сервер кэширования, который семантически понимает каналы RSS и / или Atom и кэширует их на основе каждого элемента до такого количества элементов, сколько вы настраиваете.
Если программа чтения новостей не опрашивает каналы регулярно, прокси-сервер может самостоятельно выбирать известные каналы по времени, чтобы не пропустить элемент в очень изменчивых каналах, таких как в User Friendly, который имеет только один элемент и меняется каждый день ( или хотя бы раньше так делал). Следовательно, если feedreadere.g. сбой или потеря сетевого подключения, пока вы отсутствовали несколько дней, вы можете потерять элементы в кеше вашего фидридера. Наличие прокси-сервера для регулярного получения этих каналов (например, из центра обработки данных, а не из дома или на сервере, а не с ноутбука) позволяет легко запускать программу чтения каналов только тогда и без потери элементов, которые были размещены после того, как ваш источник чтения загрузил каналы в прошлый раз, но повернулся снова, прежде чем вы получите их в следующий раз.
Я называю эту концепцию Semantic Feed Proxy , и я реализовал доказательство реализации концепции под названием sfp . Хотя это не намного больше, чем доказательство концепции, и я не разработал его дальше. (Так что я был бы рад намекам на проекты с похожими идеями или целями.: -)