Ваша текущая реализация очищает только текущую домашнюю страницу.
Для начала, если вы хотите начать с получения всех 25 тыс. Ссылок на рецепты, вам придется запускать это действие для каждой страницы их каталога, начиная с https://www.recetasgratis.net/busqueda/pag/1 до 574.
Вы можете сделать это, создав URL-адрес с помощью цикла for и пройдя по каждой странице, выполнив
pag_soup.findAll("a",{"class":"titulo titulo--bloque"})
для каждой страницы.
В этот момент у вас должны быть все ссылкии сможет начать на самом деле сбор данных с каждой страницы, реализация которой будет полностью вашей.
Я предлагаю использовать какое-то плоское хранилище данных для отслеживания собранных URL. Хранить все в памяти не рекомендуется, так как одно исключение нарушит весь ваш поток страниц в 500+ и заставит вас начать все сначала.
Кроме того, если это не ваш веб-сайт, рассмотрите юридические последствия того, что вы делаете.