Работа в веб-поиске с помощью Python 3. У меня есть список URL-адресов, каждый URL-адрес содержит более 100 URL-адресов статей (включая нумерацию страниц).
Добавлен скрипт в lambda. Во-первых, он читает URL-адреса из CSV-файла и отправляет каждый основной URL-адрес в функцию, где выбираются все href каждой статьи.
все вышеописанные процессы работают нормально.
проблема в том, что, как мы знаем, lambda имеетвремя из 15 минут, поэтому нам нужно повторить то же самое с конечной точкой, где номер страницы URL и оставшийся URL.
CSV-файл считывается пандами и преобразуется в каталог. выберите объект из словаря и перейдите к функции с регулярным выражением страницы, количеством страниц для удаления (разбиение на страницы).
можем ли мы сохранить текущую страницу и оставшиеся URL-адреса в локальной папке в lambda и renunто же самое, если так, как мы можем сделать то же самое.