Вот ситуация. Я очищаю веб-сайт, чтобы получать данные из его статей, используя страницу роботов, предоставленную этим веб-сайтом (список URL-адресов, указывающих на каждую статью, размещенную на сайте). Пока что я выполняю слияние с базой данных, чтобы «вставить» URL-адреса в мою таблицу. Я знаю, что каждый цикл проверки займет много времени, потому что нужно проанализировать более 1400 статей. Мне нужно написать алгоритм, который будет одновременно выполнять только небольшую часть задач в cron, чтобы он не перегружал мой сервер и т. Д.
Edit: я думаю, я должен упомянуть, что я использую drupal 7. Кроме того, это должен быть постоянный скрипт, который происходит со временем, я не очень беспокоюсь о времени, которое требуется для первоначального заполнения базы , Страница роботов является динамической, URL-адреса добавляются туда периодически по мере добавления статей. В настоящее время я использую hook_cron () для этого, но я открыт для лучших методов, если есть что-то лучшее для этого.