Выполнение «уникальных» заданий с сельдереем - PullRequest
45 голосов
/ 04 ноября 2010

Я использую сельдерей для обновления RSS-каналов на своем сайте агрегации новостей.Я использую один @task для каждого канала, и все, кажется, работает хорошо.

Есть деталь, с которой я не уверен, что буду хорошо обрабатывать: все каналы обновляются один раз каждую минуту с @periodic_task, но чтоесли лента все еще обновляется с последней периодической задачи при запуске новой?(например, если канал действительно медленный или находится в автономном режиме и задача удерживается в цикле повторов)

В настоящее время я сохраняю результаты задач и проверяю их состояние следующим образом:

import socket
from datetime import timedelta
from celery.decorators import task, periodic_task
from aggregator.models import Feed


_results = {}


@periodic_task(run_every=timedelta(minutes=1))
def fetch_articles():
    for feed in Feed.objects.all():
        if feed.pk in _results:
            if not _results[feed.pk].ready():
                # The task is not finished yet
                continue
        _results[feed.pk] = update_feed.delay(feed)


@task()
def update_feed(feed):
    try:
        feed.fetch_articles()
    except socket.error, exc:
        update_feed.retry(args=[feed], exc=exc)

Возможноесть более сложный / надежный способ достижения того же результата, используя какой-то механизм сельдерея, который я пропустил?

Ответы [ 5 ]

41 голосов
/ 06 октября 2011

Основываясь на ответе Мэтта, вы можете использовать декоратор, например:

def single_instance_task(timeout):
    def task_exc(func):
        @functools.wraps(func)
        def wrapper(*args, **kwargs):
            lock_id = "celery-single-instance-" + func.__name__
            acquire_lock = lambda: cache.add(lock_id, "true", timeout)
            release_lock = lambda: cache.delete(lock_id)
            if acquire_lock():
                try:
                    func(*args, **kwargs)
                finally:
                    release_lock()
        return wrapper
    return task_exc

тогда используйте это так ...

@periodic_task(run_every=timedelta(minutes=1))
@single_instance_task(60*10)
def fetch_articles()
    yada yada...
29 голосов
/ 04 ноября 2010
12 голосов
/ 30 октября 2015

Использование https://pypi.python.org/pypi/celery_once, кажется, делает работу очень хорошо, в том числе отчеты об ошибках и проверку некоторых параметров на уникальность.

Вы можете делать такие вещи, как:

from celery_once import QueueOnce
from myapp.celery import app
from time import sleep

@app.task(base=QueueOnce, once=dict(keys=('customer_id',)))
def start_billing(customer_id, year, month):
    sleep(30)
    return "Done!"

который просто нуждается в следующих настройках в вашем проекте:

ONCE_REDIS_URL = 'redis://localhost:6379/0'
ONCE_DEFAULT_TIMEOUT = 60 * 60  # remove lock after 1 hour in case it was stale
8 голосов
/ 21 октября 2013

Если вы ищете пример, в котором не используется Django, то попробуйте этот пример (предостережение: вместо этого используется Redis, который я уже использовал).

ДекораторКод выглядит следующим образом (полный кредит автору статьи, читайте его)

import redis

REDIS_CLIENT = redis.Redis()

def only_one(function=None, key="", timeout=None):
    """Enforce only one celery task at a time."""

    def _dec(run_func):
        """Decorator."""

        def _caller(*args, **kwargs):
            """Caller."""
            ret_value = None
            have_lock = False
            lock = REDIS_CLIENT.lock(key, timeout=timeout)
            try:
                have_lock = lock.acquire(blocking=False)
                if have_lock:
                    ret_value = run_func(*args, **kwargs)
            finally:
                if have_lock:
                    lock.release()

            return ret_value

        return _caller

    return _dec(function) if function is not None else _dec
0 голосов
/ 06 января 2014

Это решение для сельдерея, работающего на одном хосте с конкурентностью больше 1. Другие виды (без зависимостей, например, redis) блокировок различий на основе файлов не работают с параллелизмом больше 1.

class Lock(object):
    def __init__(self, filename):
        self.f = open(filename, 'w')

    def __enter__(self):
        try:
            flock(self.f.fileno(), LOCK_EX | LOCK_NB)
            return True
        except IOError:
            pass
        return False

    def __exit__(self, *args):
        self.f.close()


class SinglePeriodicTask(PeriodicTask):
    abstract = True
    run_every = timedelta(seconds=1)

    def __call__(self, *args, **kwargs):
        lock_filename = join('/tmp',
                             md5(self.name).hexdigest())
        with Lock(lock_filename) as is_locked:
            if is_locked:
                super(SinglePeriodicTask, self).__call__(*args, **kwargs)
            else:
                print 'already working'


class SearchTask(SinglePeriodicTask):
    restart_delay = timedelta(seconds=60)

    def run(self, *args, **kwargs):
        print self.name, 'start', datetime.now()
        sleep(5)
        print self.name, 'end', datetime.now()
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...