appengine, python: есть ли утечка памяти в taskqueue.add ()? - PullRequest
6 голосов
/ 19 февраля 2012

В следующем коде добавляются задачи, выполняющие некоторую обработку файлов из хранилища BLOB-объектов; он запускается на бэкэнде B2 , поэтому не имеет ограничения по времени ожидания:

for task in tasks:
    tools.debug("add_tasks_to_process_files", "adding_task")

    taskqueue.add(\
            name=("Process_%s_files---%s--%s--%s--%s" % \
                        (len(tasks[task]), task[1], task[0], task[2], int(time.time()))),\
            queue_name="files-processor",\
            url="/analytics/process_files/",\
            params={"processing_task": json.dumps({"profile": task, "blobs_to_process": tasks[task]})})

tasks - словарьв следующей форме:

{
    (x1,y1,z1): ["blob_key", "blob_key"... (limited to 35 keys)],
    (x2,y2,z2): ["blob_key", "blob_key"...],
    .
    .
    .
}

x1, y1, z1 - все строки

tools.debug - это написанная мной функция, которая отправляет сообщения на локальный сервер с помощью urlfetch (поэтому я выиграл 'не нужно ждать 20 минут, чтобы прочитать журналы):

def debug(location, message, params=None, force=False):
    if not (settings.REMOTE_DEBUG or settings.LOCALE_DEBUG or force):
        return

    if params is None:
        params = {}

    params["memory"] = runtime.memory_usage().current()
    params["instance_id"] = settings.INSTANCE_ID

    debug_message = "%s/%s?%s" % (urllib2.quote(location), urllib2.quote(message), "&".join(["%s=%s" % (p, urllib2.quote(unicode(params[p]).encode("utf-8"))) for p in params]))

    if settings.REMOTE_DEBUG or force:
        fetch("%s/%s" % (settings.REMOTE_DEBUGGER, debug_message))

    if settings.LOCALE_DEBUG or force:
        logging.debug(debug_message)

, поскольку tools.debug не было в коде при первом сбое, я точно знаю, что это не причинапроблемы с памятью.

Я получил эту ошибку:

   /add_tasks_to_process_files/ 500 98812ms 0kb instance=0 AppEngine-Google; (+http://code.google.com/appengine):
    A serious problem was encountered with the process that handled this request, causing it to exit. This is likely to cause a new process to be used for the next request to your application. If you see this message frequently, you may have a memory leak in your application. (Error code 201)

И сразу после нее:

/_ah/stop 500 110ms 0kb
Exceeded soft private memory limit with 283.406 MB after servicing 1 requests total

снова, я получил его для кода выше без строки:tools.debug("add_tasks_to_process_files", "adding_task")

Теперь позвольте мне показать вам то, что я вижу в моем отладчике:

1 2012-1-19 14:41:38 [processors-backend] processors-backend-initiated instance_id: 1329662498, memory: 18.05078125, backend_instance_url: http://0.processors.razoss-dock-dev.appspot.com, backend_load_balancer_url: http://processors.razoss-dock-dev.appspot.com
2 2012-1-19 14:41:39 [AddTasksToProcessFiles] start instance_id: 1329662498, files_sent_to_processing_already_in_previous_failed_attempts: 0, memory: 19.3828125
3 2012-1-19 14:41:59 [AddTasksToProcessFiles] add_tasks_to_process_files-LOOP_END total_tasks_to_add: 9180, total_files_added_to_tasks: 9184, task_monitor.files_sent_to_processing: 0, total_files_on_tasks_dict: 9184, instance_id: 1329662498, memory: 56.52734375
4 2012-1-19 14:42:0 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.81640625
5 2012-1-19 14:42:0 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.81640625
6 2012-1-19 14:42:1 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.9375
7 2012-1-19 14:42:2 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.9375
8 2012-1-19 14:42:2 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 58.03125
.
.
.
2183 2012-1-19 14:53:45 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 280.66015625
2184 2012-1-19 14:53:45 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 280.66015625
2185 2012-1-19 14:53:45 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.0
2    186 2012-1-19 14:53:46 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.0
2187 2012-1-19 14:53:46 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.0
2188 2012-1-19 14:53:46 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.3828125

full trace: http://pastebin.com/CcPDU6s7

Есть ли утечка памяти в очереди задач.add ()?

Спасибо

1 Ответ

3 голосов
/ 19 февраля 2012

Хотя это не отвечает на ваш конкретный вопрос, вы пытались Queue добавлять задачи в пакетном режиме?

http://code.google.com/appengine/docs/python/taskqueue/queues.html#Queue_add

Вы можете добавить до 100 задач одновременно.

http://code.google.com/appengine/docs/python/taskqueue/overview-push.html#Quotas_and_Limits_for_Push_Queues

Непроверенный код.

queue = taskqueue.Queue(name="files-processor")
while tasks:
    queue.add(taskqueue.Task(...) for k,v in (tasks.popitem() for _ in range(min(len(tasks),100))))

Если вы все еще хотите использовать tasks в другом месте, вам придется немного изменить эту конструкцию (или сделатькопия).

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...