Многопроцессорная обработка Python использует только одно ядро - PullRequest
11 голосов
/ 02 августа 2011

Я пробую фрагмент кода из стандартной документации Python , чтобы узнать, как использовать модуль многопроцессорной обработки. Код вставляется в конце этого сообщения. Я использую Python 2.7.1 в Ubuntu 11.04 на четырехъядерном компьютере (который, согласно системному монитору, дает восемь ядер из-за гиперпоточности)

Проблема: Кажется, что вся рабочая нагрузка запланирована только на одно ядро, которое почти на 100% загружено, несмотря на то, что запущено несколько процессов. Иногда вся рабочая нагрузка переносится на другое ядро, но рабочая нагрузка никогда не распределяется между ними.

Есть идеи, почему это так?

С уважением,

Пол

#
# Simple example which uses a pool of workers to carry out some tasks.
#
# Notice that the results will probably not come out of the output
# queue in the same in the same order as the corresponding tasks were
# put on the input queue.  If it is important to get the results back
# in the original order then consider using `Pool.map()` or
# `Pool.imap()` (which will save on the amount of code needed anyway).
#
# Copyright (c) 2006-2008, R Oudkerk
# All rights reserved.
#

import time
import random

from multiprocessing import Process, Queue, current_process, freeze_support

#
# Function run by worker processes
#

def worker(input, output):
    for func, args in iter(input.get, 'STOP'):
        result = calculate(func, args)
        output.put(result)

#
# Function used to calculate result
#

def calculate(func, args):
    result = func(*args)
    return '%s says that %s%s = %s' % \
        (current_process().name, func.__name__, args, result)

#
# Functions referenced by tasks
#

def mul(a, b):
    time.sleep(0.5*random.random())
    return a * b

def plus(a, b):
    time.sleep(0.5*random.random())
    return a + b


def test():
    NUMBER_OF_PROCESSES = 4
    TASKS1 = [(mul, (i, 7)) for i in range(500)]
    TASKS2 = [(plus, (i, 8)) for i in range(250)]

    # Create queues
    task_queue = Queue()
    done_queue = Queue()

    # Submit tasks
    for task in TASKS1:
        task_queue.put(task)

    # Start worker processes
    for i in range(NUMBER_OF_PROCESSES):
        Process(target=worker, args=(task_queue, done_queue)).start()

    # Get and print results
    print 'Unordered results:'
    for i in range(len(TASKS1)):
       print '\t', done_queue.get()

    # Add more tasks using `put()`
    for task in TASKS2:
        task_queue.put(task)

    # Get and print some more results
    for i in range(len(TASKS2)):
        print '\t', done_queue.get()

    # Tell child processes to stop
    for i in range(NUMBER_OF_PROCESSES):
        task_queue.put('STOP')

test()

Ответы [ 4 ]

2 голосов
/ 11 августа 2014

Попробуйте заменить time.sleep чем-то, что действительно требует процессоров, и вы увидите, что multiprocess работает просто отлично!Например:

def mul(a, b):
    for i in xrange(100000):
        j = i**2
    return a * b

def plus(a, b):
    for i in xrange(100000):
        j = i**2
    return a + b
2 голосов
/ 08 октября 2013

Как изменилась привязка процессора. У меня была эта проблема с NumPy раньше. Я нашел решение здесь http://bugs.python.org/issue17038#msg180663

0 голосов
/ 04 января 2014

Я нашел способ использования Parallel Python.Я знаю, что это не решение с использованием базовых библиотек Python, но код прост и работает как шарм

0 голосов
/ 02 августа 2011

многопроцессорность не означает, что вы будете использовать все ядра процессора, вы просто получите несколько процессов, а не многоядерные процессы, это будет обрабатываться ОС и неясно, вопрос @Devraj опубликовано в комментариях есть ответы, чтобы выполнить то, что вы хотите.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...