Я пишу серверную программу с одним производителем и несколькими потребителями,
меня смущает только то, что в очередь попадает только первый производитель задач
потребляется, после чего поставленные в очередь задачи больше не расходуются, они остаются
в очереди навсегда.
from multiprocessing import Process, Queue, cpu_count
from http import httpserv
import time
def work(queue):
while True:
task = queue.get()
if task is None:
break
time.sleep(5)
print "task done:", task
queue.put(None)
class Manager:
def __init__(self):
self.queue = Queue()
self.NUMBER_OF_PROCESSES = cpu_count()
def start(self):
self.workers = [Process(target=work, args=(self.queue,))
for i in xrange(self.NUMBER_OF_PROCESSES)]
for w in self.workers:
w.start()
httpserv(self.queue)
def stop(self):
self.queue.put(None)
for i in range(self.NUMBER_OF_PROCESSES):
self.workers[i].join()
queue.close()
Manager().start()
Производитель - HTTP-сервер, который ставит задачу в очередь после получения.
запрос от пользователя. Кажется, что потребительские процессы все еще
блокируется при появлении новых задач в очереди, что странно.
P.S. Еще два вопроса, не относящиеся к вышесказанному, я не уверен, если
лучше поместить HTTP-сервер в отдельный процесс, чем основной
процесс, если да, как я могу заставить основной процесс продолжать работать до того, как все
дочерние процессы заканчиваются. Второй вопрос, каков наилучший способ остановить
HTTP-сервер изящно?
Редактировать : добавить код производителя, это просто простой сервер Python wsgi:
import fapws._evwsgi as evwsgi
from fapws import base
def httpserv(queue):
evwsgi.start("0.0.0.0", 8080)
evwsgi.set_base_module(base)
def request_1(environ, start_response):
start_response('200 OK', [('Content-Type','text/html')])
queue.put('task_1')
return ["request 1!"]
def request_2(environ, start_response):
start_response('200 OK', [('Content-Type','text/html')])
queue.put('task_2')
return ["request 2!!"]
evwsgi.wsgi_cb(("/request_1", request_1))
evwsgi.wsgi_cb(("/request_2", request_2))
evwsgi.run()