Тупик в ThreadPool - PullRequest
       76

Тупик в ThreadPool

13 голосов
/ 17 сентября 2008

Я не смог найти достойную реализацию ThreadPool для Ruby, поэтому я написал свою (частично основываясь на коде отсюда: http://web.archive.org/web/20081204101031/http://snippets.dzone.com:80/posts/show/3276, но изменил на wait / signal и другую реализацию для завершения работы ThreadPool. Однако после некоторых во время выполнения (имея 100 потоков и обрабатывая около 1300 задач), он умирает с тупиком в строке 25 - он ждет новой работы там. Любые идеи, почему это может произойти?

require 'thread'
begin
  require 'fastthread'
rescue LoadError
  $stderr.puts "Using the ruby-core thread implementation"
end 

class ThreadPool
  class Worker
    def initialize(callback)
      @mutex = Mutex.new
      @cv = ConditionVariable.new
      @callback = callback
      @mutex.synchronize {@running = true}
      @thread = Thread.new do
        while @mutex.synchronize {@running}
          block = get_block
          if block
            block.call
            reset_block
            # Signal the ThreadPool that this worker is ready for another job
            @callback.signal
          else
            # Wait for a new job
            @mutex.synchronize {@cv.wait(@mutex)} # <=== Is this line 25?
          end
        end
      end
    end

    def name
      @thread.inspect
    end

    def get_block
      @mutex.synchronize {@block}
    end

    def set_block(block)
      @mutex.synchronize do
        raise RuntimeError, "Thread already busy." if @block
        @block = block
        # Signal the thread in this class, that there's a job to be done
        @cv.signal
      end
    end

    def reset_block
      @mutex.synchronize {@block = nil}
    end

    def busy?
      @mutex.synchronize {!@block.nil?}
    end

    def stop
      @mutex.synchronize {@running = false}
      # Signal the thread not to wait for a new job
      @cv.signal
      @thread.join
    end
  end

  attr_accessor :max_size

  def initialize(max_size = 10)
    @max_size = max_size
    @workers = []
    @mutex = Mutex.new
    @cv = ConditionVariable.new
  end

  def size
    @mutex.synchronize {@workers.size}
  end

  def busy?
    @mutex.synchronize {@workers.any? {|w| w.busy?}}
  end

  def shutdown
    @mutex.synchronize {@workers.each {|w| w.stop}}
  end
  alias :join :shutdown

  def process(block=nil,&blk)
    block = blk if block_given?
    while true
      @mutex.synchronize do
         worker = get_worker 
         if worker
           return worker.set_block(block)
         else
           # Wait for a free worker
           @cv.wait(@mutex)
         end
      end
    end
  end

  # Used by workers to report ready status
  def signal
    @cv.signal
  end

  private
  def get_worker
    free_worker || create_worker
  end

  def free_worker
    @workers.each {|w| return w unless w.busy?}; nil
  end

  def create_worker
    return nil if @workers.size >= @max_size
    worker = Worker.new(self)
    @workers << worker
    worker
  end
end

Ответы [ 5 ]

10 голосов
/ 17 сентября 2008

Хорошо, поэтому основная проблема с реализацией заключается в следующем: как убедиться, что ни один сигнал не потерян, и избежать мертвых блокировок?

По моему опыту, это ДЕЙСТВИТЕЛЬНО трудно достичь с помощью условных переменных и мьютекса, но легко с семафорами. Бывает, что ruby ​​реализует объект с именем Queue (или SizedQueue), который должен решить проблему. Вот моя предложенная реализация:

require 'thread'
begin
  require 'fasttread'
rescue LoadError
  $stderr.puts "Using the ruby-core thread implementation"
end

class ThreadPool
  class Worker
    def initialize(thread_queue)
      @mutex = Mutex.new
      @cv = ConditionVariable.new
      @queue = thread_queue
      @running = true
      @thread = Thread.new do
        @mutex.synchronize do
          while @running
            @cv.wait(@mutex)
            block = get_block
            if block
              @mutex.unlock
              block.call
              @mutex.lock
              reset_block
            end
            @queue << self
          end
        end
      end
    end

    def name
      @thread.inspect
    end

    def get_block
      @block
    end

    def set_block(block)
      @mutex.synchronize do
        raise RuntimeError, "Thread already busy." if @block
        @block = block
        # Signal the thread in this class, that there's a job to be done
        @cv.signal
      end
    end

    def reset_block
      @block = nil
    end

    def busy?
      @mutex.synchronize { !@block.nil? }
    end

    def stop
      @mutex.synchronize do
        @running = false
        @cv.signal
      end
      @thread.join
    end
  end

  attr_accessor :max_size

  def initialize(max_size = 10)
    @max_size = max_size
    @queue = Queue.new
    @workers = []
  end

  def size
    @workers.size
  end

  def busy?
    @queue.size < @workers.size
  end

  def shutdown
    @workers.each { |w| w.stop }
    @workers = []
  end

  alias :join :shutdown

  def process(block=nil,&blk)
    block = blk if block_given?
    worker = get_worker
    worker.set_block(block)
  end

  private

  def get_worker
    if !@queue.empty? or @workers.size == @max_size
      return @queue.pop
    else
      worker = Worker.new(@queue)
      @workers << worker
      worker
    end
  end

end

А вот простой тестовый код:

tp = ThreadPool.new 500
(1..1000).each { |i| tp.process { (2..10).inject(1) { |memo,val| sleep(0.1); memo*val }; print "Computation #{i} done. Nb of tasks: #{tp.size}\n" } }
tp.shutdown
8 голосов
/ 14 января 2010

Вы можете попробовать гем work_queue , предназначенный для координации работы между производителем и пулом рабочих потоков.

1 голос
/ 09 августа 2018

Код верхнего комментатора очень сильно помог за эти годы. Здесь он обновлен для ruby ​​2.x и улучшен с идентификацией потока. Как это улучшение? Когда у каждого потока есть идентификатор, вы можете составить ThreadPool с массивом, в котором хранится произвольная информация. Некоторые идеи:

  • Нет массива: типичное использование ThreadPool. Даже с GIL это упрощает многопоточность и очень полезно для приложений с высокой задержкой, таких как сканирование большого объема,
  • ThreadPool и массив, рассчитанный на количество процессоров: простое разветвление процессов для использования всеми процессорами,
  • ThreadPool и Array, размер которых соответствует числу ресурсов: например, каждый элемент массива представляет один процессор в пуле экземпляров, поэтому, если у вас есть 10 экземпляров, каждый с 4 ЦП, TP может управлять работой в 40 подпроцессах.

С этими двумя последними, вместо того, чтобы думать о выполняющих работу потоках, подумайте о том, как ThreadPool управляет подпроцессами, которые выполняют эту работу. Задача управления является легкой и в сочетании с подпроцессами, которые заботятся о GIL.

С помощью этого класса вы можете кодировать MapReduce на основе кластера примерно в сотню строк кода! Этот код очень короток, хотя может показаться немного изумительным, чтобы полностью прогуляться. Надеюсь, это поможет.

# Usage:
#
#   Thread.abort_on_exception = true # help localize errors while debugging
#   pool = ThreadPool.new(thread_pool_size)
#   50.times {|i|
#     pool.process { ... }
#     or
#     pool.process {|id| ... } # worker identifies itself as id
#   }
#   pool.shutdown()

class ThreadPool

  require 'thread'

  class ThreadPoolWorker

    attr_accessor :id

    def initialize(thread_queue, id)
      @id = id # worker id is exposed thru tp.process {|id| ... }
      @mutex = Mutex.new
      @cv = ConditionVariable.new
      @idle_queue = thread_queue
      @running = true
      @block = nil
      @thread = Thread.new {
        @mutex.synchronize {
          while @running
            @cv.wait(@mutex) # block until there is work to do
            if @block
              @mutex.unlock
              begin
                @block.call(@id)
              ensure
                @mutex.lock
              end
              @block = nil
            end
            @idle_queue << self
          end
        }
      }
    end

    def set_block(block)
      @mutex.synchronize {
        raise RuntimeError, "Thread is busy." if @block
        @block = block
        @cv.signal # notify thread in this class, there is work to be done
      }
    end

    def busy?
      @mutex.synchronize { ! @block.nil? }
    end

    def stop
      @mutex.synchronize {
        @running = false
        @cv.signal
      }
      @thread.join
    end

    def name
      @thread.inspect
    end
  end


  attr_accessor :max_size, :queue

  def initialize(max_size = 10)
    @process_mutex = Mutex.new
    @max_size = max_size
    @queue = Queue.new # of idle workers
    @workers = []      # array to hold workers

    # construct workers
    @max_size.times {|i| @workers << ThreadPoolWorker.new(@queue, i) }

    # queue up workers (workers in queue are idle and available to
    # work).  queue blocks if no workers are available.
    @max_size.times {|i| @queue << @workers[i] }

    sleep 1 # important to give threads a chance to initialize
  end

  def size
    @workers.size
  end

  def idle
    @queue.size
  end

  # are any threads idle

  def busy?
    # @queue.size < @workers.size
    @queue.size == 0 && @workers.size == @max_size
  end

  # block until all threads finish

  def shutdown
    @workers.each {|w| w.stop }
    @workers = []
  end

  alias :join :shutdown

  def process(block = nil, &blk)
    @process_mutex.synchronize {
      block = blk if block_given?
      worker = @queue.pop # assign to next worker; block until one is ready
      worker.set_block(block) # give code block to worker and tell it to start
    }
  end


end
1 голос
/ 17 сентября 2008

Хорошо, проблема, кажется, в вашем методе сигнала ThreadPool #. Что может случиться так:

1 - все ваши работники заняты, и вы пытаетесь обработать новую работу

2 - строка 90 получает ноль работников

3 - рабочий освобождается и сигнализирует об этом, но сигнал теряется, поскольку ThreadPool его не ждет

4 - вы попадаете на линию 95, ожидая, хотя есть свободный работник.

Ошибка здесь в том, что вы можете подать сигнал свободному работнику, даже когда никто не слушает. Этот метод сигнала ThreadPool # должен быть:

def signal
     @mutex.synchronize { @cv.signal }
end

И проблема та же в объекте Worker. Что может случиться так:

1 - работник только что завершил работу

2 - Он проверяет (строка 17), есть ли ожидание работы: нет

3 - Пул потоков отправляет новое задание и сигнализирует об этом ... но сигнал теряется

4 - работник ожидает сигнала, даже если он помечен как занятый

Вы должны указать метод инициализации следующим образом:

def initialize(callback)
  @mutex = Mutex.new
  @cv = ConditionVariable.new
  @callback = callback
  @mutex.synchronize {@running = true}
  @thread = Thread.new do
    @mutex.synchronize do
      while @running
        block = get_block
        if block
          @mutex.unlock
          block.call
          @mutex.lock
          reset_block
          # Signal the ThreadPool that this worker is ready for another job
          @callback.signal
        else
          # Wait for a new job
          @cv.wait(@mutex)
        end
      end
    end
  end
end

Затем методы Worker # get_block и Worker # reset_block больше не должны синхронизироваться. Таким образом, вы не можете назначить блок работнику между тестом блока и ожиданием сигнала.

1 голос
/ 17 сентября 2008

Здесь я немного предвзят, но я бы посоветовал смоделировать это на каком-то языке процесса, а модель проверить. Свободно доступными инструментами являются, например, набор инструментов mCRL2 (использующий язык на основе ACP), Mobility Workbench (pi-calculus) и Spin (PROMELA).

В противном случае я бы предложил удалить каждый бит кода, который не является существенным для проблемы, и найти минимальный случай, когда возникает тупик. Я сомневаюсь, что именно 100 потоков и 1300 задач необходимы для того, чтобы зайти в тупик. В меньшем случае вы, вероятно, можете просто добавить отладочные отпечатки, которые предоставляют достаточно информации для решения проблемы.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...