Я не хочу совершать Holywar по любой причине, просто чтобы получить совет и продолжить развитие.
Мне нужно написать что-то вроде crawler,
он должен быть в состоянии извлечь некоторые данные из списка URL-адресов и проанализировать их.
Я собираюсь использовать Рубин ( Механизировать + Нокогири ) или Питон ( Механизировать + Beautifulsoup ).
Но для эффективности мне нужно выполнять параллельную обработку данных. Это большая проблема для меня сейчас.
Механизм (для обоих языков), насколько я знаю, не безопасен для потоков, также использование потоков не является "хорошей практикой", как говорят многие программисты. С другой стороны, я не имею ни малейшего представления о технике программирования, управляемой событиями, и о том, как ее можно использовать в моем случае.
Любая помощь приветствуется. Спасибо.