Я ищу общий процесс в PERL, похожий по концепции на mapreduce, в котором при заданном входном файле в perl у меня может быть #N (заданное пользователем число) различных файловых дескрипторов, которые считывают из разных частей файла.
Другими словами, вместо чтения файла через один дескриптор, я хотел бы читать его из #N разных блоков одновременно. Для этого в идеале я бы предпочел не делить файлы на #N разных суб-файлов. Было бы хорошо, если бы один файл мог быть прочитан из разных мест с помощью не мешающих файловых дескрипторов без какой-либо утечки данных.
Последующая цель - запустить задания типа #N mapper для данных, считываемых каждым дескриптором файла, а затем, как только все будет сделано, я использую вещь, похожую на редуктор, для объединения выходных данных каждого преобразователя.
Дайте мне знать, если это имеет смысл. Я просто думаю, что с некоторыми изменениями можно использовать многоядерную машину, которую мы имеем, на существующей базе кода. Может быть, что-то подобное уже есть.
Буду признателен за ваши комментарии.
Спасибо!
Абхи