У меня есть несколько больших данных (от 3 до 10 ГБ) как вектор символов.
Я использую parallel_for для расчета данных, и это действительно быстро ...
Теперь я хочу знать, возможно ли использовать parallel_for
для произвольной записи векторного массива в файл на диске? Если да, как я могу это сделать?
Я уже нашел эту статью https://www.drdobbs.com/parallel/multithreaded-file-io/220300055?pgno=1
Следовательно, я построил небольшой набор тестов, который выполняет следующие действия:
Read a single file sequentially
Read multiple files sequentially
Read from a single file at random positions
Read from multiple files at random positions
Write a single file sequentially
Write multiple files sequentially
Write to a single file at random positions
Write to multiple files at random positions
Но в исходный код включено только чтение.