100 000 строк звучат не слишком много.
Это зависит от вашей бизнес-логики, но если это какое-то преобразование данных, вы можете рассмотреть возможность использования пакета служб SSIS (с точки зрения MS SQL Server, в других СУБД есть другие инструменты) для импорта ваших данных.
Вы также можете воспользоваться преимуществами параллелизма, скажем, иметь несколько потоков (или даже виртуальных машин), работающих на вас: просто разбейте файл на части и обработайте все разделы одновременно. Даже реализация простого алгоритма отображения / уменьшения может помочь.
В любом случае, сделайте некоторое измерение производительности, вы действительно хотите знать, ПОЧЕМУ ваша обработка данных настолько медленная. Возможно, что-то в вашем коде может быть оптимизировано много.
100 000 строк в час смехотворно медленны, там происходит что-то не так (если у вас нет тяжелой и сверхсложной бизнес-логики, которую вам нужно выполнять в каждом ряду, конечно)