Я работаю с большим набором последовательных данных, длина которых может отличаться.
В настоящее время используется pd.read_csv(series_file, skiprows=..., nrows=...)
, и он работает с небольшими наборами данных, но сходит с ума, когда аргумент skiprows становится больше.
Существуют ли способы работы с большими данными и отслеживания предыдущего сеанса поиска csv? Использование chunksize кажется хорошим решением, но оно не работает с данными другого размера.