Привет! У меня есть файл с приблизительно 6M значениями, разделенными запятыми, в одной строке
Я пытаюсь
import pandas as pd
v = pd.read_csv(file_name,
nrows=1, skiprows=3, header=None, verbose=True, dtype=np.float32)
с файлом
Name
Tue Nov 6 13:52:15 2018
Description
52.2269,52.2148,52.246,52.361,52.5263,52.7399,52.9738,53.1952,...45.4,
Я получаю вывод
Токенизация заняла: 0,00 мс
Преобразование типа заняло: 53023,43 мс
Очистка памяти анализатора заняла: 212,13 мс
В сводных шоу
1 rows × 6316057 columns
Время чтения файла занимает намного больше времени, чем ожидалось, я думаю, это может быть связано с тем, что данные находятся в одной строке. Могу ли я что-нибудь сделать, чтобы ускорить его, или мне нужна другая библиотека?