У меня 6 800M CSV-файлов, но в jupyter мне потребовались десятки минут, чтобы прочитать 6 CSV-файлов с пандами.Есть ли способ улучшить скорость чтения?В нем более десятка столбцов и более 50 миллионов строк.
green_taxi1=pd.DataFrame(pd.read_csv('C:/Users/24829/Documents/Datasets/黄色出租车月度指标/yellow_tripdata_2017-01.csv',header=0,usecols=[1,3,4,9],engine='python'))
green_taxi2=pd.DataFrame(pd.read_csv('C:/Users/24829/Documents/Datasets/黄色出租车月度指标/yellow_tripdata_2017-02.csv',header=0,usecols=[1,3,4,9],engine='python'))
green_taxi3=pd.DataFrame(pd.read_csv('C:/Users/24829/Documents/Datasets/黄色出租车月度指标/yellow_tripdata_2017-03.csv',header=0,usecols=[1,3,4,9],engine='python'))
green_taxi4=pd.DataFrame(pd.read_csv('C:/Users/24829/Documents/Datasets/黄色出租车月度指标/yellow_tripdata_2017-04.csv',header=0,usecols=[1,3,4,9],engine='python'))
green_taxi5=pd.DataFrame(pd.read_csv('C:/Users/24829/Documents/Datasets/黄色出租车月度指标/yellow_tripdata_2017-05.csv',header=0,usecols=[1,3,4,9],engine='python'))
green_taxi6=pd.DataFrame(pd.read_csv('C:/Users/24829/Documents/Datasets/黄色出租车月度指标/yellow_tripdata_2017-06.csv',header=0,usecols=[1,3,4,9],engine='python'))
Данные с этого сайта предоставляются желтым такси с января по июнь 2017 года. http://www.nyc.gov/html/tlc/html/about/trip_record_data.shtml
Вот несколько примеров данных в файле CSV
