Я пытался извлечь огромные порции данных из БД только для того, чтобы проанализировать и отделить их и записать в CSV-файлы, используя python. Данные довольно большие, и поэтому я решил поместить их во временный файл, в котором я бы выделил их и создал из них несколько CSV-файлов (я думал, что обработка такого большого количества данных будет утомительной для python, и именно поэтому этот дамп ). В настоящее время только запись данных во этот временный файл превышает временные ограничения, и я не могу даже начать с сегрегации. Я новичок здесь, предложите мне правильный способ go для этого. Я также могу попробовать разделить сразу после извлечения и сразу записать его в csvs, так что, если есть какой-то совет по этому поводу, он может работать хорошо для меня. Большая часть времени уходит на запись данных в файл EDIT. означает, что я должен разделять каждую запись на основе значения одного столбца, который извлекается с каждой записью.
cur = con.cursor()
file = open("Data_for_2_Days.text","w+")
print("Starting execution of query")
currentTime = datetime.datetime.now()
print("timestamp at the start of execution of query = ")
print(currentTime)
result = cur.execute(query)
print("query executed")
currentTime = datetime.datetime.now()
print("time after execution = ")
print(currentTime)
print("beginning to write")
currentTime = datetime.datetime.now()
for item in result:
file.write(str(item))
print("finished writing")
currentTime = datetime.datetime.now()
print("time after writing = ")
print(currentTime)
file.close