Я пытаюсь разбить файл на более мелкие куски +/- 300 килобайт на кусочек.
Это довольно медленно для файла размером 300 мегабайт (+/- 1000 штук)
Я пока не использую потоки, я не уверен, что это заставит его работать быстрее
cs = 1
pieces = 1000
# Open the file
f = open(self.file, 'rb')
result = {}
while cs <= pieces:
#Filename
filename = str(cs).zfill(5) + '.split'
# Generate temporary filename
tfile = filename
# Open the temporary file
w = open(tfile, 'wb')
# Read the first split
tdata = f.read(maxsize)
# Write the data
w.write(tdata)
# Close the file
w.close()
# Get the hash of this chunk
result[filename] = self.__md5(tfile)
cs += 1
Это функция md5:
def __md5(self, f, block_size=2**20):
f = open(f, 'rb')
md5 = hashlib.md5()
while True:
data = f.read(block_size)
if not data:
break
md5.update(data)
return md5.hexdigest()
Так есть ли способ ускорить процесс?