В моем хранилище BLOB-объектов есть один контейнер с около 200 КБ изображений. Я хочу написать скрипт на Python, который копирует партии из 20 КБ этих изображений в новые контейнеры, называемые что-то вроде imageset1, imageset2, ..., imageset20 (в последнем контейнере будет менее 20 000 изображений, и это нормально).
Пока у меня есть следующее:
from azure.storage.blob import BlockBlobService
from io import BytesIO from shutil
import copyfileobj
with BytesIO() as input_blob:
with BytesIO() as output_blob:
block_blob_service = BlockBlobService(account_name='my_account_name', account_key='my_account_key')
# Download as a stream
block_blob_service.get_blob_to_stream('mycontainer', 'myinputfilename', input_blob)
# Here is where I want to chunk up the container contents into batches of 20k
# Then I want to write the above to a set of new containers using, I think, something like this...
block_blob_service.create_blob_from_stream('mycontainer', 'myoutputfilename', output_blob)
Это разбивка содержимого контейнера и запись результатов в новые контейнеры, что я не знаю, как сделать. Кто-нибудь может помочь?