Я хочу иметь возможность разбить несколько больших файлов JSON в хранилище больших двоичных объектов (~ 1 ГБ каждый) на отдельные файлы (один файл на запись)
Я попытался использовать get_blob_to_stream из пакета Azure Python SDK, но япоявляется следующая ошибка:
AzureHttpError: Серверу не удалось аутентифицировать запрос.Убедитесь, что значение заголовка Авторизация сформировано правильно, включая подпись.
Чтобы проверить, я только что печатал текст, который был загружен из BLOB-объекта, и еще не пытался написать обратнок отдельным файлам JSON
with BytesIO() as document:
block_blob_service = BlockBlobService(account_name=STORAGE_ACCOUNT_NAME, account_key=STORAGE_ACCOUNT_KEY)
block_blob_service.get_blob_to_stream(container_name=CONTAINER_NAME, blob_name=BLOB_ID, stream=document)
print(document.getvalue())
Интересно, что когда я ограничиваю размер загружаемой информации BLOB-объекта, сообщение об ошибке не появляется, и я могу получить некоторую информацию:
with BytesIO() as document:
block_blob_service = BlockBlobService(account_name=STORAGE_ACCOUNT_NAME, account_key=STORAGE_ACCOUNT_KEY)
block_blob_service.get_blob_to_stream(container_name=CONTAINER_NAME, blob_name=BLOB_ID, stream=document, start_range=0, end_range=100000)
print(document.getvalue())
Кто-нибудь знает, что здесь происходит, или есть более эффективные подходы к разделению большого JSON?
Спасибо!