Ошибка: загрузить данные в Cosmosdb с помощью pydocumendb - PullRequest
0 голосов
/ 30 мая 2018

Я использую pydocumentdb для загрузки некоторых обработанных данных в CosmosDB в качестве документа в облаке Azure со скриптом Python.Файлы приходят из того же источника.Прием пищи хорошо работает с некоторыми файлами, но выдает следующую ошибку для файлов, размер которых превышает 1000 КБ:

 pydocumentdb.errors.HTTPFailure: Status code: 413
 "code":"RequestEntityTooLarge","message":"Message: {\"Errors\":[\"Request 
 size is too large\"]

Я использую SQL API, и вот как я создаю документ внутри коллекции:

client = document_client.DocumentClient(uri, {'masterKey': cosmos_key})
... I get the Db link and Collection link ...
Client.CreateDocument(collection_link, data)

Как я могу решить эту ошибку?

1 Ответ

0 голосов
/ 04 июня 2018

По моему опыту, для хранения данных или файлов большого размера в базе данных Azure Cosmos рекомендуется загружать данные в хранилище BLOB-объектов Azure или другие внешние хранилища и создавать вложения со ссылками или связанными метаданными в документе в Azure.Cosmos DB.

Вы можете обратиться к API REST для Вложения , чтобы узнать его и реализовать функцию, соответствующую вашим потребностям, используя методы PyDocument API include CreateAttachment, ReplaceAttachment, QueryAttachments и т. Д.

Надеюсь, это поможет.

...