Одновременная запись в огромное количество больших двоичных объектов с одного клиента с высокой пропускной способностью в хранилище Azure - PullRequest
0 голосов
/ 08 ноября 2018

У меня есть сценарий, в котором один клиент записывает данные в тысячи AppendBlob в AzureStorage. Я пытаюсь оптимизировать эту запись для высокой пропускной способности, но постоянно терпит неудачу. Я не хочу делать дозирование. Я не хочу писать меньше файлов. У меня есть конкретный сценарий, в котором каждое «сообщение» должно быть записано в конкретный BLOB-объект, а ключи исчисляются тысячами. Как добиться в одном клиенте лучшей пропускной способности? Я попытался поднять DefaultLimitConnection на машине, я попробовал один CloudBlobClient, совместно используемый потоками, перепробовал много CloudBlobClient для каждого потока, пробовал поток для ключа, пробовал постоянные номера потоков (каждый поток записывает несколько ключей), но ничего не работает с высокой пропускной способностью. Что я могу достичь, это что-то около 100-200 ключей в секунду. (каждая запись занимает около 20-30 мс) У кого-нибудь есть идеи, как добиться здесь максимальной пропускной способности?

...