У меня есть сценарий, в котором один клиент записывает данные в тысячи AppendBlob в AzureStorage. Я пытаюсь оптимизировать эту запись для высокой пропускной способности, но постоянно терпит неудачу.
Я не хочу делать дозирование. Я не хочу писать меньше файлов. У меня есть конкретный сценарий, в котором каждое «сообщение» должно быть записано в конкретный BLOB-объект, а ключи исчисляются тысячами.
Как добиться в одном клиенте лучшей пропускной способности?
Я попытался поднять DefaultLimitConnection на машине, я попробовал один CloudBlobClient, совместно используемый потоками, перепробовал много CloudBlobClient для каждого потока, пробовал поток для ключа, пробовал постоянные номера потоков (каждый поток записывает несколько ключей), но ничего не работает с высокой пропускной способностью. Что я могу достичь, это что-то около 100-200 ключей в секунду. (каждая запись занимает около 20-30 мс)
У кого-нибудь есть идеи, как добиться здесь максимальной пропускной способности?