В настоящее время я использую v2 приложения-функции Azure.Я установил 64-битную среду и собираю .Net Standard 2.0.Хост Json указывает версию 2.
Я читаю в .csv, и он отлично работает для небольших файлов.Но когда я читаю 180 МБ .csv в Список строк [], при чтении он увеличивается до более чем ГБ, а когда я пытаюсь его проанализировать, он превышает 2 ГБ, но затем выдает исключение «Недостаточно памяти».Даже выполнение плана обслуживания приложений с более чем 3,5 ГБ не решило проблему.
Редактировать: я использую это:
Uri blobUri = AppendSasOnUri(blobName); _webClient = new WebClient();
Stream sourceStream = _webClient.OpenRead(blobUri);
_reader = new StreamReader(sourceStream);
Однако, поскольку это CSV, я разделяю целые столбцы данных.От этого довольно трудно уйти:
internal async Task<List<string[]>> ReadCsvAsync() {
while (!_reader.EndOfStream) {
string[] currentCsvRow = await ReadCsvRowAsync();
_fullBlobCsv.Add(currentCsvRow);
}
return _fullBlobCsv; }
Цель состоит в том, чтобы сохранить json в blob, когда все сказали и сделали.