Я пишу .NET-программу на C #, которая выполняет GET-запросы и загружает страницы для анализа - своего рода сканер.Я заметил, что он должен читать из потока несколько раз, чтобы загрузить каждую страницу, потому что каждая страница такая большая.
В настоящее время я установил размер буфера потока в 5024 байта.Мой вопрос: будет ли эффективнее увеличить этот размер и, следовательно, выполнять меньше потоковых чтений?Или лучше обрабатывать меньше данных за один раз, из которых можно выполнить синтаксический анализ?
По сути, иначе говоря - быстрее ли анализировать больше данных за один раз и нужно ли вызывать stream.read реже или наоборот??
Спасибо!