более быстрый способ загрузки нескольких файлов - PullRequest
8 голосов
/ 15 января 2012

Мне нужно скачать около 2 миллионов файлов с сайта SEC.Каждый файл имеет уникальный URL-адрес и в среднем 10 КБ.это моя текущая реализация:

    List<string> urls = new List<string>();
    // ... initialize urls ...
    WebBrowser browser = new WebBrowser();
    foreach (string url in urls)
    {
        browser.Navigate(url);
        while (browser.ReadyState != WebBrowserReadyState.Complete) Application.DoEvents();
        StreamReader sr = new StreamReader(browser.DocumentStream);
        StreamWriter sw = new StreamWriter(), url.Substring(url.LastIndexOf('/')));
        sw.Write(sr.ReadToEnd());
        sr.Close();
        sw.Close();
    }

прогнозируемое время составляет около 12 дней ... есть ли более быстрый путь?

Редактировать: Кстати, локальный файлобработка занимает всего 7% времени

Редактировать: это моя последняя реализация:

    void Main(void)
    {
        ServicePointManager.DefaultConnectionLimit = 10000;
        List<string> urls = new List<string>();
        // ... initialize urls ...
        int retries = urls.AsParallel().WithDegreeOfParallelism(8).Sum(arg => downloadFile(arg));
    }

    public int downloadFile(string url)
    {
        int retries = 0;

        retry:
        try
        {
            HttpWebRequest webrequest = (HttpWebRequest)WebRequest.Create(url);
            webrequest.Timeout = 10000;
            webrequest.ReadWriteTimeout = 10000;
            webrequest.Proxy = null;
            webrequest.KeepAlive = false;
            webresponse = (HttpWebResponse)webrequest.GetResponse();

            using (Stream sr = webrequest.GetResponse().GetResponseStream())
            using (FileStream sw = File.Create(url.Substring(url.LastIndexOf('/'))))
            {
                sr.CopyTo(sw);
            }
        }

        catch (Exception ee)
        {
            if (ee.Message != "The remote server returned an error: (404) Not Found." && ee.Message != "The remote server returned an error: (403) Forbidden.")
            {
                if (ee.Message.StartsWith("The operation has timed out") || ee.Message == "Unable to connect to the remote server" || ee.Message.StartsWith("The request was aborted: ") || ee.Message.StartsWith("Unable to read data from the trans­port con­nec­tion: ") || ee.Message == "The remote server returned an error: (408) Request Timeout.") retries++;
                else MessageBox.Show(ee.Message, "Error", MessageBoxButtons.OK, MessageBoxIcon.Error);
                goto retry;
            }
        }

        return retries;
    }

Ответы [ 3 ]

12 голосов
/ 15 января 2012

Выполните загрузки одновременно, а не последовательно, и установите разумный MaxDegreeOfParallelism, в противном случае вы попытаетесь сделать слишком много одновременных запросов, которые будут выглядеть как атака DOS:

    public static void Main(string[] args)
    {
        var urls = new List<string>();
        Parallel.ForEach(
            urls, 
            new ParallelOptions{MaxDegreeOfParallelism = 10},
            DownloadFile);
    }

    public static void DownloadFile(string url)
    {
        using(var sr = new StreamReader(HttpWebRequest.Create(url).GetResponse().GetResponseStream()))
        using(var sw = new StreamWriter(url.Substring(url.LastIndexOf('/'))))
        {
            sw.Write(sr.ReadToEnd());
        }
    }
7 голосов
/ 15 января 2012

Загрузка файлов в несколько потоков.Количество потоков зависит от вашей пропускной способности.Также обратите внимание на классы WebClient и HttpWebRequest.Простой образец:

var list = new[] 
{ 
    "http://google.com", 
    "http://yahoo.com", 
    "http://stackoverflow.com" 
}; 

var tasks = Parallel.ForEach(list,
        s =>
        {
            using (var client = new WebClient())
            {
                Console.WriteLine($"starting to download {s}");
                string result = client.DownloadString((string)s);
                Console.WriteLine($"finished downloading {s}");
            }
        });
6 голосов
/ 15 января 2012

Я бы использовал несколько потоков параллельно, с WebClient. Я рекомендую установить максимальную степень параллелизма равной количеству потоков, которое вы хотите, поскольку неопределенная степень параллелизма не подходит для задач, выполняющихся долго. Я использовал 50 параллельных загрузок в одном из моих проектов без проблем, но в зависимости от скорости отдельной загрузки может быть достаточно намного меньше.

Если вы загружаете несколько файлов параллельно с одного и того же сервера, вы по умолчанию ограничены небольшим числом (2 или 4) параллельных загрузок. В то время как стандарт http устанавливает такой низкий предел, многие серверы не применяют его. Используйте ServicePointManager.DefaultConnectionLimit = 10000; для увеличения лимита.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...