Вдобавок ко всему, я бы использовал HttpWebRequest, чтобы самому получить страницу и разобрать заголовок, а затем использовать дополнительные HttpWebRequest, чтобы получить любые изображения, на которые есть ссылки на странице.Хотя есть очень хороший шанс, что есть лучший способ сделать это, и кто-нибудь придет и скажет вам, что это такое.Если нет, то это выглядело бы примерно так:
HttpWebResponse response = null;
try
{
HttpWebRequest request = (HttpWebRequest)WebRequest.Create(<your URL here>);
response = (HttpWebResponse)request.GetResponse();
Stream responseStream = response.GetResponseStream();
StreamReader reader = new StreamReader(responseStream);
//use the StreamReader object to get the page data and parse out the title as well as
//getting locations of any images you need to get
catch
{
//handle exceptions
}
finally
{
if(response != null)
{
response.Close();
}
}
Возможно, глупый способ сделать это, но это мои 0,02 доллара.