При обмене ссылками на крупных сайтах, таких как Digg и Facebook;это создаст миниатюры, захватив основные изображения страницы.Как они ловят изображения с веб-страницы?Включает ли это загрузку всей страницы (например, с помощью cURL) и ее разбор (например, с помощью preg_match)?Для меня этот метод медленный и ненадежный.Есть ли у них более практичный метод?
PS Я думаю, что должен быть практичный метод для быстрого сканирования страницы путем пропуска некоторых частей (например, CSS и JS) для достижения атрибутов src.Есть идеи?