Есть ли способ ограничения количества данных, которые CURL будет получать? Я соскребаю данные со страницы размером 50 КБ, однако данные, которые мне нужны, находятся в верхней четверти страницы, поэтому мне нужно только извлечь первые 10 КБ страницы.
Я спрашиваю, потому что мне нужно следить за большим количеством данных, что приводит к тому, что я передаю около 60 ГБ данных в месяц, когда релевантно только около 5 ГБ этой полосы пропускания.
Я использую PHP для обработки данных, однако я гибок в подходе к извлечению данных, я могу использовать CURL, WGET, fopen и т. Д.
Один подход, который я рассматриваю, это
$fp = fopen("http://www.website.com","r");
fseek($fp,5000);
$data_to_parse = fread($fp,6000);
Означает ли вышеизложенное, что я буду передавать только 6 КБ с www.website.com или открою загрузку www.website.com в память, означая, что я все равно буду передавать полные 50 КБ?