Мой проект требует от меня проверки большого количества веб-адресов. Эти URL были захвачены очень ненадежным процессом, который я не контролирую. Все URL-адреса уже были проверены регулярным выражением и, как известно, хорошо сформированы. Я также знаю, что все они имеют действительные ДВУ
Я хочу иметь возможность быстро фильтровать эти URL-адреса, чтобы определить, какие из них являются неправильными. На данный момент мне все равно, какой контент находится на страницах - я просто хотел бы как можно быстрее узнать, какие страницы недоступны (например, выдать ошибку 404).
Учитывая, что их много, я не хочу загружать всю страницу, а только заголовок HTTP, а затем сделать правильное предположение на основе содержимого заголовка, существует ли эта страница.
Можно ли это сделать?