Я столкнулся с проблемой во время работы над проектом. Я хочу "сканировать" определенные сайты, представляющие интерес, и сохранять их как "полную веб-страницу", включая стили и изображения, чтобы создать для них зеркало. Несколько раз мне приходилось делать закладки на веб-сайт, чтобы прочитать его позже, и через несколько дней веб-сайт не работал, потому что он был взломан, и у владельца не было резервной копии базы данных.
Конечно, я могу очень легко читать файлы с помощью php с помощью fopen("http://website.com", "r")
или fsockopen()
, но основная цель - сохранить полные веб-страницы, поэтому в случае их отключения они все еще могут быть доступны другим, например "машина времени программирования":)
Есть ли способ сделать это без чтения и сохранения каждой ссылки на странице?
Решения Objective-C также приветствуются, так как я пытаюсь выяснить и другие.
Спасибо!