Я хочу получить несколько веб-страниц и суб-ссылки на те, которые защищены паролем. У меня есть имя пользователя и пароль, и я могу получить к ним доступ из обычного пользовательского интерфейса браузера. Но так как я хочу сохранить эти страницы на своем локальном диске для дальнейшего использования, я использую WGET для их получения:
wget --http-user=USER --http-password=PASS http://mywiki.mydomain.com/myproject
Но вышеприведенное не работает, так как снова запрашивает пароль. Есть ли лучший способ сделать это, не застревая в системе, запрашивая пароль снова. Кроме того, как лучше всего получить все ссылки и суб-ссылки на определенной странице и сохранить их в одной папке.
Обновление:
Фактическая страница, к которой я пытаюсь получить доступ, находится за шлюзом HTTPS, и сертификат для нее не проходит проверку. Есть ли способ пройти через это?
mysystem-dsktp ~ $ wget --http-user=USER --http-password=PASS https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
--2010-01-24 18:09:21-- https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
Resolving secure.site.mydomain.com... 124.123.23.12, 124.123.23.267, 124.123.102.191, ...
Connecting to secure.site.mydomain.com|124.123.23.12|:443... connected.
ERROR: cannot verify secure.site.mydomain.com's certificate, issued by `/C=US/O=Equifax/OU=Equifax Secure Certificate Authority':
Unable to locally verify the issuer's authority.
To connect to secure.site.mydomain.com insecurely, use `--no-check-certificate'.
Unable to establish SSL connection.
Я также попробовал опцию --no-check-Certificate, она не работает. Я получаю только страницу входа с этой опцией, а не саму страницу, которую я запрашивал.