Ubuntu: как массово скачать поле с нескольких сайтов? - PullRequest
0 голосов
/ 14 января 2011

У меня есть разрешение на это.

У меня есть веб-сайт с 250 страницами, с которого мне нужно загрузить «описания продуктов» и «изображения продуктов».Как мне это сделать?Я хотел бы вывести данные в CSV, чтобы я мог поместить их в таблицу БД.Может ли кто-нибудь указать мне хороший учебник, чтобы начать это?Я должен использовать cURL, верно?

Пока что я получил это с другой страницы stackoverflow, Как перенести вывод wget в файл или БД? :

curl somesite.com | grep sed etc | sed -e '/^(.*)/INSERT tableName (columnName) VALUES (\1)/' |psql dbname

И я создал этокоторый отстой, чтобы получить изображения:

#!/bin/bash

lynx --source "www.site.com"|cut -d\" -f8|grep jpg|while read image
do
wget "www.site.com/$image"
done

, просмотрев это видео: http://www.youtube.com/watch?v=dMXzoHTTvi0.

1 Ответ

1 голос
/ 14 января 2011

Вы хотите сделать то, что называется скремблированием экрана.

Вот несколько ссылок для начала:

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...