Простое решение. Экспортируйте все данные, чтобы превзойти в первую очередь. Затем создайте столбец, который будет иметь точные URL-адреса, необходимые для выполнения операторов curl для каждого документа (в Excel будут строки для каждого документа).
Простой оператор curl для загрузки изображения:
curl -v -X PUT "http://username:password@serverip:portno/dbname/doc_id/image.JPG?rev=revisionid" --data-binary @image.JPG -H "Content-Type:image/jpg"
После создания отдельных URL-адресов, необходимых для скручивания, что будет довольно просто в Excel, скопируйте весь столбец собранных URL-адресов в текстовый файл и поместите текстовый файл, где присутствуют загружаемые изображения. Затем создайте скрипт bash, который будет читать все строки и продолжать отправлять изображения на сервер couchdb:
скрипт bash
#!/bin/bash
while read line
do
curl -v -X PUT $line
done < test.txt
В моем случае все строки url присутствуют в файле test.txt.
Этот метод сработал для меня безупречно, размер изображений составлял около 60-65 Кб, хотя при 380 документах. Не уверен, что будет с большими файлами.