Мне нужно загрузить из банка данных более 100 000 документов, используя этот сценарий:
#!/usr/bin/bash
IFS=$'\n'
set -f
for line in $(cat < "$1")
do
wget https://www.uniprot.org/uniprot/${line}.txt
done
Первый раз, когда за неделю загрузились все файлы (все по 8 КБ), поэтому я попытался открыть несколько терминалов и выполнение разделения total.txt (10 равных разделений по 10000 файлов в 10 терминалах), и всего за 14 часов у меня были загружены все документы, есть ли способ сделать скрипт для меня?
это пример того, как выглядит список:
D7E6X7
A0A1L9C3F2
A3K3R8
W0K0I7