Как я могу циклически выполнять запросы HTTP cURL и сохранять ответы API в отдельных добавленных текстовых файлах, спя 2 секунды между каждым вызовом API?
Сценарий ниже выводит 2 файла .txt -Первый (fandata.txt) содержит некоторые (не все) данные, которые, похоже, перезаписываются последним циклом.Второй (metadata.txt) выводит .txt с ошибкой, которая гласит:
Cannot GET /api/artist/
Я знаю, что это часто делается с библиотекой Python Requests, а не cURL, но документы API пишутся с помощью cURL.Кроме того, я хочу промочить ноги раковиной.
refreshtoken=$(REDACTED)
livetoken=${refreshtoken:10:225}
auth_header="Authorization: Bearer $livetoken"
auth_header="${auth_header}"
source="{facebook,instagram,soundcloud,wikipedia,twitter,youtube,bandsintown}"
dates="since=2017-10-31&until=2018-10-31"
metadata_url="https://api.chartmetric.io/api/artist/$artistid"
for (( artistid=1; artistid<=3; artistid+=1 )); do
metadata=$(curl -H "${auth_header}" -o metadata.txt "${metadata_url}")
sleep 2s
done >metadata.txt
echo "$metadata"
fanmetrics_url="https://api.chartmetric.io/api/artist/$artistid/stat/$source?$dates"
for (( artistid=1; artistid<=3; artistid+=1 )); do
fandata=$(curl -H "${auth_header}" -o fandata.txt "$fanmetrics_url")
sleep 2s
done >fandata.txt
echo "$fandata"