Я хотел бы создать сценарий оболочки, который сможет копировать один файл размером 2 ГБ из одного AWS S3 Bucket в другое AWS S3 Bucket 100 раз параллельно.
#!/bin/bash
FILES="xxx.csv"
TABLES="table1 table2 table3 table4 table5"
SOURCE="s3://SourceBucket"
TARGET_PREFIX="s3://TargetBucket/"
echo "Uploading from $SOURCE"
for
table in $TABLES
do
echo "Table: $table"
for file in $FILES
do TARGET="$TARGET_PREFIX/$table/$TARGET_PART"
echo "Uploading $file to INGEST Bucket"
aws s3 cp $SOURCE/$file $TARGET --sse "AES256"
done
done