Я использую экземпляры c.large, и скорость на практике составляет от до .74 Гигабит / с, например загрузка из сегментов S3, составляет около .45 Мбит / с, что на порядок меньше, чемэто номинальное значение (для узла c4.xlarge)
Я предлагаю разделить ваши данные на пакеты по 1 ГБ и использовать следующий скрипт для загрузки их в выбранный вами вариант подключенного хранилища.
for i in {part001..part100}
do
echo " $i Download"
fnam=$i.csv.bz2
wget -O /tmp/data/$fnam http://address/to/the/data/$fnam
echo "$(date) $i Unzip"
bunzip2 /tmp/data/$fnam
done