В прошлом мы обнаружили, что каждый xsmall может загружать 40 Мбит / с из S3, и, таким образом, маленький может загружать 2x. Итак, это наше базовое ожидание скорости загрузки.
Что может законно замедлить копирование, так это если вы копируете с root корзины s3://buck_name/
, но в этом каталоге находятся миллионы файлов, только с одним новым 100-байтовым файлом. Но я подозреваю, что это также не так.
Следующее, что может случиться, это сбой выполнения части запроса, которая в профиле будет иметь несколько вкладок этапа профиля, таких как 1 \ 1001 \ 2002
, которые увеличивают на этапе в тысячах, указывающих на то, что запрос не был выполнен и что он был повторен. Иногда это может быть связано с повреждением хранилища, а иногда из-за сбоя нового времени выполнения текущего выпуска, и повторные попытки могут выполняться на более старых выпусках, чтобы увидеть, удастся ли это. Но часто есть некоторые подсказки к этому: со временем мы видим, что «разлив во внутреннее / внешнее хранилище» - это то, что мы видели при возникновении ошибок.
Но на самом деле, если все кажется «действительно» странным, я откроет билет поддержки и попросит объяснить, что происходит. С обычным, это то, что я вижу, вот почему я думаю, что это странно ..