Мне нужны многослойные ЗАГРУЗКИ из Amazon S3 для больших файлов - PullRequest
15 голосов
/ 25 января 2011

Я знаю, что Amazon S3 добавил загрузку из нескольких частей для огромных файлов.Замечательно.Мне также нужна аналогичная функциональность на стороне клиента для клиентов, которые частично загружают файл Gigabyte plus и имеют ошибки.

Я понимаю, что в браузеры встроен некоторый уровень повторных попыток и возобновления, но когда вы говорите об огромных файлах, я бы хотел иметь возможность выбирать, где они остановились, независимо от типа ошибки.

Есть идеи?

Спасибо, Брайан

Ответы [ 4 ]

11 голосов
/ 28 января 2011

S3 поддерживает стандартный HTTP-заголовок «Range», если вы хотите создать собственное решение.

S3 Получение объектов

2 голосов
/ 29 июля 2011

Я использую aria2c . Для частного контента вы можете использовать «GetPreSignedUrlRequest» для генерации временных личных URL, которые вы можете передать aria2c

1 голос
/ 15 марта 2014

Просто обновление для текущей ситуации, S3 изначально поддерживает составные GET, а также PUT.https://www.youtube.com/watch?v=uXHw0Xae2ww (почтовый индекс до 26:00).

0 голосов
/ 10 августа 2017

ПРИМЕЧАНИЕ: только для пользователей Ruby

Попробуйте aws-sdk драгоценный камень из Ruby и загрузите

object = AWS::S3::Object.new(...)
object.download_file('path/to/file.rb')

Поскольку по умолчанию загружается большой файл с multipart.

Файлы размером более 5 МБ загружаются с использованием многочастного метода

http://docs.aws.amazon.com/sdkforruby/api/Aws/S3/Object.html#download_file-instance_method

...