хотя я могу переопределить метод WriterAt, передав пользовательскому писателю или фальшивому писателю что-то вроде этого.
type CustomWriter struct {
}
func (r *CustomWriter) WriteAt(p []byte, off int64) (int, error) {
return len(p), nil
}
cWriter := &CustomWriter{}
_, err = dn.Download(cWriter, &s3.GetObjectInput{Bucket: aws.String(bname),
Key: aws.String(bkey)})
if err != nil {
return err
}
Я могу загружать файл кусками не фиксированного размера, установив PartSize в Downloader тоже не помогло. может ли кто-нибудь помочь мне загрузить файл с фиксированного размера блока s3?
или
есть ли способ загрузить содержимое в Reader? чтобы потом я мог прочитать его по частям?