Возникли проблемы с этой проблемой, никогда раньше не сталкивался с этим, поэтому я немного растерялся.
У нас есть большие zip-файлы, хранящиеся на S3, которые пользователь может загрузить. Проблема в том, что эти почтовые индексы настолько велики, что если я просто сделаю
Storage::disk('s3')->download($file->file_path)
в GET-запросе, то каждый раз будет 504 Gateway Time Out. Я смотрел потоковую загрузку в документах Laravel, но это также дает мне тайм-аут.
public function download(ClientArchive $file)
{
return response()->streamDownload(Storage::disk('s3')->get($file->file_path), 'archive.zip');
}
Есть какие-нибудь идеи о том, как я могу получить эти большие ZIP-файлы для загрузки без этих тайм-аутов?
Любая помощь будет принята с благодарностью.
Спасибо!