Какой самый масштабируемый способ обработки загрузки файлов в веб-приложении Python? - PullRequest
3 голосов
/ 20 мая 2010

У нас есть веб-приложение, которое загружает файлы для некоторых частей. Загрузка файлов не очень большая (в основном текстовые документы и т. Д.), Но она намного больше, чем ваш типичный веб-запрос, и они, как правило, связывают наши многопоточные серверы (серверы zope 2, работающие за прокси-сервером Apache).

Сейчас я в основном нахожусь в фазе мозгового штурма и пытаюсь найти общую технику для использования. Вот некоторые идеи:

  • Использование асинхронного сервера Python, такого как торнадо, дизель или огнестрельное оружие.
  • Написание чего-то скрученного, чтобы справиться с этим.
  • Просто используйте nginx для обработки фактических загрузок файлов.

Удивительно сложно найти информацию о том, какой подход я должен использовать. Я уверен, что есть много деталей, которые понадобятся для принятия фактического решения, но я больше беспокоюсь о том, чтобы понять, как принять это решение, чем о чем-либо еще. Кто-нибудь может дать мне несколько советов о том, как поступить с этим?

Ответы [ 2 ]

1 голос
/ 21 мая 2010

Если вы готовы добавить Django в свою среду, функция загрузки файлов имеет встроенную поддержку для загрузки файлов несколькими частями.

Ознакомьтесь с разделом Загрузка файлов в документации django.

0 голосов
/ 08 ноября 2013

Посмотрите, можете ли вы отправить файлы прямо из браузера пользователя в статическое хранилище файлов, например Amazon S3 или службу облачных файлов rackspace.

Тогда вы можете обрабатывать тонну параллельных пользователей.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...