Каков наилучший подход для использования веб-сервисов и манипулирования их данными? - PullRequest
1 голос
/ 20 апреля 2011

Нужен совет по лучшему подходу.

В настоящее время мы собираемся запустить новый веб-проект CI, в котором нам необходимо активно использовать данные из внешних веб-сервисов или API для данных?

Лучше ли манипулировать данными программно (в объектах или массиве), когда мне нужно отсортировать их или сохранить в базе данных и вызывать их по порядку, группировать по и т. Д.?

Существует ли известная архитектура или инфраструктура для этого?

Какой наилучший подход используется в настоящее время, например, как работает сайт-агрегатор, когда они получают много источников данных из API разных поставщиков?

Ответы [ 2 ]

0 голосов
/ 02 июня 2011

После всего этого я разработал план, и он отлично работает!

  • Использование веб-сервисов
  • десериализация XML для массивов / объектов
  • Хранить в кеше (APC / Файловый кеш, кстати, я использую codeigniter) (срок действия истекает каждые 4 часа)

Первый запрос займет 3-4 секунды (первый вызов веб-службы для получения данных, сохраненных в кеше), в то время как последующие запросы пользователей занимают 0,002 секунды из-за кэшированных данных. Через 4 часа цикл повторится, чтобы удостовериться, что данные обновляются 4 часа из веб-службы. Если вы первый пользователь, который получает доступ к сайту после каждого обновления, вы неудачник. Но ты пожертвовал ради всех остальных парней.

0 голосов
/ 29 мая 2011

Я бы посоветовал получать данные с помощью curl и др., Манипулировать ими как массивами и т. Д., А затем хранить.

Убедитесь, что вы также встраиваете что-то в кеширование, чтобы не делать ненужных запросов.1004 * Причина, по которой мой метод состоит в том, чтобы обрабатывать один раз, а не каждый раз, когда ваш сайт запрашивается.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...