У меня есть система, которая подключается к 2 популярным API. Мне нужно объединить данные каждого из них в единый результат, который затем можно разбить на страницы. Масштаб проекта означает, что система может в конечном итоге поддерживать десятки API.
Каждый API накладывает максимальное ограничение в 50 результатов на запрос.
Каков наилучший способ агрегирования этих данных, чтобы они были надежными, т.е. заказаны, без дубликатов и т. Д.
Я использую платформу CakePHP в среде LAMP, однако думаю, что этот вопрос относится ко всем языкам программирования.
Мой подход пока заключается в том, чтобы запросить API-интерфейс поиска каждого провайдера, а затем заполнить таблицу MySQL. Исходя из этого, результаты упорядочиваются, разбиваются на страницы и т. Д. Однако меня беспокоит производительность: связь по API, синтаксический анализ, вставка и последующее чтение всего в одном исполнении.
Я что-то упустил, у кого-нибудь есть другие идеи? Я уверен, что это общая проблема со многими альтернативными решениями.
Любая помощь будет принята с благодарностью.