Мне интересно узнать, как приложение Amazon iOS позволяет искать товар в режиме реального времени:
Демо
Размер приложения составляет более 100 МБ, и может показаться, что приложение содержит модель машинного обучения. Также кажется невообразимым, что они отправляют данные изображений на сервер для анализа при использовании подхода в реальном времени из-за стоимости данных для пользователя и задержки при использовании сервера.
Во время поиска вы можете увидеть несколько точек, представляющих фигуры / текст / поверхность / ближайший объект. Включено ли это с помощью ARKIT?
Если да, то он используется только для анимации точек объектов или оказывает реальное влияние на правильность оформления объекта?
Если нет, то как они достигают этого и по какой причине?
Буду признателен за любую помощь, которая позволит мне увидеть немного яснее или по-новому взглянуть.