На данный момент в ARKit 3.0 нет обходного пути для одновременного отслеживания более ЧЕТЫРЕХ изображений с использованием подкласса ARImageAnchor
внутри ARImageTrackingConfiguration()
сеанса. Я должен сказать, что это ограничение работает, несмотря на то, что общее количество отслеживаемых изображений в сцене может быть до 100 в ARKit 3.0.
Вы можете прочитать комментарии в ARConfiguration
класс, если вы выберете Jump to Definition
вариант.
Я считаю, что эта функция была ограничена программным обеспечением Купертино Инженеры не случайно. Подкласс ARImageAnchor
наследуется от родительского класса ARAnchor
и соответствует протоколу ARTrackable , поэтому он отслеживает не только статичные c изображения, но и движущиеся изображения (например, lo go на кузове автомобиля) , Следовательно, если вы отслеживаете более 4 изображений - это сильно загружает процессор / графический процессор (самая печально известная вещь для разрядки аккумулятора телефона), потому что ваше устройство должно обнаруживать и отслеживать несколько различных объектов.
Полагаю, можно будет одновременно отслеживать более 4 изображений с более новой версией ARKit 4.0
, которая может быть запущена на очень мощной 5nm devices
, например, iPhone 12, что мы увидим этой осенью.
Таким образом, разработчики программного обеспечения Apple пожертвовали функциональностью приложений ради надежного опыта AR.
PS
Неправильно сравнивать ARCore с ARKit, потому что эти фреймворки работают по-разному внутри, даже если они имеют схожие фундаментальные принципы - как World Tracking , Понимание сцены и Рендеринг этапов. И в дополнение к вышесказанному, я должен сказать, что ARCore обладает более скромной функциональностью, чем ARKit, что делает ARCore более «легковесным» для вычислений ЦП (хотя я понимаю, что последняя фраза звучит очень субъективно).