Используя камеру iPhone (и, возможно, некоторую комбинацию ARKit, Apple Vision, CoreML / mlmodels и т. Д.), Как бы вы измерили размеры (ширину, высоту, глубину) объекта?Объект представляет собой что-то маленькое, что сидит на столе
Используя mlmodel, вы можете научить ML выполнять обнаружение конкретных объектов.Это позволит вам только нарисовать рамку вокруг вашего обнаруженного объекта на 2-м экране.
Я хочу иметь возможность использовать камеру телефона для просмотра и, возможно, перемещаться вокруг объекта, чтобы определить размеры / фактический размеробъекта.
Я читал об обнаружении краев или обнаружении формы, но я не думаю, что мне нужно изображение для целостного обнаружения краев.
ARKit превосходен при использовании телефонааппаратное обеспечение для достаточно точного измерения небольших масштабов расстояний.
Один из возможных методов - установить эталонный объект известного размера (например, четверть) рядом с объектом для сравнения, но это может вызвать сложности и неприятности.
В идеале, я хотел бы навести камеру iPhone на маленький предмет на столе, возможно, осмотреться (немного повернуть объект) и иметь приблизительный набор измерений размера объекта и иметь ARAnchor (s)) для фактического местоположения объекта.