Мне кажется, что сканирование далекого трехмерного объекта не имеет практического применения.
Во-первых, вам нужно сканировать ваш объект со всех доступных сторон, чтобы распознать этот объект в будущем, а не только из одного PoV. Во-вторых, иногда возникает туман окружающей среды (смог, дождь), который обесцвечивает такой дальний объект и делает его едва различимым. И, наконец, не хватает деталей для поверхности удаленного объекта, другими словами, «текстура» довольно скудная.
Практическое решение этой проблемы простое: просто используйте технику распознавания изображений для предварительно сделанных фотографий в ARKit и CoreML. А отсканированные данные гораздо тяжелее для процессора и графического процессора iPhone, чем mlmodel
, не так ли?