AR. JS запутались в отслеживании NFT, что используется, а что нет? - PullRequest
0 голосов
/ 25 мая 2020

Я действительно пытался понять структуру простого отслеживания NFT, и все больше запутываюсь. Я пытался исследовать этот проект для своего дипломного проекта, и мне было интересно, может ли кто-нибудь помочь мне. Насколько я понимаю, от начала до обработки изображений происходит следующее: инициализируется веб-камера, вызывается initSourceWebcam, который создает элементы видео по умолчанию и устанавливает атрибуты. Он просматривает все доступные устройства и при необходимости меняет размер. Как только подходящее устройство найдено, из потока считываются отдельные изображения. Где это делается? Я пытаюсь прочитать значения пикселей или любые данные, представляющие обрабатываемое изображение. Кроме того, похоже, что в примере ar-nft много разных функций process (). Например, есть ARController.prototype.process (), а также есть process () для события ar js -video-loaded. Какие отличия? Куда мне смотреть? Также как определяется маркер? Я провел простую отладку и вижу, что ARController.prototype.process () имеет функцию детектирования маркеров, и когда я отлаживаю ее, я действительно вижу, что ARController.prototype.process () использует функцию обнаружения маркеров для поиска маркеров. Пример с тираннозавром). Я просто очень запутался в правильном порядке вещей и в том, какие компоненты используются, а какие нет. Может кто-нибудь мне помочь, пожалуйста.

...