Я хотел бы поэкспериментировать с машинным обучением (особенно CNN) на выровненном RGB и глубинном потоке либо Intel RealSense, либо камеры Orbbec Astra. Моя цель - сделать какое-то распознавание объектов и выделить / пометить их в выходном видеопотоке (в качестве отправной точки).
Но после прочтения многих статей я все еще не понимаю, как задействованы интегрированные среды и как данные передаются с камеры через соответствующие программные компоненты. Я просто не могу получить изображение высокого уровня.
Это мое предположение относительно потока обработки:
Датчик => Драйвер => libRealSense / Astra SDK => TensorFlow
Вопросы
- Правильно ли мое предположение относительно обработки?
- Orbbec предоставляет дополнительно
Astra OpenNI SDK
помимо Astra SDK
, где у Intel есть оболочки (?) Для OpenCV
и OpenNI
. Когда или зачем мне нужны эти дополнительные библиотеки / поддержка?
- Какой самый быстрый способ начать? Я бы предпочел C # над C ++