Как отобразить поток MJPEG, передаваемый по UDP, в приложении Mac OS-X - PullRequest
0 голосов
/ 24 марта 2019

У меня есть камера, которая отправляет кадры mjpeg в виде пакетов UDP по Wi-Fi, которые я хотел бы отобразить в своем приложении max os-x.Мое приложение написано на target-c, и я пытаюсь использовать классы AVFoundation для отображения живого потока.Камера управляется с помощью http get и post запросов.

Я бы хотел, чтобы камера распознавалась как AVCaptureDevice, поскольку я могу легко отображать потоки с различных устройств AVCaptureDevices.Поскольку поток через Wi-Fi, он не распознается как AVCaptureDevice.

Есть ли способ создать собственный AVCaptureDevice, который я могу использовать для управления этой камерой и отображения видеопотока?

1 Ответ

0 голосов
/ 29 марта 2019

После долгих исследований пакетов, отправленных с камеры, я пришел к выводу, что она не взаимодействует ни с одним стандартным протоколом, таким как RTP.В итоге я реверс-инжиниринг пакетов, чтобы узнать больше об их содержимом.

Я подтвердил, что он отправляет изображения в формате JPEG через пакеты UDP.Требуется несколько пакетов UDP для отправки одного JPEG.Я слушал на порту UDP пакеты и собирал их в один кадр изображения.После того, как у меня есть кадр, я создал из него NSImage и отобразил его в NSImageView.Работает довольно хорошо.

Если кому-то интересно, камера Olympus TG-4.Я пишу компоненты для управления настройками затвора и т. Д.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...