Я занимаюсь разработкой гибридного мобильного приложения для Android / iOS с функцией видеочата.UIWebView и WKWebView (движки веб-просмотра iOS) не поддерживают getUserMedia.
Существуют плагины, которые дублируют эту функциональность, но все они предоставляют собственный видеопоток, и это менее чем идеально для моего приложения.
Я использую OpenTok в качестве среды WebRTC, иЯ могу по крайней мере переопределить существующую функциональность, которая не может установить соединение с сокетом, если getUserMedia не работает.(Это позволило бы мне по крайней мере подписаться на поток в веб-представлении, если он существует)
Я также мог бы просто использовать существующие плагины iosrtc / opentok для публикации видео пользователя iOS в сеансе.Единственная проблема, с которой я сталкиваюсь, заключается в том, чтобы на самом деле выяснить, как визуализировать видеопоток в видеоэлементе webview.
Первоначально я думал о чем-то вроде того, как эта статья реализует передачу данных видеопотока с камеры iOS вбраузер.
http://realtimeweekly.co/how-to-use-webrtc-on-your-ios-projects-part-i/
Однако, согласно его сноске:
В настоящее время я смог пройти по 1 одиночной рамев приложение Javascript и посмотрите его перед тем, как оно выйдет из строя (из-за огромного количества данных, которые я пытаюсь втиснуть в WKWebView, отправив его в виде растрового изображения).
И тамПохоже, что после этой статьи не было обновлений.
Учитывая это, возможно ли захват необработанных видеоданных и их передача в MediaStream API?Нужно ли API MediaStream кодировать / декодировать видеоданные локально из источника камеры для рендеринга объекта MediaStreamTrack?
Я немного прочитал документацию W3 Media Capture и Stream ,и, похоже, он не определяет требования к типу данных или то, как данные обрабатываются от аппаратного обеспечения до визуализации в браузере.