Я только начинаю изучать веб / сетевое программирование (поэтому не уверен, какая информация актуальна), но моя цель - воспроизвести потоковое видео, полученное компьютером X, на веб-странице, размещенной на компьютере Y, как можно ближе к реальному времени,В настоящее время у меня есть неловкое решение, которое вполне подходит для моих нужд, при котором видео, полученное на компьютере X, отправляется на компьютер Y через UDP-сокет.Затем эти данные отправляются (через ffmpeg) в «поддельную веб-камеру», созданную с помощью v4l2loopback, которая затем читается с помощью getUserMedia ().Для этого у меня есть прерывистое видео с задержкой менее 2 с.
Мой вопрос, просто, заключается в том, можно ли читать в потоке UDP непосредственно в рамках webRTC (как-то, и если да, то как)а не неловко проходить через веб-камеру.