Я хочу реализовать потоковый захват с камеры мобильного телефона или захват с экрана дисплея, и я использую .NetCore
и WebRTC
и ffmpeg
, чтобы иметь прямой эфир hls на сервере и транслировать его через http для нескольких пользователей. Схемы выглядят так:
WebRTC (camera/display screen)
==> .NetCore Server
==> FFMPEG (Transcoding)
==> HLS Stream
Я прочитал несколько статей, но не знаю как Могу ли я отправить данные с webrt c и получить их с помощью asp. net. Как я могу реализовать эту структуру? Является ли эта структура правильной структурой с точки зрения стоимости или это решение не может быть правильным? Кто-нибудь может мне помочь с живой записью и трансляцией?