Я занимаюсь разработкой приложения для Android, где пользователь может начать потоковую трансляцию, используя свою камеру Android.У меня под рукой AWS
& GCP
ресурсы.После некоторого чтения я понимаю, что
Я должен транслировать / публиковать, что бы ни выбирала андроид-камера, на некоторый сервер по некоторым протоколам (RTMP
или HLS
и т. Д...)
Мне нужно настроить сервер, который будет извлекать этот источник ввода, упаковывать и сохранять его в форме, которую можно передавать / использовать в мобильном / веб-браузере (в основномURL), и я считаю, что AWS's MediaLive
, MediaPackage
и т. Д. Ресурсы должны делать это.
Я мог бы использовать этот URL-адрес MediaSource для игроков на Android (например, ExoPlayer
)
Моя проблема в том, что я не смог найти хорошую документацию по первой части.Я нашел это, https://github.com/bytedeco/javacv,, которое не похоже на работу на уровне производства.При испытании 2-й части при создании канала MediaLive на AWS меня попросили указать канал на 2 пункта назначения (я не знаю, что это значит), что заставило меня усомниться в моем понимании этого процесса.Я ищу некоторую процедуру скелета с официальной документацией о том, как этого добиться.
РЕДАКТИРОВАТЬ 1:
Для части ввода-вывода я экспериментируюс этим ответом.https://stackoverflow.com/a/29061628/3881561
РЕДАКТИРОВАТЬ 2:
Я использовал https://github.com/ant-media/LiveVideoBroadcaster для отправки источника видео на сервер RTMP.Я создал RTMP push-источник ввода в MediaLive и канал с выводом - Archive (файлы .ts хранятся в S3).Теперь, когда поток работает, как я могу изменить эту архитектуру, чтобы позволить нескольким пользователям создавать прямую трансляцию?