Как заставить Gstreamer захватывать поток изображений udp, передаваемых по отдельности в буфер - PullRequest
1 голос
/ 29 апреля 2019

У меня в настоящее время есть конвейер gstreamer в python, который помещает изображения с камеры в буфер конвейера и отображает их с помощью autovideosink.Однако у меня возникают проблемы с передачей его в конвейер udp.

, что в настоящее время работает в программе Python:

udp_sink_pipeline = "appsrc name=source ! image/jpeg,framerate=(fraction)30/1  ! decodebin ! videoscale ! capsfilter caps=video/x-raw,width=640,height=480,pixel-aspect-ratio=(fraction)1/1  ! queue ! autovideosink"

что я хочу работать:

udp_sink_pipeline = "appsrc name=source ! image/jpeg,framerate=(fraction)30/1  ! decodebin ! videoscale ! capsfilter caps=video/x-raw,width=640,height=480,pixel-aspect-ratio=(fraction)1/1  ! queue ! jpegenc ! rtpjpegpay ! udpsink host=127.0.0.1,port=5200"

как я пытаюсь запечатлеть это:

gst-launch-1.0 udpsrc port=5200 ! application/x-rtp, encoding-name=JPEG,payload=26 ! rtpjpegdepay ! jpegdec ! autovideosink sync=false

Поскольку изображения не отображаются, я не совсем уверен, есть ли проблема со стороны клиента или сервера.

...