У меня есть приложение Objective-C, которое я получаю в видеоданных функции в виде unit8_t.bytes
и длины.
-(void)videoFeed:(DJIVideoFeed *)videoFeed didUpdateVideoData:
(NSData *)videoData {
[[DJIVideoPreviewer instance] push:(uint8_t *)videoData.bytes length:(int)videoData.length];
[_videoExtractor parseVideo:(uint8_t *)videoData.bytes
length:(int)videoData.length withFrame:^(VideoFrameH264Raw *frame) {
В приложении реализовано SocketIO
, и я отправляю эти данные всервер Python с OpenCV
на нем.
У меня 2 проблемы:
- Я не знаю, как взять эти данные и сделать это видео
Я хочу отправить h264
выбрасывает сокет, но Objective-C
[self.socket emit:@"streaming" with:@[frame]];
не ожидает тип (VideoFrameH264Raw
). Я попытался получить информацию в видеозахвате в OpenCV, но без недостаткаЯ также немного запутался в случае, когда я получаю одиночные кадры, выбрасываю сокеты и показываю их как видео в Python.