Необработанные кадры H264 в контейнере mpegts с использованием libavcodec - PullRequest
35 голосов
/ 11 мая 2011

Буду очень признателен за помощь в решении следующей проблемы:

У меня есть гаджет с камерой, производящий сжатые видеокадры H264, эти кадры отправляются в мое приложение. Эти кадры не находятся в контейнере, просто необработанные данные.

Я хочу использовать функции ffmpeg и libav для создания видеофайла, который можно использовать позже.

Если я декодирую кадры, затем кодирую их, все работает нормально, я получаю действительный видеофайл. (шаги декодирования / кодирования - это обычные команды libav, здесь ничего особенного, я взял их из всемогущего интернета, они потрясающие) ... Однако я трачу много времени на декодирование и кодирование, поэтому я хотел бы пропустите этот шаг и непосредственно поместите кадры в выходной поток. Теперь проблемы приходят.

Вот код, который я придумал для создания кодировки:

AVFrame* picture;

avpicture_fill((AVPicture*) picture, (uint8_t*)frameData, 
                 codecContext->pix_fmt, codecContext->width,
                 codecContext->height);
int outSize = avcodec_encode_video(codecContext, videoOutBuf, 
                 sizeof(videoOutBuf), picture);
if (outSize > 0) 
{
    AVPacket packet;
    av_init_packet(&packet);
    packet.pts = av_rescale_q(codecContext->coded_frame->pts,
                  codecContext->time_base, videoStream->time_base);
    if (codecContext->coded_frame->key_frame) 
    {
        packet.flags |= PKT_FLAG_KEY;
    }
    packet.stream_index = videoStream->index;
    packet.data =  videoOutBuf;
    packet.size =  outSize;

    av_interleaved_write_frame(context, &packet);
    put_flush_packet(context->pb);
}

Где переменные похожи:

frameData - это данные декодированного кадра, полученные с камеры, они были декодированы на предыдущем шаге, а videoOutBuf - простой буфер uint8_t для хранения данных

Я изменил приложение, чтобы не декодировать кадры, а просто передавать данные, например:

    AVPacket packet;
    av_init_packet(&packet);

    packet.stream_index = videoStream->index;
    packet.data = (uint8_t*)frameData;
    packet.size = currentFrameSize;

    av_interleaved_write_frame(context, &packet);
    put_flush_packet(context->pb);

, где

frameData - это необработанный кадр H264 currentFrameSize - размер необработанного кадра H264, т.е. количество байтов, которые я получаю от гаджета для каждого кадра.

И вдруг приложение больше не работает корректно, созданное видео не воспроизводится. Это очевидно, так как я не устанавливал правильный PTS для пакета. То, что я сделал, было следующим (я в отчаянии, вы можете видеть это из этого подхода :))

    packet.pts = timestamps[timestamp_counter ++];

где timestamps - это фактически список PTS, созданный с помощью приведенного выше рабочего кода и записанный в файл (да, вы прочитали его правильно, я зарегистрировал все PTS за 10-минутный сеанс и хотел использовать их) .

Приложение по-прежнему не работает.

Теперь я понятия не имею, что делать, поэтому возникает вопрос:

Я хотел бы создать видеопоток "mpegts", используя функции libav, вставить в поток уже закодированные видеокадры и создать с ним видеофайл. Как мне это сделать?

Спасибо, е.

Ответы [ 2 ]

27 голосов
/ 16 мая 2011

Я полагаю, что если вы установите следующее, вы увидите воспроизведение видео.

packet.flags |= AV_PKT_FLAG_KEY;
packet.pts = packet.dts = 0;

Вам действительно следует установить packet.flags в соответствии с заголовками пакетов h264.Вы можете попробовать предложение этого стека переполнения стека для непосредственного извлечения из потока.

Если вы также добавляете аудио, тогда pts / dts будет более важным.Я предлагаю вам изучить этот учебник

РЕДАКТИРОВАТЬ

Я нашел время, чтобы извлечь то, что работает для меня, из моего тестового приложения.По некоторым причинам нулевые значения dts / pts работают для меня, но значения, отличные от 0 или AV_NOPTS_VALUE, не работают.Интересно, есть ли у нас разные версии ffmpeg?У меня есть последняя версия git: //git.videolan.org/ffmpeg.git.

fftest.cpp

#include <string>

#ifndef INT64_C
#define INT64_C(c) (c ## LL)
#define UINT64_C(c) (c ## ULL)
#endif

//#define _M
#define _M printf( "%s(%d) : MARKER\n", __FILE__, __LINE__ )

extern "C"
{
    #include "libavcodec/avcodec.h"
    #include "libavformat/avformat.h"
};


AVFormatContext *fc = 0;
int vi = -1, waitkey = 1;

// < 0 = error
// 0 = I-Frame
// 1 = P-Frame
// 2 = B-Frame
// 3 = S-Frame
int getVopType( const void *p, int len )
{   
    if ( !p || 6 >= len )
        return -1;

    unsigned char *b = (unsigned char*)p;

    // Verify NAL marker
    if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
    {   b++;
        if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
            return -1;
    } // end if

    b += 3;

    // Verify VOP id
    if ( 0xb6 == *b )
    {   b++;
        return ( *b & 0xc0 ) >> 6;
    } // end if

    switch( *b )
    {   case 0x65 : return 0;
        case 0x61 : return 1;
        case 0x01 : return 2;
    } // end switch

    return -1;
}

void write_frame( const void* p, int len )
{
    if ( 0 > vi )
        return;

    AVStream *pst = fc->streams[ vi ];

    // Init packet
    AVPacket pkt;
    av_init_packet( &pkt );
    pkt.flags |= ( 0 >= getVopType( p, len ) ) ? AV_PKT_FLAG_KEY : 0;   
    pkt.stream_index = pst->index;
    pkt.data = (uint8_t*)p;
    pkt.size = len;

    // Wait for key frame
    if ( waitkey )
        if ( 0 == ( pkt.flags & AV_PKT_FLAG_KEY ) )
            return;
        else
            waitkey = 0;

    pkt.dts = AV_NOPTS_VALUE;
    pkt.pts = AV_NOPTS_VALUE;

//  av_write_frame( fc, &pkt );
    av_interleaved_write_frame( fc, &pkt );
}

void destroy()
{
    waitkey = 1;
    vi = -1;

    if ( !fc )
        return;

_M; av_write_trailer( fc );

    if ( fc->oformat && !( fc->oformat->flags & AVFMT_NOFILE ) && fc->pb )
        avio_close( fc->pb ); 

    // Free the stream
_M; av_free( fc );

    fc = 0;
_M; 
}

int get_nal_type( void *p, int len )
{
    if ( !p || 5 >= len )
        return -1;

    unsigned char *b = (unsigned char*)p;

    // Verify NAL marker
    if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
    {   b++;
        if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
            return -1;
    } // end if

    b += 3;

    return *b;
}

int create( void *p, int len )
{
    if ( 0x67 != get_nal_type( p, len ) )
        return -1;

    destroy();

    const char *file = "test.avi";
    CodecID codec_id = CODEC_ID_H264;
//  CodecID codec_id = CODEC_ID_MPEG4;
    int br = 1000000;
    int w = 480;
    int h = 354;
    int fps = 15;

    // Create container
_M; AVOutputFormat *of = av_guess_format( 0, file, 0 );
    fc = avformat_alloc_context();
    fc->oformat = of;
    strcpy( fc->filename, file );

    // Add video stream
_M; AVStream *pst = av_new_stream( fc, 0 );
    vi = pst->index;

    AVCodecContext *pcc = pst->codec;
_M; avcodec_get_context_defaults2( pcc, AVMEDIA_TYPE_VIDEO );
    pcc->codec_type = AVMEDIA_TYPE_VIDEO;

    pcc->codec_id = codec_id;
    pcc->bit_rate = br;
    pcc->width = w;
    pcc->height = h;
    pcc->time_base.num = 1;
    pcc->time_base.den = fps;

    // Init container
_M; av_set_parameters( fc, 0 );

    if ( !( fc->oformat->flags & AVFMT_NOFILE ) )
        avio_open( &fc->pb, fc->filename, URL_WRONLY );

_M; av_write_header( fc );

_M; return 1;
}

int main( int argc, char** argv )
{
    int f = 0, sz = 0;
    char fname[ 256 ] = { 0 };
    char buf[ 128 * 1024 ];

    av_log_set_level( AV_LOG_ERROR );
    av_register_all();

    do
    {
        // Raw frames in v0.raw, v1.raw, v2.raw, ...
//      sprintf( fname, "rawvideo/v%lu.raw", f++ );
        sprintf( fname, "frames/frame%lu.bin", f++ );
        printf( "%s\n", fname );

        FILE *fd = fopen( fname, "rb" );
        if ( !fd )
            sz = 0;
        else
        {
            sz = fread( buf, 1, sizeof( buf ) - FF_INPUT_BUFFER_PADDING_SIZE, fd );
            if ( 0 < sz )
            {
                memset( &buf[ sz ], 0, FF_INPUT_BUFFER_PADDING_SIZE );          

                if ( !fc )
                    create( buf, sz );

                if ( fc )
                    write_frame( buf, sz );

            } // end if

            fclose( fd );

        } // end else

    } while ( 0 < sz );

    destroy();
}
0 голосов
/ 22 мая 2011

Вы можете создать процесс для вызова ffmpeg из консоли.

Пример командной строки для обработки файлов, таких как 000001.jpg, 000002.jpg, 000003.jpg, ...

ffmpeg -i c: \ frames \% 06d.jpg -r 16 -vcodec mpeg4 -an -y c: \ video \ some_video.avi

Другие примеры из ffmpeg docs

...