Как написать видеокодер с ffmpeg, который явно контролирует положение ключевых кадров? - PullRequest
16 голосов
/ 18 февраля 2010

Я хочу написать кодировщик с ffmpeg, который может поместить iFrames (ключевые кадры) в позиции, которые я хочу. Где я могу найти учебники или справочные материалы для этого?

P.S
Возможно ли это сделать с помощью mencoder или любого открытого кодировщика. Я хочу закодировать файл H263. Я пишу под и для Linux.

Ответы [ 6 ]

18 голосов
/ 24 февраля 2010

Вам нужно взглянуть на документацию libavcodec, в частности, на avcodec_encode_video ().Я обнаружил, что лучшая доступная документация находится в заголовочных файлах ffmpeg и в примере исходного кода API, который предоставляется вместе с исходным кодом ffmpeg.В частности, посмотрите на libavcodec / api-example.c или даже ffmpeg.c.

Чтобы принудительно использовать I-кадр, вам нужно установить для элемента pict_type изображения, который вы кодируете, значение 1: 1:I-кадр, 2-это P-кадр, и я не помню, каков код для B-кадра с макушки головы ... Кроме того, элемент key_frame должен быть установлен в 1.

Некоторые вводные материалы доступны здесь и здесь , но я действительно не знаю, насколько это хорошо.

Вам нужно быть осторожным, как вы распределяетефреймовые объекты, которые требуются вызовами API.На мой взгляд, api-example.c - ваш лучший выбор.Ищите функцию video_encode_example () - она ​​краткая и иллюстрирует все важные вещи, о которых вам нужно беспокоиться - обратите особое внимание на второй вызов avcodec_encode_video (), который передает аргумент NULL-изображения - требуется получить последние кадры видео, так какВидео MPEG кодируется не по порядку, и вы можете получить задержку в несколько кадров.

4 голосов
/ 18 марта 2012

Обновленную версию api-example.c можно найти по адресу http://ffmpeg.org/doxygen/trunk/doc_2examples_2decoding_encoding_8c-example.html

Это делает все видео кодирования в одной и относительно короткой функции. Так что это, вероятно, хорошее место для начала. Скомпилируйте и запустите его. А затем начните изменять его, пока он не сделает то, что вы хотите.

Имеются также примеры кодирования аудио и декодирования аудио и видео.

3 голосов
/ 23 февраля 2010

GStreamer имеет приличную документацию , имеет привязки для количества языков (хотя собственный API - C) и поддерживает любой видеоформат, который вы можете найти плагины для, в том числе H.263 через gstreamer-ffmpeg .

1 голос
/ 04 декабря 2011

Если вы программист на Java, используйте Xuggler.

1 голос
/ 17 марта 2010

вам понадобится библиотека libavcodec. Для первого шага, я думаю, вы можете узнать о ее использовании в файле ffplay.c внутри исходного кода ffmpeg. Это многое вам скажет. Вы можете проверить мой проект также о видео на rtstegvideo.sourceforge.net.

Надеюсь, что это поможет.

0 голосов

Пример минимального запуска на FFmpeg 2.7

На основе ответа Ори Пессаха ниже приведен минимальный пример, который генерирует кадры формы.

  • I
  • P
  • B
  • P
  • ...

Ключевые части кода, которые управляют типом фрейма:

c = avcodec_alloc_context3(codec);
/* Minimal distance of I-frames. This is the maximum value allowed,
or else we get a warning at runtime. */
c->keyint_min = 600;
/* Or else it defaults to 0 b-frames are not allowed. */
c->max_b_frames = 1;

и

frame->key_frame = 0;
switch (frame->pts % 4) {
    case 0:
        frame->key_frame = 1;
        frame->pict_type = AV_PICTURE_TYPE_I;
    break;
    case 1:
    case 3:
        frame->pict_type = AV_PICTURE_TYPE_P;
    break;
    case 2:
        frame->pict_type = AV_PICTURE_TYPE_B;
    break;
}

Затем мы можем проверить тип кадра с помощью:

ffprobe -select_streams v \
    -show_frames \
    -show_entries frame=pict_type \
    -of csv \
    tmp.h264

как указано в: https://superuser.com/questions/885452/extracting-the-index-of-key-frames-from-a-video-using-ffmpeg

FFmpeg применяет некоторые правила, даже если я пытаюсь их преодолеть:

  • первый кадр - это I-кадр
  • не может разместить B0-кадр перед I-кадром (почему TODO?)

Предварительный просмотр сгенерированного вывода .

#include <libavcodec/avcodec.h>
#include <libavutil/imgutils.h>
#include <libavutil/opt.h>
#include <libswscale/swscale.h>

static AVCodecContext *c = NULL;
static AVFrame *frame;
static AVPacket pkt;
static FILE *file;
struct SwsContext *sws_context = NULL;

/*
Convert RGB24 array to YUV. Save directly to the `frame`,
modifying its `data` and `linesize` fields
*/
static void ffmpeg_encoder_set_frame_yuv_from_rgb(uint8_t *rgb) {
    const int in_linesize[1] = { 3 * c->width };
    sws_context = sws_getCachedContext(sws_context,
            c->width, c->height, AV_PIX_FMT_RGB24,
            c->width, c->height, AV_PIX_FMT_YUV420P,
            0, 0, 0, 0);
    sws_scale(sws_context, (const uint8_t * const *)&rgb, in_linesize, 0,
            c->height, frame->data, frame->linesize);
}

/*
Generate 2 different images with four colored rectangles, each 25 frames long:

Image 1:

    black | red
    ------+-----
    green | blue

Image 2:

    yellow | red
    -------+-----
    green  | white
*/
uint8_t* generate_rgb(int width, int height, int pts, uint8_t *rgb) {
    int x, y, cur;
    rgb = realloc(rgb, 3 * sizeof(uint8_t) * height * width);
    for (y = 0; y < height; y++) {
        for (x = 0; x < width; x++) {
            cur = 3 * (y * width + x);
            rgb[cur + 0] = 0;
            rgb[cur + 1] = 0;
            rgb[cur + 2] = 0;
            if ((frame->pts / 25) % 2 == 0) {
                if (y < height / 2) {
                    if (x < width / 2) {
                        /* Black. */
                    } else {
                        rgb[cur + 0] = 255;
                    }
                } else {
                    if (x < width / 2) {
                        rgb[cur + 1] = 255;
                    } else {
                        rgb[cur + 2] = 255;
                    }
                }
            } else {
                if (y < height / 2) {
                    rgb[cur + 0] = 255;
                    if (x < width / 2) {
                        rgb[cur + 1] = 255;
                    } else {
                        rgb[cur + 2] = 255;
                    }
                } else {
                    if (x < width / 2) {
                        rgb[cur + 1] = 255;
                        rgb[cur + 2] = 255;
                    } else {
                        rgb[cur + 0] = 255;
                        rgb[cur + 1] = 255;
                        rgb[cur + 2] = 255;
                    }
                }
            }
        }
    }
    return rgb;
}

/* Allocate resources and write header data to the output file. */
void ffmpeg_encoder_start(const char *filename, int codec_id, int fps, int width, int height) {
    AVCodec *codec;
    int ret;
    codec = avcodec_find_encoder(codec_id);
    if (!codec) {
        fprintf(stderr, "Codec not found\n");
        exit(1);
    }
    c = avcodec_alloc_context3(codec);
    if (!c) {
        fprintf(stderr, "Could not allocate video codec context\n");
        exit(1);
    }
    c->bit_rate = 400000;
    c->width = width;
    c->height = height;
    c->time_base.num = 1;
    c->time_base.den = fps;
    /* I, P, B frame placement parameters. */
    c->gop_size = 600;
    c->max_b_frames = 1;
    c->keyint_min = 600;
    c->pix_fmt = AV_PIX_FMT_YUV420P;
    if (codec_id == AV_CODEC_ID_H264)
        av_opt_set(c->priv_data, "preset", "slow", 0);
    if (avcodec_open2(c, codec, NULL) < 0) {
        fprintf(stderr, "Could not open codec\n");
        exit(1);
    }
    file = fopen(filename, "wb");
    if (!file) {
        fprintf(stderr, "Could not open %s\n", filename);
        exit(1);
    }
    frame = av_frame_alloc();
    if (!frame) {
        fprintf(stderr, "Could not allocate video frame\n");
        exit(1);
    }
    frame->format = c->pix_fmt;
    frame->width  = c->width;
    frame->height = c->height;
    ret = av_image_alloc(frame->data, frame->linesize, c->width, c->height, c->pix_fmt, 32);
    if (ret < 0) {
        fprintf(stderr, "Could not allocate raw picture buffer\n");
        exit(1);
    }
}

/*
Write trailing data to the output file
and free resources allocated by ffmpeg_encoder_start.
*/
void ffmpeg_encoder_finish(void) {
    uint8_t endcode[] = { 0, 0, 1, 0xb7 };
    int got_output, ret;
    do {
        fflush(stdout);
        ret = avcodec_encode_video2(c, &pkt, NULL, &got_output);
        if (ret < 0) {
            fprintf(stderr, "Error encoding frame\n");
            exit(1);
        }
        if (got_output) {
            fwrite(pkt.data, 1, pkt.size, file);
            av_packet_unref(&pkt);
        }
    } while (got_output);
    fwrite(endcode, 1, sizeof(endcode), file);
    fclose(file);
    avcodec_close(c);
    av_free(c);
    av_freep(&frame->data[0]);
    av_frame_free(&frame);
}

/*
Encode one frame from an RGB24 input and save it to the output file.
Must be called after ffmpeg_encoder_start, and ffmpeg_encoder_finish
must be called after the last call to this function.
*/
void ffmpeg_encoder_encode_frame(uint8_t *rgb) {
    int ret, got_output;
    ffmpeg_encoder_set_frame_yuv_from_rgb(rgb);
    av_init_packet(&pkt);
    pkt.data = NULL;
    pkt.size = 0;
    switch (frame->pts % 4) {
        case 0:
            frame->key_frame = 1;
            frame->pict_type = AV_PICTURE_TYPE_I;
        break;
        case 1:
        case 3:
            frame->key_frame = 0;
            frame->pict_type = AV_PICTURE_TYPE_P;
        break;
        case 2:
            frame->key_frame = 0;
            frame->pict_type = AV_PICTURE_TYPE_B;
        break;
    }
    ret = avcodec_encode_video2(c, &pkt, frame, &got_output);
    if (ret < 0) {
        fprintf(stderr, "Error encoding frame\n");
        exit(1);
    }
    if (got_output) {
        fwrite(pkt.data, 1, pkt.size, file);
        av_packet_unref(&pkt);
    }
}

/* Represents the main loop of an application which generates one frame per loop. */
static void encode_example(const char *filename, int codec_id) {
    int pts;
    int width = 320;
    int height = 240;
    uint8_t *rgb = NULL;
    ffmpeg_encoder_start(filename, codec_id, 25, width, height);
    for (pts = 0; pts < 100; pts++) {
        frame->pts = pts;
        rgb = generate_rgb(width, height, pts, rgb);
        ffmpeg_encoder_encode_frame(rgb);
    }
    ffmpeg_encoder_finish();
}

int main(void) {
    avcodec_register_all();
    encode_example("tmp.h264", AV_CODEC_ID_H264);
    encode_example("tmp.mpg", AV_CODEC_ID_MPEG1VIDEO);
    /* TODO: is this encoded correctly? Possible to view it without container? */
    /*encode_example("tmp.vp8", AV_CODEC_ID_VP8);*/
    return 0;
}

Проверено на Ubuntu 15.10. GitHub upstream .

Вы действительно хотите это сделать?

В большинстве случаев вам лучше просто контролировать глобальные параметры AVCodecContext.

FFmpeg делает такие умные вещи, как использование ключевого кадра, если новый кадр полностью отличается от предыдущего, и мало что можно было бы получить с помощью дифференциального кодирования.

Например, если мы установим просто:

c->keyint_min = 600;

тогда мы получим ровно 4 ключевых кадра в приведенном выше примере, что логично, поскольку в сгенерированном видео имеется 4 резких изменения кадра.

...