Неправильная длительность и битрейт в аудиофайле в формате ffmpeg - PullRequest
1 голос
/ 30 мая 2019

Я кодирую необработанные данные на Android с помощью библиотек ffmpeg. Собственный код считывает аудиоданные с внешнего устройства и кодирует их в формат AAC в контейнере mp4. Я обнаружил, что аудиоданные успешно закодированы (я могу воспроизводить их с помощью Groove Music, моего стандартного аудиоплеера Windows). Но метаданные, как сообщает ffprobe, имеют неправильную длительность 0,05 с - на самом деле это несколько секунд. Кроме того, битрейт ошибочно указывается как около 65 кбит / с, хотя я указал 192 кбит / с.

Я пробовал записи различной длительности, но результат всегда одинаковый - (очень маленькая) длительность и битрейт. Я пробовал различные другие аудиоплееры, такие как Quicktime, но они воспроизводят только первые 0,05 с или около того звука.

Я удалил проверку ошибок из следующего. Фактический код проверяет каждый звонок, и о проблемах не сообщается.

Инициализация:

void AudioWriter::initialise( const char *filePath )
{
    AVCodecID avCodecID = AVCodecID::AV_CODEC_ID_AAC;
    int bitRate = 192000;
    char *containerFormat = "mp4";
    int sampleRate = 48000;
    int nChannels = 2;

    mAvCodec = avcodec_find_encoder(avCodecID);
    mAvCodecContext = avcodec_alloc_context3(mAvCodec);
    mAvCodecContext->codec_id = avCodecID;
    mAvCodecContext->codec_type = AVMEDIA_TYPE_AUDIO;
    mAvCodecContext->sample_fmt = AV_SAMPLE_FMT_FLTP;
    mAvCodecContext->bit_rate = bitRate;
    mAvCodecContext->sample_rate = sampleRate;
    mAvCodecContext->channels = nChannels; 
    mAvCodecContext->channel_layout = AV_CH_LAYOUT_STEREO;

    avcodec_open2( mAvCodecContext, mAvCodec, nullptr );

    mAvFormatContext = avformat_alloc_context();

    avformat_alloc_output_context2(&mAvFormatContext, nullptr, containerFormat, nullptr);
    mAvFormatContext->audio_codec = mAvCodec;
    mAvFormatContext->audio_codec_id = avCodecID;
    mAvOutputStream = avformat_new_stream(mAvFormatContext, mAvCodec);
    avcodec_parameters_from_context(mAvOutputStream->codecpar, mAvCodecContext);
    if (!(mAvFormatContext->oformat->flags & AVFMT_NOFILE))
    {
        avio_open(&mAvFormatContext->pb, filePath, AVIO_FLAG_WRITE);
    }

    if ( mAvFormatContext->oformat->flags & AVFMT_GLOBALHEADER )
    {
        mAvCodecContext->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;
    }

    avformat_write_header(mAvFormatContext, NULL);

    mAvAudioFrame = av_frame_alloc();
    mAvAudioFrame->nb_samples = mAvCodecContext->frame_size;
    mAvAudioFrame->format = mAvCodecContext->sample_fmt;
    mAvAudioFrame->channel_layout = mAvCodecContext->channel_layout;

    av_samples_get_buffer_size(NULL, mAvCodecContext->channels, mAvCodecContext->frame_size,
                                                 mAvCodecContext->sample_fmt, 0);
    av_frame_get_buffer(mAvAudioFrame, 0);
    av_frame_make_writable(mAvAudioFrame);
    mAvPacket = av_packet_alloc();
  }

Кодирование:

// SoundRecording is a custom class with the raw samples to be encoded
bool AudioWriter::encodeToContainer( SoundRecording *soundRecording )
{
    int ret;
    int frameCount = mAvCodecContext->frame_size;
    int nChannels = mAvCodecContext->channels;
    float *buf = new float[frameCount*nChannels];

    while ( soundRecording->hasReadableData() )
    {
        //Populate the frame
        int samplesRead = soundRecording->read( buf, frameCount*nChannels );
        // Planar data
        int nFrames = samplesRead/nChannels;
        for ( int i = 0; i < nFrames; ++i )
        {
            for (int c = 0; c < nChannels; ++c )
            {
                samples[c][i] = buf[nChannels*i +c];
            }
        }
        // Fill a gap at the end with silence
        if ( samplesRead < frameCount*nChannels )
        {
            for ( int i = samplesRead; i < frameCount*nChannels; ++i )
            {
                for (int c = 0; c < nChannels; ++c )
                {
                    samples[c][i] = 0.0;
                }
            }
        }

    encodeFrame( mAvAudioFrame ) )
    }

    finish();
 }

bool AudioWriter::encodeFrame( AVFrame *frame )
{
    //send the frame for encoding
    int ret;

    if ( frame != nullptr )
    {
        frame->pts = mAudFrameCounter++;
    }
    avcodec_send_frame(mAvCodecContext, frame );

    while (ret >= 0)
    {
        ret = avcodec_receive_packet(mAvCodecContext, mAvPacket);
        if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF )
        {
            break;
        }
        else
            if (ret < 0) {
             return false;
        }
        av_packet_rescale_ts(mAvPacket, mAvCodecContext->time_base, mAvOutputStream->time_base);
        mAvPacket->stream_index = mAvOutputStream->index;

        av_interleaved_write_frame(mAvFormatContext, mAvPacket);
         av_packet_unref(mAvPacket);
    }

    return true;
}

void AudioWriter::finish()
{
    // Flush by sending a null frame
    encodeFrame( nullptr );

    av_write_trailer(mAvFormatContext);
}

Поскольку результирующий файл содержит записанную музыку, код для управления аудиоданными кажется правильным (если я не перезаписываю другую память каким-либо образом).

Неточная продолжительность и битрейт указывают на то, что информация о времени не обрабатывается должным образом. Я установил количество кадров, используя простое целое число. Мне неясно, чего достигает код, который устанавливает временную метку и индекс потока, и является ли он вообще необходимым: я скопировал его из предположительно работающего кода, но видел другой код без него.

Кто-нибудь может увидеть, что я делаю не так?

1 Ответ

0 голосов
/ 30 мая 2019

Метка времени должна быть правильной. Установите для time_base значение 1 / sample_rate и увеличьте отметку времени на 1024 каждого кадра. Примечание: 1024 является специфическим. Если вы меняете кодеки, вам нужно изменить размер кадра.

...