Проблема при кодировании файла PCM Stereo в стерео M4A - PullRequest
1 голос
/ 01 апреля 2019

Возникла проблема при кодировании стереофайла M4A из PCM.Мой код отлично работает для кодирования MONO (означает количество каналов = 1), но для стерео (количество каналов = 2) он не работает.Проблема в том, что кодер удваивает продолжительность звука.

Я записал частоту дискретизации и канал, оба идеально, т.е. частота дискретизации 48,100 кГц и количество каналов 2.

Ниже приведен код метода кодирования:

public boolean mediaMux(){
        try {

            File outputDirectory = new File(outFilePath);
            if (!outputDirectory.exists()){
                outputDirectory.mkdir();
            }
            File outputFile = new File(outputDirectory.getPath() , outFileName + ".m4a");
            if (outputFile.exists()) outputFile.delete();

            MediaMuxer mux = null;
            mux = new MediaMuxer(outputFile.getAbsolutePath(), MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4);

            MediaFormat outputFormat = MediaFormat.createAudioFormat(COMPRESSED_AUDIO_FILE_MIME_TYPE,
                    sampleRate, channel);
            outputFormat.setInteger(MediaFormat.KEY_AAC_PROFILE, MediaCodecInfo.CodecProfileLevel.AACObjectLC);
            outputFormat.setInteger(MediaFormat.KEY_BIT_RATE, bitrate);


            MediaCodec codec = MediaCodec.createEncoderByType(COMPRESSED_AUDIO_FILE_MIME_TYPE);
            codec.configure(outputFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE);
            codec.start();



            ByteBuffer[] codecInputBuffers = codec.getInputBuffers(); // Note: Array of buffers
            ByteBuffer[] codecOutputBuffers = codec.getOutputBuffers();

            MediaCodec.BufferInfo outBuffInfo = new MediaCodec.BufferInfo();

            byte[] tempBuffer = new byte[bufferSize];

            double presentationTimeUs = 0;
            int audioTrackIdx = 0;
            int totalBytesRead = 0;
            int percentComplete;

            do {

                int inputBufIndex = 0;
                while (inputBufIndex != -1 && data.size() > 0) {
                    try {
                        Log.w("Read Log","Reading Data");
                        inputBufIndex = codec.dequeueInputBuffer(CODEC_TIMEOUT_IN_MS);

                        if (inputBufIndex >= 0) {
                            ByteBuffer dstBuf = codecInputBuffers[inputBufIndex];
                            dstBuf.clear();

                            byte[] a = data.remove();

                            int bytesRead = a.length;
                            //Log.w("DestBuffer Limit",dstBuf.limit() +"");
                            if (!hasMoreData) { // -1 implies EOS

                                codec.queueInputBuffer(inputBufIndex, 0, 0, (long) presentationTimeUs, MediaCodec.BUFFER_FLAG_END_OF_STREAM);
                            } else {
                                totalBytesRead += bytesRead;
                                dstBuf.put(a, 0, bytesRead);
                                codec.queueInputBuffer(inputBufIndex, 0, bytesRead, (long) presentationTimeUs, 0);
                                presentationTimeUs = 1000000l * (totalBytesRead / 2) / sampleRate;
                            }
                        }
                    }catch (NoSuchElementException ex){
                        ex.printStackTrace();
                    }
                }

                // Drain audio
                int outputBufIndex = 0;
                while (outputBufIndex != MediaCodec.INFO_TRY_AGAIN_LATER) {
                    Log.w("Write Log","Writing Data");
                    outputBufIndex = codec.dequeueOutputBuffer(outBuffInfo, CODEC_TIMEOUT_IN_MS);
                    if (outputBufIndex >= 0) {
                        ByteBuffer encodedData = codecOutputBuffers[outputBufIndex];
                        encodedData.position(outBuffInfo.offset);
                        encodedData.limit(outBuffInfo.offset + outBuffInfo.size);

                        if ((outBuffInfo.flags & MediaCodec.BUFFER_FLAG_CODEC_CONFIG) != 0 && outBuffInfo.size != 0) {
                            codec.releaseOutputBuffer(outputBufIndex, false);
                        } else {
                            mux.writeSampleData(audioTrackIdx, codecOutputBuffers[outputBufIndex], outBuffInfo);
                            codec.releaseOutputBuffer(outputBufIndex, false);
                        }
                    } else if (outputBufIndex == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) {
                        outputFormat = codec.getOutputFormat();
                        Log.v(LOGTAG, "Output format changed - " + outputFormat);
                        audioTrackIdx = mux.addTrack(outputFormat);
                        mux.start();
                    } else if (outputBufIndex == MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED) {
                        Log.e(LOGTAG, "Output buffers changed during encode!");
                    } else if (outputBufIndex == MediaCodec.INFO_TRY_AGAIN_LATER) {
                        // NO OP
                    } else {
                        Log.e(LOGTAG, "Unknown return code from dequeueOutputBuffer - " + outputBufIndex);
                    }
                }
                //percentComplete = (int) Math.round(((float) totalBytesRead / (float) inputFile.length()) * 100.0);
                Log.v(LOGTAG, "Conversion % - " );
            } while (outBuffInfo.flags != MediaCodec.BUFFER_FLAG_END_OF_STREAM && !mStop);


            mux.stop();
            mux.release();
            Log.v(LOGTAG, "Compression done ...");
        } catch (FileNotFoundException e) {
            Log.e(LOGTAG, "File not found!", e);
            return false;
        } catch (IOException e) {
            Log.e(LOGTAG, "IO exception!", e);
            return false;
        } catch (Exception e){
            e.printStackTrace();
        }

        return true;
    }

Обновление Запись аудиокода Чака

recorder = new AudioRecord(
                MediaRecorder.AudioSource.MIC, recordingSampleRate,
                recordingChannels,
                AudioFormat.ENCODING_PCM_16BIT, minBufferSize * 2);

, если пользователь выбирает моно, recordingChannels = AudioFormat.CHANNEL_IN_MONOи для стерео recording channels = AudioFormat.CHANNEL_IN_STEREO Заранее спасибо

1 Ответ

1 голос
/ 01 апреля 2019

Я думаю

presentationTimeUs = 1000000l * (totalBytesRead / 2) / sampleRate;

на самом деле должно быть

presentationTimeUs = 1000000l * (totalBytesRead / (2 * channel)) / sampleRate;

, поскольку у вас есть 2 байта на семпл на канал , т.е. 4 байт на семпл для стерео.

...