Java - передача голоса через сокеты Java - PullRequest
5 голосов
/ 11 октября 2011

Я создал серверное приложение, которое получает звук от клиента, затем транслирует этот звук, который сохраняется в байтах, и отправляет байты обратно клиентам, подключенным к серверу. сейчас я использую только одного клиента в данный момент для тестирования, и клиент получает голос обратно, но звук все время заикается. Может кто-нибудь сказать, пожалуйста, что я делаю не так?

Я думаю, что понимаю, почему звук не воспроизводится плавно, но не понимаю, как решить проблему.

код ниже.

Клиент:

Часть, которая отправляет голос на сервер

     public void captureAudio()
     {


      Runnable runnable = new Runnable(){

     public void run()
     {
          first=true;
          try {
           final AudioFileFormat.Type fileType = AudioFileFormat.Type.AU;                      
           final AudioFormat format = getFormat();
           DataLine.Info info = new DataLine.Info(TargetDataLine.class, format);
           line = (TargetDataLine)AudioSystem.getLine(info);               
           line.open(format);
           line.start();
                int bufferSize = (int) format.getSampleRate()* format.getFrameSize();
                byte buffer[] = new byte[bufferSize];           

                    out = new ByteArrayOutputStream();
                    objectOutputStream = new BufferedOutputStream(socket.getOutputStream());
                    running = true;
                    try {                      
                        while (running) {                         
                            int count = line.read(buffer, 0, buffer.length);
                            if (count > 0) {
                                objectOutputStream.write(buffer, 0, count);
                                out.write(buffer, 0, count);
                                InputStream input = new ByteArrayInputStream(buffer);
                                final AudioInputStream ais = new AudioInputStream(input, format, buffer.length /format.getFrameSize());

                            }                           
                        }
                        out.close();
                        objectOutputStream.close();
                    }
                    catch (IOException e) {                    
                        System.exit(-1);
                        System.out.println("exit");
                    }
          }
          catch(LineUnavailableException e) {
            System.err.println("Line Unavailable:"+ e);
            e.printStackTrace();
            System.exit(-2);
          }
          catch (Exception e) {
           System.out.println("Direct Upload Error");
           e.printStackTrace();
          }
     }

     };

     Thread t = new Thread(runnable);
     t.start();

     }

Часть, которая получает байты данных с сервера

    private void playAudio() {
     //try{


    Runnable runner = new Runnable() {

    public void run() {
        try {
            InputStream in = socket.getInputStream();
            Thread playTread = new Thread();

            int count;
            byte[] buffer = new byte[100000];
            while((count = in.read(buffer, 0, buffer.length)) != -1) {

                PlaySentSound(buffer,playTread);
            }
        }
        catch(IOException e) {
                System.err.println("I/O problems:" + e);
                System.exit(-3);
        }
      }
    };

    Thread playThread  = new Thread(runner);
    playThread.start();
  //}
  //catch(LineUnavailableException e) {
   //System.exit(-4);
  //}
    }//End of PlayAudio method

    private void PlaySentSound(final byte buffer[], Thread playThread)
    {

    synchronized(playThread)
    {

    Runnable runnable = new Runnable(){

    public void run(){
        try
        {

                InputStream input = new ByteArrayInputStream(buffer);
                final AudioFormat format = getFormat();
                final AudioInputStream ais = new AudioInputStream(input, format, buffer.length /format.getFrameSize());
                DataLine.Info info = new DataLine.Info(SourceDataLine.class, format);
                sline = (SourceDataLine)AudioSystem.getLine(info);
                sline.open(format);
                sline.start();              
                Float audioLen = (buffer.length / format.getFrameSize()) * format.getFrameRate();

                int bufferSize = (int) format.getSampleRate() * format.getFrameSize();
                byte buffer2[] = new byte[bufferSize];
                int count2;


                ais.read( buffer2, 0, buffer2.length);
                sline.write(buffer2, 0, buffer2.length);
                sline.flush();
                sline.drain();
                sline.stop();
                sline.close();  
                buffer2 = null;


        }
        catch(IOException e)
        {

        }
        catch(LineUnavailableException e)
        {

        }
    }
    }; 
   playThread = new Thread(runnable);
   playThread.start();
   }


   }

Ответы [ 2 ]

4 голосов
/ 30 марта 2012

В дополнение к ответу HefferWolf, я бы добавил, что вы тратите много пропускной способности, посылая аудиофрагменты, которые вы читаете с микрофона.Вы не говорите, ограничено ли ваше приложение локальной сетью, но если вы работаете через Интернет, при передаче / получении звука обычно сжимают / распаковывают.

Обычно используемая схема сжатия - это кодек SPEEX (реализация Java доступна здесь ), который относительно прост в использовании, несмотря на то, что документация выглядит немного страшно, если вы не знакомы с сэмплированием / сжатием звука.

На стороне клиента вы можете использовать org.xiph.speex.SpeexEncoder для кодирования:

  • Используйте SpeexEncoder.init() для инициализации кодера (это должно соответствовать частоте дискретизации, количеству каналови порядковый номер вашего AudioFormat), а затем
  • SpeexEncoder.processData() для кодирования кадра,
  • SpeexEncoder.getProcessedDataByteSize() и SpeexEncoder.getProcessedData() для получения закодированных данных

На стороне клиента используйте org.xiph.speex.SpeexDecoder для декодирования полученных вами кадров:

  • SpeexDecoder.init() для инициализации декодера с использованием тех же параметров, что и для кодера,
  • SpeexDecoder.processData() длядекодировать кадр,
  • SpeexDecoder.getProcessedDataByteSize() и SpeexDecoder.getProcessedData() тo получить закодированные данные

Здесь я описал немного больше.Например, вам придется разбивать данные на правильный размер для кодирования, который зависит от частоты дискретизации, каналов и битов на выборку, но вы увидите резкое снижение количества байтов, которые вы отправляете, по сравнению ссеть.

4 голосов
/ 11 октября 2011

Вы разбиваете звуковые пакеты на куски по 1000000 байт совершенно случайным образом и воспроизводите их на стороне клиента, не принимая во внимание частоту дискретизации и размер кадра, которые вы рассчитали на стороне сервера, так что в итоге вы разбиваете мир звукадва, которые принадлежат друг другу.

Вам необходимо декодировать те же порции на отправке с сервера, которые вы отправляете на стороне клиента.Может быть, проще отправить их, используя http multipart (где разделение данных довольно просто), а затем сделать это обычным способом через сокеты.Самый простой способ - использовать http-клиент apache commons, посмотрите здесь: http://hc.apache.org/httpclient-3.x/methods/multipartpost.html

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...