Я борюсь с обработкой сигналов в реальном времени с помощью pyaudio, которая нацелена на; вводите звук с микрофона и одновременно выводите обработанный сигнал аудио. Я понятия не имею, чтобы преобразовать ndarray в буфер для правильного вывода звука. Вот код с комментарием:
stream = p.open(format=pyaudio.paInt16,
channels=1,
rate=44100,
input=True,
output=True,
frames_per_buffer=2048)
for i in range(0, 100):
data = stream.read(CHUNK) #get data with 'bytes' type
indata = np.frombuffer(data, dtype='int16')/32768.0 #convert data to ndarray
processed = audio_processing(indata) #do some process
p_bytes = (processed*32768.0).astype('int16') #here is the thing.
output = stream.write(p_bytes)
Я хочу, чтобы p_bytes правильно распознавался в stream.write () Заранее спасибо.