Я написал этот код для захвата вокального звука с микрофона и определения его основной частоты с помощью pyaudio и aubio:
import sys
import aubio
from aubio import pitch
import queue
import music21
import pyaudio
import numpy as np
# Open stream.
# PyAudio object.
p = pyaudio.PyAudio()
stream = p.open(format=pyaudio.paFloat32,
channels=1, rate=44100, input=True,
input_device_index=0, frames_per_buffer=512)
q = queue.Queue()
current_pitch = music21.pitch.Pitch()
filename = 'piano.wav'
samplerate = 44100
win_s = 512
hop_s = 512
tolerance = 0.8
pitch_o = pitch("default",win_s,hop_s,samplerate)
#pitch_o.set_unit("")
pitch_o.set_tolerance(tolerance)
# total number of frames read
total_frames = 0
def get_current_note():
pitches = []
confidences = []
current_pitch = music21.pitch.Pitch()
while True:
data = stream.read(hop_s, exception_on_overflow=False)
samples = np.fromstring(data,dtype=aubio.float_type)
pitch = (pitch_o(samples)[0])
#pitch = int(round(pitch))
confidence = pitch_o.get_confidence()
#if confidence < 0.8: pitch = 0.
pitches += [pitch]
confidences += [confidence]
current='Nan'
if pitch>0:
current_pitch.frequency = float(pitch)
current=current_pitch.nameWithOctave
print(pitch,'----',current,'----',current_pitch.microtone.cents)
q.put({'Note': current, 'Cents': current_pitch.microtone.cents,'hz':pitch})
if __name__ == '__main__':
get_current_note()
Теперь мне нужно динамически рисовать частотные линии (анимированные во времени) во времени в визуальной среде, такой как Pygame или что-то еще (не stati c сюжет, как matplotlib!). что-то вроде картинки, которую я прилагаю к этому вопросу.