Я изучаю простое распознавание звука и сейчас редактирую label_wav.py .В оригинальном случае мы вводим волновой файл, и график предсказывает метку (между ними он вычисляет спектр, mfcc внутри графика).Теперь я ищу ввод mfcc напрямую, а не ввод волнового файла. Запустите график , введя тензор mfcc.
# mfccs: Tensor("strided_slice:0", shape=(1, 98, 40), dtype=float32)
mfcc_input_layer_name = 'Reshape:0'
with tf.Session() as sess:
predictions, = sess.run(softmax_tensor, {mfcc_input_layer_name: mfcc})
После небольшого поиска, я нашел некоторое обсуждение в git и создал session_handle .
# mfccs: Tensor("strided_slice:0", shape=(1, 98, 40), dtype=float32)
mfcc_input_layer_name = 'Reshape:0'
with tf.Session() as sess:
h = tf.get_session_handle(mfccs)
h = sess.run(h)
predictions, = sess.run(softmax_tensor, {mfcc_input_layer_name: h})
Код работает, как и ожидалось , но мне интересно, может ли быть лучший способ справиться с тензором, а не создавать дескриптор и затем передавать его?