Использование iOS (распознавания речи) API в OSX - PullRequest
0 голосов
/ 24 января 2019

Общий вопрос касается выполнения вызовов API iOS на OSX (возможно, с использованием работающего симулятора), однако я буду представлять его из своей собственной справочной информации.

На OSX Dictation (который мне нужен из-за травмы) часто не отвечает, зависает на много-много секунд.

Настолько, что я даже включил в свой .bash_profile скрипт для уничтожения служб:

# can pass foo or 'foo|bar|quux'
function kill_process_or_processes() {
  PROCESS_ID="$( ps -A | grep -E $1 | grep -v 'grep' | awk '{print $1;}' )"
  if [ -n "$PROCESS_ID" ]; then
    kill -9 $PROCESS_ID
    echo 1
  else
    echo 0
  fi
}

function ks() {  # kill speech recognition processes
  while [ $(kill_process_or_processes 'speechrecognitiond|corespeechd') -eq 1 ]; do
    sleep .5
    echo Tick
  done
  echo BOOM!
}

Я должен использовать его более десятка раз в день.

Однако я заметил, что на моем iPhone производительность диктовки намного выше, чем на MacBook Pro.

Погуглил, нахожу:

https://developer.apple.com/documentation/speech?language=objc#topics

Выполните распознавание речи на живом или предварительно записанном аудио и получите транскрипцию, альтернативные интерпретации и уровни достоверности результатов.

iOS> = 10.0

Если бы я только мог использовать этот API в OSX.

Теоретически я считаю, что должен иметь возможность запускать симулятор iPhone на своем рабочем столе и просто передавать вызовы через локальные сетевые сокеты.

Но может ли кто-нибудь увидеть (более чистый) путь через него?

...