Из того, что я понимаю, он проходит через тот же механизм. Просто создайте свое обычное переопределение onSearchRequested
в бэкэнде, затем добавьте аннотацию к своему диалогу или виджету с помощью функции голосового поиска , как описано здесь .
Используя их пример, что-то подобное должно войти в ваш веб-интерфейс:
<?xml version="1.0" encoding="utf-8"?>
<searchable xmlns:android="http://schemas.android.com/apk/res/android"
android:label="@string/search_label"
android:hint="@string/search_hint"
android:voiceSearchMode="showVoiceSearchButton|launchRecognizer" >
</searchable>
Когда запрашивается голосовой поиск, его данные передаются через механизм поиска и на ваш обратный вызов onSearchRequested
, что позволяет вам манипулировать данными по мере необходимости.
Редактировать: Фактическая проблема, которая здесь решается, заключается в том, чтобы дифференцировать , когда голосовой поиск используется в виджете поиска, по сравнению с тем, когда был вызван стандартный ввод текста.
К сожалению, похоже, Google не предоставляет эти возможности, если вы не свернули свой собственный Recognizer или не попытались извлечь из поискового пакета свойства, которые имеют форму голосовых данных. Последний случай недокументирован и, по крайней мере, по-видимому, также не поддерживается.