Итак, у меня есть приложение, и оно работает нормально, но я бы хотел добавить APL, чтобы пользователь мог видеть изображения, пока он / она слушает голос.
В каждом уроке я вижу, что у них есть 2 функции в намерениях:
canHandle( handlerInput ) {
return handlerInput.requestEnvelope.request.type === 'LaunchRequest';
}
handle( handlerInput ) {
// Here we can greet the user or whatever, depending on the handler we're using.
}
В этой второй функции необходимо поместить код, чтобы проверить, может ли пользователь просматривать изображения на устройстве, и, если это так, добавить документ json с изображениями, например:
handle( handlerInput ) {
if(supportsAPL(handlerInput)) {
handlerInput.responseBuilder.addDirective({
type: 'Alexa.Presentation.APL.RenderDocument',
document: require('./launchrequest.json')
})
}
}
Моя проблема сейчас в том, что все, что я вкладываю в эти функции ... Это никогда не выполняется. Я пробовал с журналами и голосовыми сообщениями, и они просто не отображаются.
Почему это так, и что я могу сделать, чтобы заставить работать этот APL? Похоже, мне определенно нужна переменная handlerInput. Как еще я могу получить это, если это не через эти функции?