Я рассчитываю реализовать что-то для пользователей озвучивания, похожее на то, как Apple обрабатывает мини-слой в своем приложении Music.
В мини-слое есть ряд элементов доступности: обложка альбома, метаданные трека, кнопки воспроизведения и перемотки вперед. Когда пользователь впервые выбирает элемент в мини-слое, голос за кадром читает «Мини-слой; дважды нажмите, чтобы развернуть мини-слой», прежде чем дать метку для выбранного элемента. Но если вы перемещаетесь между элементами в мини-слое, он просто даст метку, черту и подсказку каждого элемента. Он будет предоставлять метку и подсказку мини-слоя (уровня контейнера) только тогда, когда вы переместились из элемента вне мини-слоя в элемент внутри мини-слоя.
Возможность предоставления такого рода контекста пользователям голосовой связи кажется хорошим дизайном UX, но как это реализовано? Я понимаю, как группировать элементы, включая их в массив myItem.accessibilityElements
, но не знаю, как определить, является ли текущий / предыдущий элемент, выбранный пользователем, частью того же контейнера.