Мое приложение поддерживает своего рода жест перетаскивания / панорамирования: этот жест начинается после небольшой задержки, когда пользователь нажимает на экран одним пальцем и продолжает нажимать.Затем пользователь может перетаскивать панорамирование по экрану, удерживая палец на экране.Жест заканчивается, когда пользователь поднимает палец.
Пока пользователь перетаскивает / панорамирует экран, пользовательский интерфейс постоянно обновляется.Помимо прочего, метка постоянно обновляется текстом, который содержит определенную информацию о текущем местоположении жеста.Я хотел бы написать тест пользовательского интерфейса, который не только имитирует жест, но и проверяет, как обновляется пользовательский интерфейс во время выполнения жеста.
Я нашел класс XCUICoordinate
, который имеет pressForDuration:thenDragToCoordinate:
метод.Это выглядит так, как если бы это позволило мне смоделировать жест, но я никак не могу понять, как я могу, например, проверить, что упомянутая метка содержит определенный текст во время выполнения жеста .
Существует ли API, позволяющий мне написать желаемый тест пользовательского интерфейса?
Мое приложение написано на Objective-C, но ответ Swift также приемлем.