Я изучаю разработку нового метода ввода на платформе Android, который бы эмулировал сенсорный ввод экрана. Можно ли создать службу, которая может прямо или косвенно взаимодействовать с сенсорным API для достижения этой цели?
Особенности:
Взаимодействия будут происходить в виде отслеживания цвета с камеры, которая преобразуется в координаты x / y, и касаются событий 0/1. Возможно ли, чтобы они взаимодействовали с сенсорным экраном, как если бы он касался самого экрана?
Я понимаю, что могут быть проблемы с разрешениями при таком подходе к контролю инъекций или крейтингу?
Также это техническое упражнение для экспериментального отчета, а не для распространяемого приложения / части программного обеспечения, поэтому root / модификации не являются проблемой.
Я искал безрезультатно по этому вопросу (по крайней мере, не на платформе Android), и я хотел бы выяснить выполнимость / сложность проекта, прежде чем приступить к нему, чтобы любой вклад был бы очень признателен!