Я относительно новичок в разработке Android и только что закончил вводный курс Google Udacity. Все соответствующие репозитории, из которых я пытался поучиться для этого проекта, используют многоактивную архитектуру, потому что они созданы за 3 года go, и в качестве стартера я сначала пытаюсь следовать официальной архитектуре одиночного действия.
Могу ли я получить представление о том, как должна выглядеть архитектура моего приложения (необходимы фрагменты / модели представления / навигация)? Вот общее описание того, чего я пытаюсь достичь:
-> Камера открывается при запуске приложения (я использовал API Camera2 в MainActivity)
-> Кнопка захвата загружает предварительный просмотр изображение и значок буфера во время его обработки
-> Модель Tflite используется в фоновом режиме для обработки изображения и возвращает метку после завершения
-> Значок буфера исчезает и пользовательский интерфейс обновляется с метками и процентами достоверности для каждой метки
-> Пользователь может сохранить показанное изображение или нажать кнопку «Назад», которая перенаправляет обратно в камеру SurfaceView
Кроме того, два последних вопроса:
- Следует ли мне создать ViewModel для обработки разрешений и процессов Camera2 API?
- Нужен ли мне PreviewFragment для изображения, когда я просто скрываю SurfaceView после того, как изображение было снято
Извините за длинный пост, я знаю, что это довольно сложно для моего первого проекта, но я хотел поработать над этим грехом Когда я освоил компьютерное зрение в Python, идея поначалу не казалась такой уж пугающей.