Итак, я запустил tensorflow object detection API
на Android, и, просматривая код, я заметил, что перед обработкой кадров, снятых с камеры, это преобразование, которое выглядит следующим образом в CameraActivity.java
:
imageConverter =
new Runnable() {
@Override
public void run() {
ImageUtils.convertYUV420SPToARGB8888(bytes, previewWidth, previewHeight, rgbBytes);
}
};
Я попытался найти его, и я понял только разницу между этими двумя типами, но я не мог понять, почему это преобразование необходимо (или предпочтительнее) ..
Это преобразование, так как онопроисходит в режиме реального времени и для каждого кадра будет влиять на предварительный просмотр или время обработки?
Любая информация или объяснения приветствуются, даже если они базовые