Я бы хотел попросить вас рассказать о проблеме, которую я хочу решить.
На данный момент у меня есть два приложения opencv:
приложение A : где я отслеживаю объект с помощью двух типов алгоритмов и каждый раз сохраняю кадр в файле изображения и контролирую поведение приложения с помощью некоторых команд, которые пишу в оболочки
приложение B : где у меня есть цикл, который каждый раз читает файл изображения и отображает его
Итак, я запускаю эти два приложения вместе, чтобы отслеживать объект с помощью appA и отображать результаты с appB, который читает каждый раз кадры, сохраненные appA на жестком диске.
Я хочу интегрировать приложение B в приложение A, чтобы показать окно (например: http://lnx.mangaitalia.net/window.jpg), чтобы иметь цикл, показывающий изображение в первой области, и использовать кнопки по порядку. давать команды, которые на данный момент я пишу в оболочке .
Как вы думаете, возможно ли отобразить кадры в области с помощью Qt или opengl или wxwidgets?
Какое решение лучше и проще для применения?
На данный момент мое приложение B очень простое:
while(1)
{
Mat img=imread("result.jpg",1);
if(!img.empty())
imshow("HOG",img);
if(waitKey(200)==27) break;
}
Я хочу показать эти кадры в окне, которое также имеет несколько кнопок.
В частности, как вы можете видеть на прикрепленном изображении в этом посте, я хочу создать окно, разделенное на две части: первая, которая отображает кадры, снятые камерой opencv, и вторая часть (или область), которая имеет несколько кнопок ( B1, B2, B3 ..), которые пользователь может нажать, чтобы контролировать поведение приложения.
(В настоящее время я использую переключатель / чехол в appA для захвата клавиш клавиатуры)
Есть пример, основанный на шаблоне, похожем на то, что я хотел бы сделать?
(как изображение jpg, которое я говорил ранее: http://lnx.mangaitalia.net/window.jpg)