QVideoFrame :: map () вылетает - PullRequest
       34

QVideoFrame :: map () вылетает

0 голосов
/ 29 июня 2018

Я пытаюсь получить изображения с камеры, используя QCamera. Я подумал, что должен извлечь из QAbstractVideoSurface и реализовать present(), где QVideoFrame, представляющий текущее изображение, снятое камерой, отправляется в качестве параметра.

Поскольку мне нужно выполнить некоторую обработку, я попытался map() мой кадр, получить данные с помощью bits(), сделать все, что мне нужно, затем unmap(). Однако у меня сбой на map()

Вот ошибки, которые я получаю:

W libTest.so: (null):0 ((null)): Unsupported viewfinder pixel format
D SensorManager: registerListener :: 6, LSM6DSL Acceleration Sensor, 200000, 0,
E libEGL  : call to OpenGL ES API with no current context (logged once per thread)
E GLConsumer: [SurfaceTexture-0-546-0] attachToContext: invalid current EGLDisplay
F libc    : Fatal signal 11 (SIGSEGV), code 1, fault addr 0x4 in tid 663 (qtMainLoopThrea)

Что я делаю не так?

Вот полный код приложения:

///////////////////////////////////////////////
//main.cpp
///////////////////////////////////////////////

#include <QGuiApplication>
#include <QQmlApplicationEngine>
#include <QQmlContext>

#include "camera_engine.h"

int main(int argc, char *argv[])
{
    QCoreApplication::setAttribute(Qt::AA_EnableHighDpiScaling);

    QGuiApplication app(argc, argv);
    QQmlApplicationEngine engine;

    CameraEngine camEngine;
    engine.rootContext()->setContextProperty("cameraEngine", &camEngine);

    engine.load(QUrl(QStringLiteral("qrc:/main.qml")));
    if (engine.rootObjects().isEmpty())
        return -1;

    return app.exec();
}


///////////////////////////////////////////////
//camera_engine.h
///////////////////////////////////////////////

#ifndef __CAMERA_ENGINE_H__
#define __CAMERA_ENGINE_H__

#include <QCamera>

#include "image_reader.h"

class CameraEngine : public QObject {
    Q_OBJECT
public:
    explicit CameraEngine(QCamera::Position pos = QCamera::BackFace);
    ~CameraEngine();

public slots:
    void start();
private:
    QCamera mCamera;
    ImageReader mImageReader;
};

#endif  // __CAMERA_ENGINE_H__


///////////////////////////////////////////////
//camera_engine.cpp
///////////////////////////////////////////////

#include "camera_engine.h"

CameraEngine::CameraEngine(QCamera::Position pos) : mCamera(pos)
{
    mCamera.setViewfinder(&mImageReader);

    QCameraViewfinderSettings viewFinderSettings;
    viewFinderSettings.setResolution(640, 480);
    viewFinderSettings.setMinimumFrameRate(30);
    viewFinderSettings.setMaximumFrameRate(30);
    viewFinderSettings.setPixelFormat(QVideoFrame::Format_RGB24);
    mCamera.setViewfinderSettings(viewFinderSettings);
}

CameraEngine::~CameraEngine()
{
    if (mCamera.state() == QCamera::ActiveState) {
        mCamera.stop();
    }
}

void CameraEngine::start()
{
    mCamera.start();
}


///////////////////////////////////////////////
//image_reader.h
///////////////////////////////////////////////

#ifndef CAMERA_IMAGE_READER_H
#define CAMERA_IMAGE_READER_H

#include <QAbstractVideoSurface>

class ImageReader : public QAbstractVideoSurface {
    Q_OBJECT
public:
    ImageReader() = default;
    ~ImageReader() = default;

    virtual bool present(const  QVideoFrame& frame);
    virtual QList<QVideoFrame::PixelFormat> supportedPixelFormats(QAbstractVideoBuffer::HandleType type) const;
};

#endif  // CAMERA_IMAGE_READER_H


///////////////////////////////////////////////
//image_reader.cpp
///////////////////////////////////////////////

#include "image_reader.h"
#include <QDebug>

bool ImageReader::present(const QVideoFrame &frame)
{
    QVideoFrame currentFrame = frame;

    currentFrame.map(QAbstractVideoBuffer::ReadOnly); //crashes here
    // Do something
    currentFrame.unmap();

    return true;
}

QList<QVideoFrame::PixelFormat> ImageReader::supportedPixelFormats(QAbstractVideoBuffer::HandleType type) const
{
    Q_UNUSED(type)
    return QList<QVideoFrame::PixelFormat>() << QVideoFrame::Format_RGB24;
}

///////////////////////////////////////////////
//main.qml
///////////////////////////////////////////////

import QtQuick 2.11
import QtQuick.Controls 2.2

ApplicationWindow {
    id: window

    visible: true
    width: 640
    height: 480

    Component.onCompleted: cameraEngine.start()
}

Редактировать: Итак, я думаю, что это может быть потому, что мой QVideoFrame хранится в виде текстуры OpenGL, а моя функция present() может не работать в потоке OpenGL, таким образом, не находя контекст ES OpenGL. Есть ли способ убедиться, что он работает в нужном потоке?

Edit2: я нашел это: http://doc.qt.io/qt-5/qtquick-scenegraph-openglunderqml-example.html

Может быть, я смогу адаптировать этот код, чтобы получить действительный контекст OpenGL ES. К сожалению, у меня нет времени, чтобы сделать это сейчас. Я попробую в этот понедельник, если у кого-то не будет лучшего предложения, и расскажу вам результаты.

Edit3: Так что, видимо, мое решение было не лучшим, я получаю сбой (SIGSEGV) на initializeOpenGLFunctions();

Я видел ответ Антонио Диаса, используя VideoOutput с функцией grabToImage, попробовал его, и он, кажется, работает, но, если я правильно понимаю, grabToImage "рисует" VideoOutput в CPU памяти, и я теряю некоторые метаданные, которые планировал получить с помощью QMediaMetaData в процессе.

Я также пытался использовать NDK напрямую, но для камеры требуется уровень API не менее 24, и даже после установки всех соответствующих настроек, которые я обнаружил, он, похоже, не использует его.

Edit4: я на самом деле не знаю, что я сделал, но моя программа закончила с использованием правильного уровня API, поэтому сейчас я перейду к решению NDK.

Ответы [ 2 ]

0 голосов
/ 05 июля 2018

Мне наконец удалось заставить это работать. Очевидно, QCamera имеет некоторые проблемы на Android, поэтому мне пришлось использовать QML Camera, отобразить его с VideoOutput и применить фильтр, через который я могу получать свои изображения.

Этот фильтр состоит из двух частей: одна из QAbstractVideoFilter, другая из QVideoFilterRunnable.

Вот код:

////////////////////////////////////////////////////////////////////
// main.cpp
////////////////////////////////////////////////////////////////////

#include <QGuiApplication>
#include <QQmlApplicationEngine>

#include "myfilter.hpp"

int main(int argc, char *argv[])
{
    QCoreApplication::setAttribute(Qt::AA_EnableHighDpiScaling);

    QGuiApplication app(argc, argv);
    QQmlApplicationEngine engine;

    qmlRegisterType<MyFilter>("example.myfilter", 1, 0, "MyFilter");

    engine.load(QUrl(QStringLiteral("qrc:/main.qml")));
    if (engine.rootObjects().isEmpty())
        return -1;

    return app.exec();
}


////////////////////////////////////////////////////////////////////
// myfilter.hpp
////////////////////////////////////////////////////////////////////

#ifndef MYFILTER_H
#define MYFILTER_H

#include <QAbstractVideoFilter>

class MyFilterRunnable : public QVideoFilterRunnable {
public:
    QVideoFrame run(QVideoFrame *input, const QVideoSurfaceFormat &surfaceFormat, RunFlags flags);
};


class MyFilter : public QAbstractVideoFilter
{
public:
    QVideoFilterRunnable* createFilterRunnable();
};

#endif // MYFILTER_H

////////////////////////////////////////////////////////////////////
// myfilter.cpp
////////////////////////////////////////////////////////////////////

#include "myfilter.hpp"

#include <QOpenGLContext>
#include <QOpenGLFunctions>

QVideoFrame MyFilterRunnable::run(QVideoFrame *input, const QVideoSurfaceFormat &surfaceFormat, QVideoFilterRunnable::RunFlags flags)
{
    QImage img(input->width(), input->height(), QImage::Format_RGBA8888);
    bool success = false;
    if (input->handleType() == QAbstractVideoBuffer::GLTextureHandle) {
        GLuint textureId = input->handle().toUInt();
        QOpenGLContext *ctx = QOpenGLContext::currentContext();
        QOpenGLFunctions *f = ctx->functions();
        GLuint fbo;
        f->glGenFramebuffers(1, &fbo);
        GLuint prevFbo;
        f->glGetIntegerv(GL_FRAMEBUFFER_BINDING, (GLint *) &prevFbo);
        f->glBindFramebuffer(GL_FRAMEBUFFER, fbo);
        f->glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_TEXTURE_2D, textureId, 0);
        f->glReadPixels(0, 0, input->width(), input->height(), GL_RGBA, GL_UNSIGNED_BYTE, img.bits());
        f->glBindFramebuffer(GL_FRAMEBUFFER, prevFbo);
        success = true;
    } // else handle other types

    if( success ) {
        // Process image
        return QVideoFrame(img);
    } else {
        return *input; //Could not apply filter, return unmodified input
    }
}

QVideoFilterRunnable *MyFilter::createFilterRunnable()
{
    return new MyFilterRunnable;
}


////////////////////////////////////////////////////////////////////
// main.qml
////////////////////////////////////////////////////////////////////

import QtQuick 2.11
import QtQuick.Controls 2.2
import QtMultimedia 5.9
import example.myfilter 1.0

ApplicationWindow {
    id: window

    visible: true
    width: 640
    height: 480

    Camera {
        id: camera
    }
    MyFilter {
        id: filter
    }
    VideoOutput {
        source: camera
        autoOrientation: true
        filters: [ filter ]
        anchors.fill: parent
    }
}

(Моя run реализация адаптирована отсюда: http://code.qt.io/cgit/qt/qtmultimedia.git/tree/examples/multimedia/video/qmlvideofilter_opencl/rgbframehelper.h)

0 голосов
/ 30 июня 2018

... если у кого-то нет лучшего предложения ...

Мой простой способ захвата изображений из Camera объекта в QML - это вызов grabToImage и передача изображения в C ++ для его обработки!

Этот метод не обязывает вас обрабатывать все кадры активной камеры, вы можете взять его только тогда, когда вы готовы или хотите этого!

Имейте в виду, особенно в Android, что объект VideoOutput должен быть видимым, чтобы захватывать что-либо, например, вы не можете захватывать изображения с выключенным экраном на Android. Однако вам не нужно заполнять экран, вам нужно только выделить некоторую область экрана для VideoOutput и держать его видимым и сверху.

Также обратите внимание, что уменьшение размера VideoOutput не уменьшает максимального размера, который вы можете захватить, например, вы можете захватить изображение 1280x720 с VideoOutput с меньшим размером.

Кроме того, соотношение сторон должно быть сохранено при изменении размера VideoOutput, чтобы сохранить соотношение сторон изображения.

Код:

Вы можете увидеть полный исходный код здесь !

main.cpp:

#include <QGuiApplication>
#include <QQmlApplicationEngine>
#include "camerahelper.h"

int main(int argc, char *argv[])
{
#if defined(Q_OS_WIN)
    QCoreApplication::setAttribute(Qt::AA_EnableHighDpiScaling);
#endif

    QGuiApplication app(argc, argv);

    QQmlApplicationEngine engine;
    engine.load(QUrl(QStringLiteral("qrc:/main.qml")));
    if (engine.rootObjects().isEmpty())
        return -1;

    CameraHelper camera_helper;
    camera_helper.start(engine.rootObjects().first());

    return app.exec();
}

camerahelper.h:

#ifndef CAMERAHELPER_H
#define CAMERAHELPER_H

#include <QtCore>
#include <QtGui>
#include <QtQuick>

class CameraHelper : public QObject
{
    Q_OBJECT
public:
    explicit CameraHelper(QObject *parent = nullptr);

signals:

public slots:
    void start(QObject *qml_obj);
    void grab();

private slots:
    void frameReady(const QVariant &frame_variant);

private:
    QObject *m_qml_obj;
};

#endif // CAMERAHELPER_H

camerahelper.cpp:

#include "camerahelper.h"

CameraHelper::CameraHelper(QObject *parent) : QObject(parent)
{

}

void CameraHelper::start(QObject *qml_obj)
{
    m_qml_obj = qml_obj;

    //Connect the QML frameReady SIGNAL to our frameReady SLOT
    connect(m_qml_obj, SIGNAL(frameReady(QVariant)), this, SLOT(frameReady(QVariant)));

    //Do the first grab
    grab();
}

void CameraHelper::grab()
{
    //Size of the captured image
    QSize size = QSize(320, 240);

    //Pass grab size to QML and wait for captured image on the frameReady SIGNAL
    QMetaObject::invokeMethod(m_qml_obj, "grab", Q_ARG(QVariant, size.width()), Q_ARG(QVariant, size.height()));
}

void CameraHelper::frameReady(const QVariant &frame_variant)
{
    QQuickItemGrabResult *grab_result = qvariant_cast<QQuickItemGrabResult*>(frame_variant); //Cast from QVariant
    QImage frame = grab_result->image(); //Get the QImage
    grab_result->deleteLater(); //Release QQuickItemGrabResult

    //Depending on OS the image can have different formats,
    //use convertToFormat to unify all possibles formats to one
    frame = frame.convertToFormat(QImage::Format_RGB32);

    //Frame is ready to use

    grab(); //Do the next frame grab
}

main.qml:

import QtQuick 2.10
import QtQuick.Window 2.10
import QtMultimedia 5.8

Window
{
    visible: true
    color: "black"
    width: 640
    height: 480
    title: qsTr("Hello World")

    signal frameReady(var frame)

    Camera
    {
        id: camera
        viewfinder.resolution: "320x240"
    }

    VideoOutput
    {
        id: videoOutput
        source: camera
        autoOrientation: true
        visible: true
        anchors.fill: parent
    }

    function grab(grab_width, grab_height)
    {
        if (!visible)
            return

        videoOutput.grabToImage(function(frame)
        {
            frameReady(frame) //Emit frameReady SIGNAL
        }, Qt.size(grab_width, grab_height))
    }
}
...