Используя драйверы CL NUI Kinect, преобразуйте цвет глубины в фактическое относительное расстояние - PullRequest
5 голосов
/ 21 января 2011

Я играю с драйвером Kinect, CL NUI и пытаюсь получить относительную глубину элементов.

Библиотека предоставляет способ получить изображение, отображающее глубину объекта на экране.Вот пример:
Kinect Depth Image

Существует ли простой способ преобразования цвета пикселя в глубину изображения?Например, самый близкий цвет может быть глубиной 0, а самый дальний цвет - глубиной 1.

Кто-нибудь знает, как это сделать?

Я нашел эти объяснения, какпреобразовать данные глубины в цвет, то, что я хочу, это обратное:

float RawDepthToMeters(int depthValue)
{
    if (depthValue < 2047)
    {
        return float(1.0 / (double(depthValue) * -0.0030711016 + 3.3309495161));
    }
    return 0.0f;
}

Vec3f DepthToWorld(int x, int y, int depthValue)
{
    static const double fx_d = 1.0 / 5.9421434211923247e+02;
    static const double fy_d = 1.0 / 5.9104053696870778e+02;
    static const double cx_d = 3.3930780975300314e+02;
    static const double cy_d = 2.4273913761751615e+02;

    Vec3f result;
    const double depth = RawDepthToMeters(depthValue);
    result.x = float((x - cx_d) * depth * fx_d);
    result.y = float((y - cy_d) * depth * fy_d);
    result.z = float(depth);
    return result;
}

Vec2i WorldToColor(const Vec3f &pt)
{
    static const Matrix4 rotationMatrix(
                            Vec3f(9.9984628826577793e-01f, 1.2635359098409581e-03f, -1.7487233004436643e-02f),
                            Vec3f(-1.4779096108364480e-03f, 9.9992385683542895e-01f, -1.2251380107679535e-02f),
                            Vec3f(1.7470421412464927e-02f, 1.2275341476520762e-02f, 9.9977202419716948e-01f));
    static const Vec3f translation(1.9985242312092553e-02f, -7.4423738761617583e-04f, -1.0916736334336222e-02f);
    static const Matrix4 finalMatrix = rotationMatrix.Transpose() * Matrix4::Translation(-translation);

    static const double fx_rgb = 5.2921508098293293e+02;
    static const double fy_rgb = 5.2556393630057437e+02;
    static const double cx_rgb = 3.2894272028759258e+02;
    static const double cy_rgb = 2.6748068171871557e+02;

    const Vec3f transformedPos = finalMatrix.TransformPoint(pt);
    const float invZ = 1.0f / transformedPos.z;

    Vec2i result;
    result.x = Utility::Bound(Math::Round((transformedPos.x * fx_rgb * invZ) + cx_rgb), 0, 639);
    result.y = Utility::Bound(Math::Round((transformedPos.y * fy_rgb * invZ) + cy_rgb), 0, 479);
    return result;
}

Моя матричная математика слабая, и я не уверен, как отменить вычисления.

Ответы [ 2 ]

3 голосов
/ 24 января 2011

Я нашел решение.

Значение глубины сохраняется в изображении CLNUIDevice.GetCameraDepthFrameRAW. Цвет этого изображения создается из значения глубины одиннадцати бит. И.Е. у вас есть 24 бита для цвета RGB (32, если ARGB). Чтобы получить глубину, вам нужно обрезать ненужные биты следующим образом:

    private int colorToDepth(Color c) {
        int colorInt = c.ToArgb();

        return (colorInt << 16) >> 16;
    }

Вы используете 16, потому что 11-битное число 0 дополняется для 16-битного места. И.Е. у вас есть число, которое выглядит следующим образом: 1111 1111 0000 0 ### #### #### где 1 - альфа-канал, нули - заполнение, а «#» - фактическое значение. Сдвиг левой 16 оставляет вас с 0000 0 ### #### #### 0000 0000, который вы хотите отодвинуть назад, сдвиг вправо 16 раз: 0000 0000 0000 0 ### ##### ####

0 голосов
/ 24 января 2011

Поправьте меня, если я ошибаюсь, но, насколько я понимаю, ваш код получает массив глубин от Kinect, преобразует его в объекты "мира" (с координатами x, y, z), используя DepthToWorld, а затем преобразует его вцветной 2D массив с использованием WorldToColor.Отсюда вы пытаетесь получить расстояние (в метрах) каждого пикселя относительно Kinect.Правильно?

Так почему бы вам не взять исходный массив глубин, полученный от Kinect, и вызвать функцию RawDepthToMeters для каждого из пикселей?

Инвертировать операции, выполняемыеваш код перед огромной потерей производительности ...

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...