Как использовать матрицу lookAt для вычисления луча в трассировке лучей? - PullRequest
2 голосов
/ 13 июня 2019

Как я понимаю, метод lookat - это один из самых простых способов размещения / поворота камеры в сцене.Поэтому я реализовал Матрицу, доступную для (https://www.scratchapixel.com/lessons/mathematics-physics-for-computer-graphics/lookat-function)), в коде моей трассировки лучей, но я понятия не имею, как использовать ее для вычисления лучей.

По сути, я помещаю камеру внегативы Z, отправьте луч к положительному Z и выберите пиксель, повторяющий X и Y моей плоскости обзора. Это легко, потому что плоскость обзора находится перед камерой, и я должен просто назначить X и Y моих итераций лучупункт назначения X и Y. Однако я хотел бы иметь возможность посылать луч в любую часть пространства.

Не могли бы вы помочь мне понять, как это сделать?

Спасибо!

Что я делаю в основном:

{        
    double deg = 50.;
    double rad = deg / (180.0 / M_PI);
    double distance = (WIDTH / 2) * (cotan(rad / 2));
    ray.orig.x = HEIGH / 2.0;
    ray.orig.y = WIDTH / 2.0;
    ray.orig.z = -distance;
    y = -1;
    while (++y <= HEIGH)
    {
        x = -1;
        while (++x <= WIDTH)
        {
            ray.dest.x = x - ray.orig.x;
            ray.dest.y = y - ray.orig.y;
            ray.dest.z = 0. - ray.orig.z;
            ray.dest = ve_normalize(&ray.dest);
            check_objects(c, &ray, 0);
            add_diffuse_light(c);
            put_pixel(c, &x, &y);
        }
    }
}

Функции для работы с матрицей lookat:

t_lookat    lookati(t_vector *from, t_vector *to)
{
    t_lookat    lookat;
    t_vector    fo;
    t_vector    ri;
    t_vector    up;

    t_vector tmp;
    tmp.x = 0; tmp.y = 1; tmp.z = 0;
    fo = ve_subtraction(from, to);
    fo = ve_normalize(&fo);
    ri = ve_cross(&tmp, &fo);
    ri = ve_normalize(&ri);
    up = ve_cross(&fo, &ri);
    up = ve_normalize(&up);

    lookat.ri.x = ri.x;
    lookat.ri.y = ri.y;
    lookat.ri.z = ri.z;
    lookat.up.x = up.x;
    lookat.up.y = up.y;
    lookat.up.z = up.z;
    lookat.fo.x = fo.x;
    lookat.fo.y = fo.y;
    lookat.fo.z = fo.z;
    lookat.fr.x = from->x;
    lookat.fr.y = from->y;
    lookat.fr.z = from->z;

    return(lookat);
}

t_vector    orientate(t_vector *a, t_vector *from, t_vector *to)
{
    t_lookat k;

    k = lookati(from, to);
    t_vector orientate;

    orientate.x = a->x * k.ri.x + a->y * k.up.x + a->z * k.fo.x + a->x * k.fr.x;
    orientate.y = a->x * k.ri.y + a->y * k.up.y + a->z * k.fo.y + a->x * k.fr.y;
    orientate.z = a->x * k.ri.z + a->y * k.up.z + a->z * k.fo.z + a->x * k.fr.z;

    return(orientate);
}

1 Ответ

0 голосов
/ 15 июня 2019

Спасибо, ребята, наконец-то я решил проблему, прочитав это руководство (https://steveharveynz.wordpress.com/2012/12/20/ray-tracer-part-two-creating-the-camera), которое предлагает нормализовать координаты (например, диапазон пикселей пользователя "Spektre") без использования матрицы.

Ps.

typedef struct  s_vector
{
    double      x;
    double      y;
    double      z;
}               t_vector;

typedef struct  s_lookat
{
    t_vector    ri; //right vector
    t_vector    up; // up
    t_vector    fo; // foorward
    t_vector    fr; // eye position
}               t_lookat;
...