Получить 3D координаты щелчка мышью в WebGL - PullRequest
0 голосов
/ 09 февраля 2020

Так как информации о webGL на удивление почти нет (или я просто не знаю, как ее искать), у меня есть вопрос о том, как преобразовать координаты мыши в трехмерные координаты, чтобы увидеть, где именно на экране Я щелкаю.

Итак, у меня очень простой скайбокс, камера расположена на [0, 0, 0], и я могу осмотреть его, щелкая и перетаскивая. То, что я хочу сделать, это иметь возможность щелкнуть где-нибудь на этом скайбоксе и знать, где я щелкнул, так как мне нужно поместить аннотацию (некоторый текст или элемент html) в эту позицию. И этот элемент html должен сдвинуться и go исчезнуть, и я поверну в другую сторону. Так что мне нужен способ щелкнуть мышью и выяснить, на какой стороне куба я щелкаю и по каким координатам, чтобы я мог правильно разместить аннотации.

Я использую простой WebGL, Я не использую ТРИ. js или что-нибудь подобное. Поскольку это всего лишь один куб, я могу только предположить, что найти пересечение не будет так сложно и не потребуются дополнительные библиотеки.

1 Ответ

2 голосов
/ 10 февраля 2020

Ну, вы, конечно, правы, что трудно найти пример ?

Обычный шейдер webgl проецирует в 3D с использованием кода типа

gl_Position = matrix * position;

или

gl_Position = projection * modelView * position;

или

gl_Position = projection * view * world * position;

, которые в принципе все одно и то же. Они берут position и умножают его на матрицу, чтобы преобразовать в пространство клипа. Вы должны сделать обратное с go другим способом, занять позицию в пространстве клипа и вернуться в position пространство, которое равно

inverse (projection * view * world) * clipSpacePosition

Итак, возьмите свою 3D-библиотеку и вычислите обратное значение матрица, которую вы передаете в WebGL. Например, здесь приведен код, который вычисляет матрицы для рисования чего-либо с использованием математической библиотеки *1018* twgl

  const fov = 30 * Math.PI / 180;
  const aspect = gl.canvas.clientWidth / gl.canvas.clientHeight;
  const zNear = 0.5;
  const zFar = 10;
  const projection = m4.perspective(fov, aspect, zNear, zFar);

  const eye = [1, 4, -6];
  const target = [0, 0, 0];
  const up = [0, 1, 0];
  const camera = m4.lookAt(eye, target, up);

  const view = m4.inverse(camera);
  const viewProjection = m4.multiply(projection, view);
  const world = m4.rotationY(time);

Для шейдера, который эффективно делает это

  gl_Position = viewProjection * world * position

нам нужно обратное

  const invMat = m4.inverse(m4.multiply(viewProjection, world));

Тогда нам нужен космический луч клип. Мы переходим от 2D к 3D, поэтому мы создадим луч, который прорезает усеченный конус, начиная с zNear и заканчивая zFar, используя -1 и +1 в качестве нашего значения Z

  canvas.addEventListener('mousemove', (e) => {
     const rect = canvas.getBoundingClientRect();
     const x = e.clientX - rect.left;
     const y = e.clientY - rect.top;

     const clipX = x / rect.width  *  2 - 1;
     const clipY = y / rect.height * -2 + 1;

     const start = m4.transformPoint(invMat, [clipX, clipY, -1]);
     const end   = m4.transformPoint(invMat, [clipX, clipY,  1]);

     ... do something with start/end
  });

start и end теперь относительно position (данные в вашей геометрии), так что теперь вам нужно использовать код луча в треугольник в JavaScript, чтобы пройти через все ваши треугольники и посмотреть, пересекает ли луч от начала до конца один или больше ваших треугольников.

Обратите внимание: если все, что вам нужно, это луч в мировом пространстве, а не в пространстве позиций, то вы бы использовали

  const invMat = m4.inverse(viewProjection);

"use strict";

const vs = `
uniform mat4 u_world;
uniform mat4 u_viewProjection;

attribute vec4 position;
attribute vec2 texcoord;
attribute vec4 color;

varying vec4 v_position;
varying vec2 v_texcoord;
varying vec4 v_color;

void main() {
  v_texcoord = texcoord;
  v_color = color;
  gl_Position = u_viewProjection * u_world * position;
}
`;

const fs = `
precision mediump float;

varying vec2 v_texcoord;
varying vec4 v_color;

uniform sampler2D tex;

void main() {
  gl_FragColor = texture2D(tex, v_texcoord) * v_color;
}
`;

const m4 = twgl.m4;
const gl = document.querySelector("#c").getContext("webgl");

// compiles shaders, links, looks up locations
const programInfo = twgl.createProgramInfo(gl, [vs, fs]);

const cubeArrays = twgl.primitives.createCubeVertices(1);
cubeArrays.color = {value: [0.2, 0.3, 1, 1]};
// calls gl.createBuffer, gl.bindBuffer, gl.bufferData
// for each array
const cubeBufferInfo = twgl.createBufferInfoFromArrays(gl, cubeArrays);

const numLines = 50;
const positions = new Float32Array(numLines * 3 * 2);
const colors = new Float32Array(numLines * 4 * 2);
// calls gl.createBuffer, gl.bindBuffer, gl.bufferData
// for each array
const linesBufferInfo = twgl.createBufferInfoFromArrays(gl, {
  position: positions,
  color: colors,
  texcoord: { value: [0, 0], },
});

const tex = twgl.createTexture(gl, {
  minMag: gl.NEAREST,
  format: gl.LUMINANCE,
  src: [
    255, 192,
    192, 255,
  ],
});

let clipX = 0;
let clipY = 0;
let lineNdx = 0;

function render(time) {
  time *= 0.001;
  twgl.resizeCanvasToDisplaySize(gl.canvas);
  gl.viewport(0, 0, gl.canvas.width, gl.canvas.height);

  gl.enable(gl.DEPTH_TEST);
  gl.enable(gl.CULL_FACE);
  gl.clear(gl.COLOR_BUFFER_BIT | gl.DEPTH_BUFFER_BIT);

  const fov = 30 * Math.PI / 180;
  const aspect = gl.canvas.clientWidth / gl.canvas.clientHeight;
  const zNear = 1;
  const zFar = 10;
  const projection = m4.perspective(fov, aspect, zNear, zFar);

  const eye = [Math.cos(time), Math.sin(time), 6];
  const target = [0, 0, 0];
  const up = [0, 1, 0];
  const camera = m4.lookAt(eye, target, up);
  
  const view = m4.inverse(camera);
  const viewProjection = m4.multiply(projection, view);
  const world = m4.rotateX(m4.rotationY(1), 1);

  gl.useProgram(programInfo.program);
  // calls gl.bindBuffer, gl.enableVertexAttribArray, gl.vertexAttribPointer
  twgl.setBuffersAndAttributes(gl, programInfo, cubeBufferInfo);
  twgl.setUniformsAndBindTextures(programInfo, {
    tex,
    u_world: world,
    u_viewProjection: viewProjection,
    color: [0.2, 0.3, 1, 1],
  });
  // calls gl.drawArrays or gl.drawElements
  twgl.drawBufferInfo(gl, cubeBufferInfo);

  // add a line in world space
  const invMat = m4.inverse(viewProjection);
  const start = m4.transformPoint(invMat, [clipX, clipY, -1]);
  const end   = m4.transformPoint(invMat, [clipX, clipY,  1]);
  const poffset = lineNdx * 3 * 2;
  const coffset = lineNdx * 4 * 2;
  const color = [Math.random(), Math.random(), Math.random(), 1];
  positions.set(start, poffset);
  positions.set(end, poffset + 3);
  colors.set(color, coffset);
  colors.set(color, coffset + 4);

  gl.bindBuffer(gl.ARRAY_BUFFER, linesBufferInfo.attribs.position.buffer);
  gl.bufferSubData(gl.ARRAY_BUFFER, 0, positions);
  gl.bindBuffer(gl.ARRAY_BUFFER, linesBufferInfo.attribs.color.buffer);
  gl.bufferSubData(gl.ARRAY_BUFFER, 0, colors);

  lineNdx = (lineNdx + 1) % numLines;  

  // calls gl.bindBuffer, gl.enableVertexAttribArray, gl.vertexAttribPointer
  twgl.setBuffersAndAttributes(gl, programInfo, linesBufferInfo);
  twgl.setUniformsAndBindTextures(programInfo, {
    tex,
    u_world: m4.identity(),
    u_viewProjection: viewProjection,
    color: [1, 0, 0, 1],
  });
  // calls gl.drawArrays or gl.drawElements
  twgl.drawBufferInfo(gl, linesBufferInfo, gl.LINES);

  requestAnimationFrame(render);
}
requestAnimationFrame(render);


gl.canvas.addEventListener('mousemove', (e) => {
   const canvas = gl.canvas;
   const rect = canvas.getBoundingClientRect();
   const x = e.clientX - rect.left;
   const y = e.clientY - rect.top;

   clipX = x / rect.width  *  2 - 1;
   clipY = y / rect.height * -2 + 1;
});
body { margin: 0; }
canvas { width: 100vw; height: 100vh; display: block; }
<canvas id="c"></canvas>
<script src="https://twgljs.org/dist/4.x/twgl-full.min.js"></script>

Что касается информации WebGL, то здесь есть

...