Как смоделировать несколько датчиков, когда трехмерный объект визуализируется по-разному на разных камерах - PullRequest
0 голосов
/ 06 апреля 2019

Я пытаюсь понять, как объекты по-разному отображаются на разных камерах.

У меня есть ситуация, когда у нас есть визуализация видимого света в основной камере, но объекты, контролируемые игроком, могут иметь несколькодатчики, каждый из которых представлен камерой.

Например, у нас может быть:

  • ИК-камера, которая видит свет, излучаемый целью, с цветом, основанным на температуре объекта,на ИК-слое
  • Радар, который имеет собственный направленный свет и видит только тот же цвет, что и его собственный свет на ВЧ-слое, и в основном представляет собой вращающуюся вертикальную щелевую камеру.
  • Звуковой датчик, который "видит" "свет", непосредственно излучаемый целевым объектом, а также отраженный от других твердых поверхностей на звуковом слое.
  • Радиопеленгаторы, которые видятвсе цвета света на радиочастотном слое
  • IFF / идентификационный датчик, который видит штрих-коды на теле движущихся объектов (способностьсчитываемый двумерный штрих-код моделирует идентификацию формы с меньшим количеством ресурсов обработки, чем нейронная сеть, сохраняя при этом неопределенность в отношении идентичности вновь видимого объекта до анализа)

У нас также могут быть различные приемы датчиков, напримеркак радар ECM, который был бы смоделирован путем размещения ложных объектов в поле зрения «радарной камеры».

Выход этих датчиков может быть просмотрен игроками, но предназначен для использования подпрограммами ИИ, реализованными игроком.

Мой сценарий - 3D, но его можно применять и к 2D.

Итак ...

Каков наилучший способ обработки всех этих различных камер и визуализации?Я хотел бы сделать игровые объекты максимально простыми и минимизировать затраты на кодирование и процессор.

Некоторые визуализации должны будут меняться в зависимости от того, что делает целевой объект - перемещение или стрельба из оружия могут генерировать тепло и звук, IFF усложняется прикрытием, радар может усложняться поглощающими радар материалами, глушениеми формы, уменьшающие поперечное сечение радара, и т. д.

Редактировать

Эти различные визуализации должны быть доступны одновременно, как если бы они смотрели на одно и то жесцену через все датчики, и каждая камера датчика должна будет отображаться соответствующим образом.

1 Ответ

0 голосов
/ 06 апреля 2019

редактировать

Учитывая ваш комментарий ниже, мне кажется, что вопрос, который вы намеревались задать, несколько неясен.

Чтобы ответить на комментарий:

Установите столько камер, сколько вам нужно, и установите для каждой из них «рендеринг в текстуру».

Вам нужно будет создать текстуру RenderTexture для каждой камеры.

Теперь каждая камера будет подавать свои данные в реальном времени в текстуру, и вы можете делать с этими текстурами все, что захотите.

редактировать

Простое решение для нескольких различных результатов поиска датчиков - найти шейдеры, которые дают желаемый эффект.

Вот некоторые шейдеры, которые вы можете попробовать:

https://github.com/paganini24/ShaderExperiment

Создание звукового датчика, которое я представляю, было бы намного сложнее создать, но я думаю, что хорошим началом было бы изучение компонентов Unity AudioSource и AudioPlayer. Если вы можете получить громкость / высоту звука, выводить и связывать его с положением, из которого он излучается, вы можете сопоставить его с полноэкранной текстурой пользовательского интерфейса.

Не сложное решение для звукового датчика, но, надеюсь, это направит вас в правильном направлении.

...