Расширение данных в Keras для трехмерных "изображений" - PullRequest
0 голосов
/ 18 июня 2020

У меня есть DNN, закодированный в keras, который тренирует события в детекторе физики элементарных частиц, который выглядит примерно так:

event

Я беру эти координаты и преобразуйте их в «изображение», сначала преобразовав заданную плоскость c xy в 2D-массив, а затем сгладив его. Так, например, если в моем событии всего 3 точки с координатами: (1, 1, 1); (1, 3, 1) и (2, 3, 2). Я беру первые две координаты (с одинаковым значением z) и конвертирую их в массив:

[[0, 0, 0],
[0, 0, 0],
[1, 0, 1]]

, а затем для следующей координаты:

[[0, 1, 0],
[0, 0, 0],
[0, 0, 0]]

Затем я объединяю их в такой одномерный массив и передать его в сеть:

[0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0]

Затем я заставляю сеть пытаться предсказать центр масс всего события. Однако моя модель не дает очень хорошей точности, и я думаю, что могу улучшить ее, имея больше данных с помощью увеличения данных, но, насколько известно, у Keras этого нет для 3D-данных, подобных тем, которые есть у меня. Есть предложения, как это исправить?

...