У меня есть DNN, закодированный в keras, который тренирует события в детекторе физики элементарных частиц, который выглядит примерно так:
Я беру эти координаты и преобразуйте их в «изображение», сначала преобразовав заданную плоскость c xy в 2D-массив, а затем сгладив его. Так, например, если в моем событии всего 3 точки с координатами: (1, 1, 1); (1, 3, 1) и (2, 3, 2). Я беру первые две координаты (с одинаковым значением z) и конвертирую их в массив:
[[0, 0, 0],
[0, 0, 0],
[1, 0, 1]]
, а затем для следующей координаты:
[[0, 1, 0],
[0, 0, 0],
[0, 0, 0]]
Затем я объединяю их в такой одномерный массив и передать его в сеть:
[0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0]
Затем я заставляю сеть пытаться предсказать центр масс всего события. Однако моя модель не дает очень хорошей точности, и я думаю, что могу улучшить ее, имея больше данных с помощью увеличения данных, но, насколько известно, у Keras этого нет для 3D-данных, подобных тем, которые есть у меня. Есть предложения, как это исправить?