Моя версия тензорного потока - 1.15, и мое дерево каталогов изображено ниже.
root
|
|---scene1
| |
| |--img1.npy
| |--img2.npy
| |--cam.txt
| |--poses.txt
|
|---scene2
| |
| |--img1.npy
| |--img2.npy
| |--img3.npy
| |--cam.txt
| |--poses.txt
Каждая папка сцены содержит разное количество изображений (в формате npy), но ровно один cam.txt и одно из них. текст. Я пробовал это, используя numpy.genfromtxt
и numpy.load
для чтения файлов в каждой папке сцены в тензор, затем используя
ds = tf.data.Dataset.from_tensors
, чтобы создать набор данных для каждой сцены, наконец, используя ds.concatenate
для объединения этих наборов данных. Этот метод работает, но тратит много времени, когда количество папок сцены становится огромным. Есть ли лучший способ решить проблему?