Большая часть моей работы по ML посвящена 1d сигналам от датчиков, но в последнее время я пытался лучше понять свои сети, используя карты значимости и карты. У меня есть 6 1d сигналов, которые я складываю в одноканальное «изображение» (размером 25x6x1) и подаю в CNN. Когда я смотрю на свои карты значимости и камеры (используя функции keras-vis visualize_cam и visualize_salidity), я как-то получаю вывод (25x6x3). Предполагают ли эти функции ввод в качестве 3-канального изображения, независимо от того, что, а затем отслеживают градиенты для несуществующих каналов? Или я серьезно неправильно понимаю вывод этих функций. Я просто хочу убедиться, что мое понимание результатов правильно.