Будучи новичком в Tensorflow, я пытаюсь понять разницу между базовыми функциональными возможностями tf.gradients и tf.keras.backend.gradients.
Последний находит градиент значений входных объектов в зависимости от функции стоимости.
Но я не мог получить четкое представление о первом, вычисляет ли он функцию градиента по стоимости или вероятности выхода (например, рассмотрим случай двоичной классификации с использованием простой сети прямой связи. Здесь вероятность выхода равна относится к результату активации сигмовидной оболочки в последнем слое с одним нейроном. Стоимость указана с помощью двоичной перекрестной энтропии Я не получил четкую картину - в документации упоминается просто «у» - это стоимость или вероятность выхода?
Зачем мне градиенты? Для реализации базовой c градиентной атрибуции объекта.