Это один из возможных простых обходных путей:
import tensorflow as tf
class CustGradClass:
def __init__(self):
self.f = tf.custom_gradient(lambda x: CustGradClass._f(self, x))
@staticmethod
def _f(self, x):
fx = x * 1
def grad(dy):
return dy * 1
return fx, grad
with tf.Graph().as_default(), tf.Session() as sess:
x = tf.constant(1.0)
c = CustGradClass()
y = c.f(x)
print(tf.gradients(y, x))
# [<tf.Tensor 'gradients/IdentityN_grad/mul:0' shape=() dtype=float32>]
РЕДАКТИРОВАТЬ:
Если вы хотите делать это много раз в разных классах или просто хотите более многоразовое решение, выможно использовать такой декоратор, например, как:
import functools
import tensorflow as tf
def tf_custom_gradient_method(f):
@functools.wraps(f)
def wrapped(self, *args, **kwargs):
if not hasattr(self, '_tf_custom_gradient_wrappers'):
self._tf_custom_gradient_wrappers = {}
if f not in self._tf_custom_gradient_wrappers:
self._tf_custom_gradient_wrappers[f] = tf.custom_gradient(lambda *a, **kw: f(self, *a, **kw))
return self._tf_custom_gradient_wrappers[f](*args, **kwargs)
return wrapped
Тогда вы можете просто сделать:
class CustGradClass:
def __init__(self):
pass
@tf_custom_gradient_method
def f(self, x):
fx = x * 1
def grad(dy):
return dy * 1
return fx, grad
@tf_custom_gradient_method
def f2(self, x):
fx = x * 2
def grad(dy):
return dy * 2
return fx, grad