РЕДАКТИРОВАТЬ: Как указал @AGP, Tensorflow уже предлагает реализацию: tf.log_sigmoid()
.
Учитывая определение функции logit(как обратная сигмоидальная логистическая функция), довольно просто реализовать ее самостоятельно (см. Википедия "Logit" article ):
As sigmoid(x) = 1 / (1 + exp(-x))
,
logit(y) = sigmoid(x)^-1 = log(y / (1 - p)) = -log( 1 / p - 1)
Реализация:
import tensorflow as tf
def logit(x):
""" Computes the logit function, i.e. the logistic sigmoid inverse. """
return - tf.log(1. / x - 1.)
x = tf.random_uniform((5, ), minval=-10., maxval=10., dtype=tf.float64)
# sigmoid(x):
x_sig = tf.sigmoid(x)
# logit(sigmoid(x)) = x:
x_id = logit(x_sig)
# Verifying the equality:
comp = tf.abs(x - x_id)
with tf.Session() as sess:
a, a_id, co = sess.run([x, x_id, comp])
print(a)
# [ 0.99629643 1.4082849 6.6794731 7.64434123 6.99725702]
print(a_id)
# [ 0.99629643 1.4082849 6.6794731 7.64434123 6.99725702]
print(co)
# [ 2.22044605e-16 0.00000000e+00 7.28306304e-14 4.35207426e-14 7.81597009e-14]
Примечание: Равенство имеет место для довольно небольших значений x
(т.е. небольших значенийn
для x in [-n, n]
), поскольку sigmoid(x)
быстро сходится к пределам асимптоты:
import tensorflow as tf
def logit(x):
""" Computes the logit function, i.e. the logistic sigmoid inverse. """
return - tf.log(1. / x - 1.)
x = tf.constant([-1000, -100, -10, -1, 0, 1, 10, 100, 1000], dtype=tf.float64)
# sigmoid(x):
x_sig = tf.sigmoid(x)
# logit(sigmoid(x)) = x:
x_id = logit(x_sig)
with tf.Session() as sess:
a, a_id = sess.run([x, x_id])
print(a)
# [-1000. -100. -10. -1. 0. 1. 10. 100. 1000.]
print(a_id)
# [ -inf -100. -10. -1. 0. 1. 10. inf inf ]