Могу ли я минимизировать tf.nn.sigmoid_cross_entropy_with_logits без redu_mean? - PullRequest
0 голосов
/ 17 октября 2018

Я тренирую свою мультимаркетную модель с помощью tenorflow.Убыток рассчитывается с tf.nn.sigmoid_cross_entropy_with_logits.Могу ли я просто минимизировать потери без reduce_sum или reduce_mean, например:

...
#loss = tf.reduce_mean(tf.losses.sigmoid_cross_entropy(multi_class_labels=labels, logits=logits)) ## not do this
loss = tf.losses.sigmoid_cross_entropy(multi_class_labels=labels, logits=logits)
optimizer = tf.train.AdamOptimizer(learning_rate=0.1) # do this
train_op = optimizer.minimize(loss, global_step=tf.train.get_global_step())
...

1 Ответ

0 голосов
/ 17 октября 2018

Вы можете использовать minimal () с нескалярным тензором.Но в функции minimal () внутренне вычисляется Reduce_sum для нескалярного тензора, поэтому я рекомендую использовать для удобства чтения Reduce_sum.

...