Вы можете создать свой собственный обратный вызов, унаследовав от обратного вызова TensorBoard
и добавив нужные количества вручную.
Вот код, который я использую для этой цели. В этом случае вы получите отдельный график для потерь регуляризации каждого слоя.
class CustomTBCallback(keras.callbacks.TensorBoard):
def _log_metrics(self, logs, prefix, step):
for layer in self.model.layers:
if layer.losses:
logs["reg_%s" % layer.name] = tf.reduce_sum(layer.losses)
super()._log_metrics(logs, prefix, step)
К сожалению, это несколько странно, поскольку полагается на приватную функцию _log_metrics
, которая может меняться в разных версиях tenorflow. Я использовал это с TF 2.0.