Tensorflow 2.1: получение "Tensor (" StatefulPartitionedCall: 0 ", shape = (), dtype = float64)" в качестве потерь - PullRequest
0 голосов
/ 23 апреля 2020

Вместо того, чтобы получить Dataset тензор, я получаю это, которое я не знаю, как обрабатывать:

Тензор ("StatefulPartitionedCall: 0", shape = (), dtype = float64)

Все идет гладко (я думаю), но это то, что я получаю, когда пытаюсь распечатать потерю. Это код, с которым я играю:

import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
from sklearn.datasets import load_breast_cancer
import tensorflow as tf
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Dense
tf.keras.backend.set_floatx('float64')

x, y = load_breast_cancer(return_X_y=True)

data = tf.data.Dataset.from_tensors((x, y)).shuffle(len(x))

train_data = data.take(int(8e-1*len(x))).batch(32)
test_data = data.skip(int(8e-1*len(x)))


class DenseNet(Model):
    def __init__(self):
        super(DenseNet, self).__init__()
        self.D1 = Dense(8, activation=tf.keras.activations.selu)
        self.D2 = Dense(16, activation=tf.keras.activations.elu)
        self.D3 = Dense(32, activation=tf.keras.activations.relu)
        self.D4 = Dense(1)

    def __call__(self, x):
        x = self.D1(x)
        x = self.D2(x)
        x = self.D3(x)
        out = self.D4(x)
        return out


network = DenseNet()

optimizer = tf.keras.optimizers.Adam()


@tf.function
def compute_loss(labels, logits):
    labels = tf.cast(tf.one_hot(labels, depth=1), tf.float64)
    return tf.reduce_mean(
        tf.nn.sigmoid_cross_entropy_with_logits(labels=labels, logits=logits))


@tf.function
def compute_accuracy(labels, logits):
    labels = tf.cast(tf.one_hot(labels, depth=2), tf.float64)
    return tf.reduce_mean(tf.cast(tf.equal(logits, labels), tf.float32))


@tf.function
def train_step(inputs, targets):
    with tf.GradientTape() as tape:
        logits = network(inputs)
        loss = compute_loss(labels=targets, logits=logits)

    gradients = tape.gradient(loss, network.trainable_variables)
    optimizer.apply_gradients(zip(gradients, network.trainable_variables))
    accuracy = compute_accuracy(labels=targets, logits=logits)
    return loss, accuracy


@tf.function
def train():
    for inputs, labels in train_data:
        loss, acc = train_step(inputs, labels)
        print(loss, acc)

def main(epochs=5):
    for i in range(1, epochs + 1):
        train()


if __name__ == '__main__':
    main(epochs=10)

1 Ответ

1 голос
/ 23 апреля 2020

Поскольку вы украшаете функцию train с помощью @tf.function, и она содержит вызов print, это означает, что у нее есть побочные эффекты, и, следовательно, она будет выполнена только один раз (при отслеживании функции). Из tf.function документации:

Важно : Любые Python побочные эффекты (добавление в список, печать с помощью print, et c) произойдет только один раз, когда трассируется func. Чтобы побочные эффекты выполнялись в tf.function, они должны быть записаны как операции TF.

Поэтому либо удалите украшение @tf.function для этой функции (то есть train), либо, в качестве альтернативы, используйте tf.print, что будет эквивалентно операции печати в TensorFlow:

    #...
    tf.print("Loss:", loss, "Acc:", acc)
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...