Создание нескольких весовых тензоров для каждого объекта в Multi-Object Tracking (MOT) с использованием TensorFlow - PullRequest
1 голос
/ 13 апреля 2020

Я использую TensorFlow V1.10.0 и разрабатываю Multi-Object Tracker на основе M DNet. Мне нужно назначить отдельную матрицу весов для каждого обнаруженного объекта для полностью связанных слоев, чтобы получить различное встраивание для каждого объекта во время онлайн-обучения. Я использую этот файл tf.map_fn для генерации весового тензора высшего порядка (n_objects, плоский слой, hidden_units),

'' '

    def dense_fc4(n_objects):
        initializer = lambda: tf.contrib.layers.xavier_initializer()(shape=(1024, 512))
        return tf.Variable(initial_value=initializer, name='fc4/kernel',
                           shape=(n_objects.shape[0], 1024, 512))


    W4 = tf.map_fn(dense_fc4, samples_flat)
    b4 = tf.get_variable('fc4/bias', shape=512, initializer=tf.zeros_initializer())
    fc4 = tf.add(tf.matmul(samples_flat, W4), b4)
    fc4 = tf.nn.relu(fc4)

' ''

Однако во время выполнения, когда я запускаю сеанс для W4, я получаю матрицу весов, но все они имеют одинаковые значения. Любая помощь?

TIA

1 Ответ

0 голосов
/ 05 мая 2020

Вот обходной путь, я смог сгенерировать несколько ядер вне графика в a для l oop и затем передать его графику:

w6 = []
for n_obj in range(pos_data.shape[0]):
    w6.append(tf.get_variable("fc6/kernel-" + str(n_obj), shape=(512, 2),
                         initializer=tf.contrib.layers.xavier_initializer()))

print("modeling fc6 branches...")
prob, train_op, accuracy, loss, pred, initialize_vars, y, fc6 = build_branches(fc5, w6)

def build_branches(fc5, w6):
    y = tf.placeholder(tf.int64, [None, None])

    b6 = tf.get_variable('fc6/bias', shape=2, initializer=tf.zeros_initializer())

    fc6 = tf.add(tf.matmul(fc5, w6), b6)

    loss = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y,
                                                                         logits=fc6))

    train_vars = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, scope="fc6")

    with tf.variable_scope("",  reuse=tf.AUTO_REUSE):

        optimizer = tf.train.AdamOptimizer(learning_rate=0.001, name='adam')
        train_op = optimizer.minimize(loss, var_list=train_vars)

        initialize_vars = train_vars
        initialize_vars += [optimizer.get_slot(var, name)
                            for name in optimizer.get_slot_names()
                            for var in train_vars]
        if isinstance(optimizer, tf.train.AdamOptimizer):
            initialize_vars += optimizer._get_beta_accumulators()

    prob = tf.nn.softmax(fc6)
    pred = tf.argmax(prob, 2)
    correct_pred = tf.equal(pred, y)

    accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

    return prob, train_op, accuracy, loss, pred, initialize_vars, y, fc6

Graph

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...