Обратное распространение со сложными параметрами в Tensorflow - PullRequest
0 голосов
/ 02 октября 2018

В настоящее время я пытаюсь обучить сложные данные, полученные из инженерных моделей телекоммуникаций.Веса и уклоны также сложны.Я использовал активацию relu для скрытых слоев следующим образом на l-м слое:

A_l = tf.complex(tf.nn.relu(tf.real(Z_l)), tf.nn.relu(tf.imag(Z_l))) 

Но как это сделать для стоимости и оптимизатора, пожалуйста?Я действительно запутался, потому что я новичок в машинном обучении.Я просмотрел некоторые статьи о неаналитических функциях, но ни одна из них не помогла использовать API Tensorflow.Например: как мне переписать функции ниже?

cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = Z_out, labels = y)) 
optimizer = tf.train.AdamOptimizer(learning_rate = learning_rate).minimize(cost)

Я видел рекомендацию разделить стоимость на реальные и мнимые части как:

cost_R = .., cost_I = ... 

, но я не пробовал, потому что я думаю, что оптимизатор будет разделен иоптимизация не будет работать.Я использовал активацию relu для скрытых слоев следующим образом на l-м слое:

A_l = tf.complex(tf.nn.relu(tf.real(Z_l)), tf.nn.relu(tf.imag(Z_l))) 

Но как оценить стоимость и оптимизатор?Любая помощь очень ценится.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...