Как я могу использовать оптимизатор BFGS (L-BFGS-B) с ограниченной памятью вместо Adam Optimizer? - PullRequest
0 голосов
/ 05 апреля 2020

В моем исходном коде я использовал tenorflow 1.x. Как использовать оптимизатор BFGS (L-BFGS-B) с ограниченной памятью вместо оптимизатора Adam?

  ............

  ............

  loss = tf.reduce_mean(tf.square(outputs - X))

  training_op = tf.train.AdamOptimizer(learning_rate).minimize(loss)

  init = tf.global_variables_initializer()

  with tf.Session() as sess:
       init.run()   
       for epoch in range(n_epochs): 
           n_batches = X_Train.shape[0]//batch_size 
           for iteration in range(n_batches):
                X_batch = next_batch(batch_size, X_Train)
                sess.run(training_op,feed_dict={X: X_batch})
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...