В моем исходном коде я использовал tenorflow 1.x. Как использовать оптимизатор BFGS (L-BFGS-B) с ограниченной памятью вместо оптимизатора Adam?
............
............
loss = tf.reduce_mean(tf.square(outputs - X))
training_op = tf.train.AdamOptimizer(learning_rate).minimize(loss)
init = tf.global_variables_initializer()
with tf.Session() as sess:
init.run()
for epoch in range(n_epochs):
n_batches = X_Train.shape[0]//batch_size
for iteration in range(n_batches):
X_batch = next_batch(batch_size, X_Train)
sess.run(training_op,feed_dict={X: X_batch})