Tensorflow: использование next_batch без циклов for - PullRequest
0 голосов
/ 24 июня 2019

В прилагаемом фрагменте кода mnist.train.next_batch(batch_size) используется без какой-либо петли for.У меня есть два сомнения.

  1. Как код запоминает последние обновленные значения?
  2. Как он повторяется несколько раз без использования цикла for?

Я прочитал ответ по адресу TensorFlow: как определяется dataset.train.next_batch? , но он использовался там с for циклами

batch_size = 5000
hidden_num = [125]
print("batch_size : {}".format(batch_size))
print("hidden_num : {}".format(hidden_num))
elm = Gen_ELM2(sess, batch_size, 784, hidden_num, 10)
# Gen_ELM2 is a function to calculate ELM function. You can find the full 
#code at http://localhost:8888/notebooks/MNIST%20FT2.ipynb
# one-step feed-forward training
train_x, train_y = mnist.train.next_batch(batch_size)
elm.feed(train_x, train_y)

# testing
elm.test(mnist.test.images, mnist.test.labels)
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...