В прилагаемом фрагменте кода mnist.train.next_batch(batch_size)
используется без какой-либо петли for
.У меня есть два сомнения.
- Как код запоминает последние обновленные значения?
- Как он повторяется несколько раз без использования цикла
for
?
Я прочитал ответ по адресу TensorFlow: как определяется dataset.train.next_batch? , но он использовался там с for
циклами
batch_size = 5000
hidden_num = [125]
print("batch_size : {}".format(batch_size))
print("hidden_num : {}".format(hidden_num))
elm = Gen_ELM2(sess, batch_size, 784, hidden_num, 10)
# Gen_ELM2 is a function to calculate ELM function. You can find the full
#code at http://localhost:8888/notebooks/MNIST%20FT2.ipynb
# one-step feed-forward training
train_x, train_y = mnist.train.next_batch(batch_size)
elm.feed(train_x, train_y)
# testing
elm.test(mnist.test.images, mnist.test.labels)