Próbuję nauczyć TensorFlow i studiując na przykład: https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/autoencoder.ipynbTensorFlow: w jaki sposób zdefiniowano zbiór dataset.train.next_batch?
Potem kilka pytań w poniższym kodzie:
for epoch in range(training_epochs):
# Loop over all batches
for i in range(total_batch):
batch_xs, batch_ys = mnist.train.next_batch(batch_size)
# Run optimization op (backprop) and cost op (to get loss value)
_, c = sess.run([optimizer, cost], feed_dict={X: batch_xs})
# Display logs per epoch step
if epoch % display_step == 0:
print("Epoch:", '%04d' % (epoch+1),
"cost=", "{:.9f}".format(c))
Od mnist jest tylko zbiór danych, co dokładnie ma mnist.train.next_batch
oznacza? Jak zdefiniowano dataset.train.next_batch
?
Dzięki!
Warto wspomnieć, że [next_batch] (https://github.com/tensorflow/tensorflow/blob/7c36309c37b04843030664cdc64aca2bb7d6ecaa/tensorflow/contrib/learn/python/learn/datasets/mnist.py#L160) przetasowania przykłady po przejściu przez wszystkie z nich w każdej epoce. Możesz śledzić, gdzie jesteś w epoce, przez 'DataSet._index_in_epoch', np.' Mnist.train._index_in_epoch' –