Próbuję użyć Tensorflow. Oto bardzo prosty kod.Jaka jest różnica między operacją tf.sub just minus w tensorflow?
train = tf.placeholder(tf.float32, [1], name="train")
W1 = tf.Variable(tf.truncated_normal([1], stddev=0.1), name="W1")
loss = tf.pow(tf.sub(train, W1), 2)
step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
Po prostu zignoruj część optymalizacyjną (czwarta linia). Zajmie to liczbę zmiennoprzecinkową i pociąg W1, aby zwiększyć różnicę do kwadratu.
Moje pytanie jest proste. Jeśli używam tylko znak minus zamiast tf.sub”jak poniżej, co jest inaczej? Spowoduje to zły wynik?
loss = tf.pow(train-W1, 2)
Kiedy wymienić go, wynik wygląda tak samo. Jeśli są one takie same , dlaczego musimy korzystać z rzeczy „tf.add/tf.sub”
wbudowane powrotem obliczenia propagacji może być dokonana jedynie przez rzeczy