我正在使用TensorFlow创建两层dnn。我使用adamoptimer作为优化程序。下面是我的代码
pred_raw = create_feedforward_nn_model(x, weights, biases)
pred = tf.round(tf.nn.sigmoid(pred_raw))
cost = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(labels=pred, logits=y))
train_op = tf.train.AdamOptimizer(learning_rate).minimize(cost)
当我这样做的时候
seession.run
在
train_op
它返回两个值,我知道第二个值是损失,但是这里的第一个值是什么。我看过很多教程,但在大多数教程中,他们都忽略了第一个值,如下面所示
_,loss = sess.run([train_op, cost],={x: batch_features, y: batch_labels})