我意识到每次训练时我的模型最终会变得不同,即使我保持TensorFlow随机种子相同.
我证实了这一点:
初始化是确定性的; 在第一次更新之前,权重是相同的.
输入是确定性的.事实上,包括损失在内的各种正向计算在第一批中是相同的.
第一批的渐变是不同的.具体来说,我正在比较的输出tf.gradients(loss, train_variables)
.虽然loss
并且train_variables
具有相同的值,但是对于一些变量,梯度有时是不同的.差异非常显着(有时单个变量的梯度的绝对差值之和大于1).
我得出结论,这是导致非确定性的梯度计算.我看了一下这个问题,当用intra_op_parallelism_thread=1
和运行CPU时问题仍然存在inter_op_parallelism_thread=1
.
当前向传球不是时,后向传球如何是不确定的?我怎么能进一步调试呢?