我正在运行使用Tensorflow概率实现的贝叶斯神经网络的示例代码.我的问题是关于用于变分推理的-ELBO损失的实现.-ELBO等于两个项的总和,即在代码中实现的'neg_log_likelihood'和'kl'.我很难理解'kl'术语的实现.
以下是模型的定义方式:
with tf.name_scope("bayesian_neural_net", values=[images]): neural_net = tf.keras.Sequential() for units in FLAGS.layer_sizes: layer = tfp.layers.DenseFlipout( units, activation=FLAGS.activation) neural_net.add(layer) neural_net.add(tfp.layers.DenseFlipout(10)) logits = neural_net(images) labels_distribution = tfd.Categorical(logits=logits)
以下是"kl"术语的定义:
kl = sum(neural_net.losses) / mnist_data.train.num_examples
我不确定'neural_net.losses'在这里返回什么,因为没有为'neural_net'定义的损失函数.显然,'neural_net.losses'会返回一些值,但我不知道返回值的含义是什么.对此有何评论?
我的猜测是L2规范,但我不确定.如果是这种情况,我们仍然遗漏了一些东西.根据VAE论文附录B,作者在先验标准正常时得出KL术语.它原来是非常接近的变参数,除了有额外的日志方差术语和常数项的L2规范.对此有何评论?