阅读(3981)
赞(10)
TensorFlow函数教程:tf.nn.softmax_cross_entropy_with_logits_v2
2019-02-02 15:05:22 更新
tf.nn.softmax_cross_entropy_with_logits_v2函数
tf.nn.softmax_cross_entropy_with_logits_v2(
_sentinel=None,
labels=None,
logits=None,
dim=-1,
name=None
)
定义在:tensorflow/python/ops/nn_ops.py。
计算logits和labels之间的softmax交叉熵。
测量离散分类任务中的概率误差,其中类是互斥的(每个条目恰好在一个类中)。例如,每个CIFAR-10图像都标有一个且只有一个标签:图像可以是dog或truck,但不能同时是两者。
注意:虽然这些类是互斥的,但它们的概率不一定如此。所需要的只是每一行labels是有效的概率分布。如果不是,则梯度的计算将是不正确的。
如果使用专属labels(其中一次只有一个类为true),请参阅sparse_softmax_cross_entropy_with_logits。
警告:此操作需要未缩放的日志,因为它在内部的logits执行logmax以提高效率。不要使用softmax的输出调用此操作,因为它会产生不正确的结果。
常见的用例是具有shape [batch_size,num_classes]的logits和labels,但支持更高的维度,dim参数指定类维度。
logits和labels必须具有相同的类型(可以是float16,float32,或float64)。
反向传播将发生在logits和labels。为了禁止反向传播labels,请先将标签张量传递给tf.stop_gradient,然后再将其传递给此函数。
请注意,为避免混淆,需要仅将命名参数传递给此函数。
参数:
- _sentinel:用于防止positional参数。内部的,不要使用。
- labels:沿着类维度的每个向量应该保持有效的概率分布,例如:对于标签的shape为[batch_size, num_classes]的情况,labels[i]的每一行必须是有效的概率分布。
- logits:未缩放的日志概率。
- dim:班级维度。默认为-1,这是最后一个维度。
- name:操作的名称(可选)。
返回:
一个Tensor,包含softmax交叉熵损失。它的类型与logits相同,它的shape与labels是相同的,除了它没有labels的最后一个维度。