阅读(978) (9)

TensorFlow函数教程:tf.nn.sparse_softmax_cross_entropy_with_logits

2019-02-12 14:52:44 更新

tf.nn.sparse_softmax_cross_entropy_with_logits函数

tf.nn.sparse_softmax_cross_entropy_with_logits(
    _sentinel=None,
    labels=None,
    logits=None,
    name=None
)

定义在:tensorflow/python/ops/nn_ops.py。

计算logits和labels之间的稀疏softmax交叉熵。

测量离散分类任务中的概率误差,其中类是互斥的(每个条目仅在一个类中)。例如,每个CIFAR-10图像都标有一个且只有一个标签:图像可以是dog或truck,但不能同时是两者。

注意:对于此操作,给定标签的概率被认为是唯一的。也就是说,不允许使用soft类,并且labels向量必须为每一行logits(每个小批量条目)的真实类提供单个特定索引。对于每个条目的概率分布的soft softmax分类,请参阅softmax_cross_entropy_with_logits_v2

警告:此操作需要未缩放的日志,因为它在内部日志上执行softmax,以提高效率。不要使用softmax的输出调用此操作,因为它会产生不正确的结果。

常见的用例是具有shape [batch_size, num_classes]的logits和labels标签,但支持更高的维度,在这种情况下,假定第dim维度的大小为num_classes。logits必须具备float16,float32或者float64类型,并且labels必须具有int32或int64类型。

请注意,为避免混淆,需要仅将命名参数传递给此函数。

参数:

  • _sentinel:用于防止位置参数。内部,不要使用。
  • labels:Tensor,shape为[d_0, d_1, ..., d_{r-1}](其中r是labels的秩和结果)并且类型为int32或int64。每个labels中的条目必须是[0, num_classes)中的索引。当此操作在CPU上运行时,其他值将引发异常,并返回NaN,以获取GPU上相应的损失和梯度行。
  • logits:shape为[d_0, d_1, ..., d_{r-1}, num_classes]和类型为float16,float32或 float64的未缩放日志概率。
  • name:操作的名称(可选)。

返回:

一个Tensor,与labels形状相同、与具有SoftMax交叉熵损失的logits具有相同的类型。

可能引发的异常:

  • ValueError:如果logits是标量(需要秩> = 1),或者labels的秩不等于logits的秩减1。