tensorflow中softmax_cross_entropy_with_logits函数的实现

自己实现了softmax_cross_entropy_with_logits函数的功能,算是复习下softmax和cross_entropy

tensorflow中softmax_cross_entropy_with_logits函数的实现

更新:—————————————————

tf中实现了softmax_cross_entropy_with_logits和sparse_softmax_cross_entropy_with_logits,今天看代码看到用sparse的,在此总结下两者的异同。

两者主要在输入参数(labels)的格式不同:
softmax_cross_entropy_with_logits中logits是[batch,num_classes]
labels是[batch,num_classes]
也就是说labels是各个类别的概率

而sparse_softmax_cross_entropy_with_logits在lables上不一样,labels的输入数[batch,1],也就是说唯一指定所属类别