tensorflow中softmax_cross_entropy_with_logits函数的实现
自己实现了softmax_cross_entropy_with_logits函数的功能,算是复习下softmax和cross_entropy
更新:—————————————————
tf中实现了softmax_cross_entropy_with_logits和sparse_softmax_cross_entropy_with_logits,今天看代码看到用sparse的,在此总结下两者的异同。
两者主要在输入参数(labels)的格式不同:
softmax_cross_entropy_with_logits中logits是[batch,num_classes]
labels是[batch,num_classes]
也就是说labels是各个类别的概率
而sparse_softmax_cross_entropy_with_logits在lables上不一样,labels的输入数[batch,1],也就是说唯一指定所属类别