python – tensorflow softmax_cross_entropy_with_logits和sigmoid_cross_entropy_with_logits之间的实现差异

我最近遇到了tensorflow softmax_cross_entropy_with_logits,但我无法弄清楚实现与sigmoid_cross_entropy_with_logits相比有什么不同. 最佳答案 sigmoid和softmax之间的主要区别在于softmax函数在概率方面返回结果,这种结果更符合ML哲学. softmax的所有输出总和为1.转向告诉您网络对答案的信心.

然而,sigmoid输出是谨慎的.它的正确或不正确.你必须编写代码来自己计算概率.

就网络的性能而言. Softmax通常比sigmoid提供更好的准确性.但是,它也高度依赖于其他超参数.

点赞