常见**函数(sigmoid/logistic/tanh/softmax/ReLU关系解释)
Sigmoid
神经网络最常见的**函数就是sigmoid函数。
sigmoid函数意为“S型曲线函数”,它常常指的是logistic(对数几率)函数:
但sigmoid函数还有其他的函数,例如tanh函数等。
(更多见https://en.wikipedia.org/wiki/Sigmoid_function)
Softmax
logistic函数是对于二分类的函数,若扩展到K维,则为softmax函数:
其中
ReLU&softplus
2001年,神经科学家Dayan、Abott从生物学角度模拟出了脑神经元接受信号更精确的**模型,ReLU(Rectified Linear Units)函数被提出:
而ReLU函数是个分段函数,求它的平滑近似函数就是softplus函数:
可以发现,softplus求导为
所以可以得到以上提及的函数的关系图:
ReLU—平滑函数→ softplus—求微分→ logistic—泛化→ softmax
参考:http://www.cnblogs.com/neopenx/p/4453161.html
sigmoid:https://en.wikipedia.org/wiki/Sigmoid_function
softmax:https://en.wikipedia.org/wiki/Softmax_function
ReLU:https://en.wikipedia.org/wiki/Rectifier_(neural_networks)