损失函数和优化介绍
1. Loss function
A loss function
tells how good our current model classifier is.
1.1 Multiclass SVM loss
Li=j=yi∑max(0,sj−syi+Δ)
notation: s=f(xi,W),Δ is safety margin
1.2 Regularization
L(W)=DatalossN1i=1∑NLi(f(xi,W),yi)+Regularization:Modelshouldbe"simple"λR(W)
1.3 Softmax Classifier
这里计算的是Softmax的损失函数,其实和交叉熵损失是一个东西。交叉熵损失也就是下面这个公式,其目的是为了保持模型预测的概率与ground truth是同分布的。交叉熵公式如下:
J=−i=1∑Kyilog(Pi)
2. Optimization
这里介绍了数值计算梯度下降和公式计算梯度下降。虽然数值计算梯度下降计算很慢,但是这个可以用来做一个参考,来检测我们写的公式计算梯度是否正确。