【机器学习课程-华盛顿大学】:2 回归 2.6 总结

整体内容总结:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

一、一元回归

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

梯度下降:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

二、多元回归

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

(1)梯度=0

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

(2)梯度下降

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

三、性能评估

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

举例:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

三种误差:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

训练误差、真实误差和模型复杂度的关系:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

预测误差的3个来源:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

偏差、方差的折中:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

四、Ridge岭回归:L2正则化解决过拟合

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

五、Lasso回归:L1正则化

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

坐标下降:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

六、最近邻和核回归

加权knn:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结

 

核回归:

【机器学习课程-华盛顿大学】:2 回归 2.6 总结