Task1打卡

线性回归

基本要素

  • 模型
    y=ωx+b y=\omega x+b

  • 数据集
    希望在数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set).例如多栋房屋的真实售出价格和它们对应的面积和房龄,一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。

  • 损失函数
    Task1打卡

  • 优化函数
    Task1打卡

softmax

就是一种可提供多类别分类模型中每个可能类别的概率并且这些概率的总和为1的函数。运算不会改变预测类别的输出。
softmax回归就是一个单层神经网络。

Task1打卡
Task1打卡
pytorch的交叉熵损失函数是自带了softmax操作的
Task1打卡

最小化交叉熵损失函数等价于最大化训练数据集所有标签类别的的联合预测率。

多层感知机

其实就是多层神经网络。
Task1打卡
Task1打卡

代码理解

鉴于编程能力薄弱,书中代码解析参考PyTorch中文文档

学习来源

动手学深度学习PyTorch版