🐟线性回归
2021-11-10
| 2023-8-6
0  |  阅读时长 0 分钟
type
status
date
slug
summary
tags
category
icon
password
Property

原理

 

从线性回归到深度网络

将线性回归模型描述为一个神经网络,线性回归是一个单层神经网络
notion image
输入为,因此输入层中的输入数(特征维度)。网络的输出为,因此输出层中的输出数是1。由于模型重点在发生计算的地方,所以通常在计算层数时不考虑输入层,也就是说图中神经网络的层数为1。
对于线性回归,每个输入都与每个输出相连,这种变换称为全连接层(fully-connected layer)或称为稠密层(dense layer)
 

生物学

线性回归发明的时间(1795年)早于计算神经科学,所以将线性回归描述为神经网络似乎不合适。 当控制学家、神经生物学家沃伦·麦库洛奇和沃尔特·皮茨开始开发人工神经元模型时, 他们为什么将线性模型作为一个起点呢?
notion image
这是一张由树突(dendrites,输入终端)、 细胞核(nucleu,CPU)组成的生物神经元图片。 轴突(axon,输出线)轴突端子(axon terminal,输出端子)通过突触(synapse)与其他神经元连接。
树突中接收到来自其他神经元(或视网膜等环境传感器)的信息。该信息通过突触权重 来加权,以确定输入的影响(即通过相乘来激活或抑制)。 来自多个源的加权输入以加权和的形式汇聚在细胞核中, 然后将这些信息发送到轴突中进一步处理,通常会通过进行一些非线性处理。 之后,它要么到达目的地(例如肌肉),要么通过树突进入另一个神经元。
当然,许多这样的单元可以通过正确连接和正确的学习算法拼凑在一起, 从而产生的行为会比单独一个神经元所产生的行为更有趣、更复杂, 这种想法归功于我们对真实生物神经系统的研究。
 
 

线性回归的从零开始实现

notion image
 
 
 

线性回归的简洁实现

全连接层
对传入数据应用线性变换:
参数:
  • in_features : 每个输入样本的大小
  • out_features :每个输出样本的大小
  • bias :如果设置为False,则图层不会学习附加偏差。默认值:True
 
 
notion image
  • PyTorch
  • 学习率调度器Softmax回归
    目录