深度学习笔记
为了互导的论文,开始学深度学习了。
pytorch的使用
torch.normal
作用:生成一个正态分布的张量
torch.normal(mean, std, size)
三个参数分别为均值,标准差和size
1
2
3
4>>> torch.normal(3, 0.1, (3, 4))
tensor([[2.9425, 3.1877, 2.9735, 3.0982],
[3.0061, 2.9918, 2.7953, 3.0066],
[2.8219, 2.9578, 2.8813, 2.9014]])torch.normal(mean, stds)
两个参数分别为:均值和标准差,使用标准差来确定范围size
1
2
3
4>>> torch.normal(3, torch.ones(3, 4)/10)
tensor([[2.8491, 3.0263, 3.0888, 3.0818],
[3.1101, 2.7490, 3.1847, 3.0861],
[2.8530, 2.8666, 2.9634, 3.1875]])
简易深度学习模型的实现(线性回归)
1. 生成正态分布的数据
1 |
|
1 |
|
其中features中的每⼀⾏都包含⼀个⼆维数据样本,labels中的每⼀⾏都包含⼀维标签值(⼀个标量)
简记:feature
为自变量(可能多维),lables
为函数
2. 读取数据集
1 |
|
每次随机返回至多batch_size
组数据
使用示例
1 |
|
但这种简易的随机读取数据的方式效率不佳
3. 参数的初始化及一队定义
初始化超参数
1 |
|
线性回归模型
1 |
|
当我们⽤⼀个向量加⼀个标量时,标量会被加到向量的每个 分量上。
损失函数
1 |
|
优化算法
1 |
|
3.训练
1 |
|
1 |
|
线性模型的简单实现
1 |
|
深度学习笔记
https://ignotusjee.github.io/2022/11/16/2022-11-16-深度学习笔记/