Skip to content

Commit ce694f2

Browse files
committed
20240905 update credit info
1 parent 2c40031 commit ce694f2

File tree

3 files changed

+17
-1
lines changed

3 files changed

+17
-1
lines changed

_posts/2024-09-04-deep-learning-2024autumn-01.md

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -7,6 +7,8 @@ tags: [machine learning, deep learning, python]
77
math: true
88
---
99

10+
_这份笔记使用的部分图片、内容来自于北京交通大学深度学习课程,版权归课题组和原作者所有。_
11+
1012
## 机器学习基础概念
1113

1214
1. 机器学习算法分类

_posts/2024-09-04-deep-learning-2024autumn-02.md

Lines changed: 12 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -7,6 +7,8 @@ tags: [machine learning, deep learning, python]
77
math: true
88
---
99

10+
_这份笔记使用的部分图片、内容来自于北京交通大学深度学习课程,版权归课题组和原作者所有。_
11+
1012
## 1. 开源框架概述
1113

1214
图像识别任务:根据图像矩阵输入给出类别
@@ -149,9 +151,13 @@ torch.autograd 是为了方便用户使用,专门开发的一套自动求导
149151
autograd 包就是用来自动求导的,可以为张量上的所有操作提供自动求导机制,而 **torch.Tensor****torch.Function** 为 autograd 上的两个核心类,他们相互连接并生成一个有向非循环图。
150152

151153
> 在创建torch.Tensor时,如果属性.require_grad为True,它将会追踪对于该张量的所有操作。
152-
> 可以通过用torch.no_grad0包裹代码块来阻止autograd去跟踪那些标记为.requesgrad=True的张量的历史记录
154+
>
155+
> 可以通过用torch.no_grad0包裹代码块来阻止autograd去跟踪那些标记为.requesgrad=True的张量的历史记录。
156+
>
153157
> 当通过调用.backward0来自动计算所有的梯度,这个张量所有梯度将会自动累加到.grad属性。
158+
>
154159
> backward(函数接受参数,该参数应和调用backwardO函数的Tensor的维度相同,或者是可broadcast的维度。
160+
>
155161
> 如果求导的tensor为标量(即一个数字),backward中参数可省略。
156162
{: .prompt-tip}
157163

@@ -167,7 +173,9 @@ torch.nn的核心数据结构是Module,它是一个抽象的概念,**既可
167173
- 主Module能够递归查找子Module中的parameter。
168174

169175
> 为了方便用户使用,PyTorch实现了神经网络中绝大多数的layer,这些layer都继承于nn.Module,封装了可学习参数parameter,并实现了forward函数。
176+
>
170177
> 且专门针对GPU运算进行了CuDNN优化,其速度和性能都十分优异
178+
>
171179
> https://pytorch.org/docs/stable/nn.html
172180
{: .prompt-tip}
173181

@@ -200,8 +208,11 @@ tensor([[True, True, True, True], [True, True, True, True]])
200208
```
201209

202210
> 如果模型有可学习的参数时,最好使用nn.Module
211+
>
203212
> 激活函数(ReLU、sigmoid、Tanh)、池化(MaxPool)等层没有可学习的参数可以使用对应的functional函数
213+
>
204214
> 卷积、全连接等有可学习参数的网络建议使用nn.Module
215+
>
205216
> dropout没有可学习参数,建议使用 nn.Dropout 而不是 **nn.functional.dropout**,方便测试集运行
206217
{: .prompt-warning}
207218

_posts/2024-09-04-deep-learning-2024autumn-03.md

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -7,6 +7,8 @@ tags: [machine learning, deep learning, python]
77
math: true
88
---
99

10+
_这份笔记使用的部分图片、内容来自于北京交通大学深度学习课程,版权归课题组和原作者所有。_
11+
1012
## 感知器求解异、或、非、异或问题
1113

1214
相关文献证明:对于两分类问题,如果训练集是线性可分的那么感知器算法可以在有限次送代后收敛:如果训练集不是线性可分的,那么感知器算法则不能确保会收敛!
@@ -314,6 +316,7 @@ $$
314316
![image-20240901114307399](../assets/img/Autumn2024-hywan/image-20240901114307399.png)
315317

316318
> **正则化项的作用**
319+
>
317320
> 正则化的主要作用是防止过拟合,对模型添加正则化项可以限制模型的复杂度,使得模型在复杂度和性能达到平衡。
318321
{: .prompt-tip}
319322

0 commit comments

Comments
 (0)