We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
There was an error while loading. Please reload this page.
1 parent 4600c2b commit d372ee3Copy full SHA for d372ee3
_posts/2025-03-04-deep-learning-2024autumn-04.md
@@ -66,13 +66,13 @@ _这份笔记使用的部分图片、内容来自于北京交通大学深度学
66
67

68
69
-### **对比**
+### 对比
70
71
- **批量梯度下降**:利于寻找全局最优解,梯度方差小;但样本数目很多时,训练过程会很慢。
72
- **随机梯度下降**:训练速度快;准确度下降,不利于寻找全局最优,梯度方差大。
73
- **小批量梯度下降**:同时兼顾两种方法的优点。
74
75
-### **批量大小的影响**
+### 批量大小的影响
76
77
一般而言,批量大小不影响梯度的期望,但是会影响梯度的方差。
78
@@ -87,7 +87,7 @@ $$
87
\theta^t=\theta^{t-1}-\alpha \bold{g}^t
88
$$
89
90
-### **学习率的影响**
+### 学习率的影响
91
92
- 学习率过大:不收敛
93
- 学习率过小:收敛太慢
0 commit comments