Skip to content

Commit 579aa2a

Browse files
committed
20240905 fix math formula display problem
1 parent ce694f2 commit 579aa2a

File tree

2 files changed

+14
-0
lines changed

2 files changed

+14
-0
lines changed

_posts/2024-09-04-deep-learning-2024autumn-01.md

Lines changed: 8 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -92,6 +92,7 @@ $$
9292
#### 交叉熵(Cross Entropy)损失函数
9393

9494
交叉熵是按照概率分布α的最优编码对真实分布为p的信息进行编码的长度
95+
9596
$$
9697
\begin{aligned}
9798
H(p,q) &= \mathbb{E}_p[-\log q(x)] \\
@@ -103,24 +104,31 @@ $$
103104
- 如果 q 和 p 差别越大,交叉熵就越大
104105

105106
**逻辑回归使用交叉作为损失函数**
107+
106108
$$
107109
H(p,q) = -\sum_{x} p(x) \log q(x)
108110
$$
111+
109112
对于训练样本 $$(x^{(n)}, y^{(n)})$$
113+
110114
$$
111115
p_r(y^{(n)}=1|x^{(n)})=y^{(n)}, p_r(y^{(n)}=0|x^{(n)})=1-y^{(n)}
112116
$$
117+
113118
真实概率和预测概率之间的交叉熵为:
119+
114120
$$
115121
H(p,q) = -[p_r(y^{(n)}=1|x^{(n)})\log \hat y^{(n)}+p_r(y^{(n)}=0|x^{(n)})\log (1-\hat y^{(n)})
116122
$$
123+
117124
其中 $$\hat{y}^{(n)} = \sigma(w^\top x^{(n)})$$
118125

119126
### Softmax 回归
120127

121128
Softmax Regression,也称为多项(Multinomial)或多类(Multi-Class)的Logistic 回归,是Logistic 回归在多分类问题上的推广。
122129

123130
Softmax 回归中,首先还是利用线性函数作特征的映射(判别函数),然后利用Softmax 函数作为非线性的决策函数
131+
124132
$$
125133
\begin{aligned}
126134
p(y=c|x)&=\mathrm{softmax}(w_c^\top x) \\

_posts/2024-09-04-deep-learning-2024autumn-03.md

Lines changed: 6 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -38,9 +38,11 @@ _这份笔记使用的部分图片、内容来自于北京交通大学深度学
3838
**随着深度的增加网络的表示能力呈指数增加**
3939

4040
具有d个输入、深度为l、每个隐藏层具有n个单元的深度整流网络可以描述的线性区域的数量为
41+
4142
$$
4243
O((_d^n)^{d(l-1)}n^d)
4344
$$
45+
4446
意味着,网络描述能力为深度的**指数级**[Montufar et al,2014]
4547

4648
Which means:
@@ -164,6 +166,7 @@ Sigmoid型函数指一类S型曲线函数,为**两端饱和函数(两端的
164166
##### Logistic函数
165167

166168
![image-20240901110331298](../assets/img/Autumn2024-hywan/image-20240901110331298.png)
169+
167170
$$
168171
\sigma (x) = \frac{1}{1+\exp(-x)}
169172
$$
@@ -174,6 +177,7 @@ $$
174177
##### Tanh函数
175178

176179
![image-20240901110610813](../assets/img/Autumn2024-hywan/image-20240901110610813.png)
180+
177181
$$
178182
\tanh(x)=\frac{\exp(x)-\exp(-x)}{\exp(x)+\exp(-x)}=2\sigma(2x)-1
179183
$$
@@ -203,6 +207,7 @@ $$
203207
##### ReLU
204208

205209
![image-20240901111240815](../assets/img/Autumn2024-hywan/image-20240901111240815.png)
210+
206211
$$
207212
\mathrm{ReLU}(x) =
208213
\begin{cases}
@@ -221,6 +226,7 @@ $$
221226
##### 带泄露的ReLU(Leaky ReLU)
222227

223228
![image-20240901111629277](../assets/img/Autumn2024-hywan/image-20240901111629277.png)
229+
224230
$$
225231
\mathrm{LeakyReLU}(x)=
226232
\begin{cases}

0 commit comments

Comments
 (0)