Skip to content

Commit 94a9c7c

Browse files
committed
modify docs
1 parent 2d39fdd commit 94a9c7c

17 files changed

+4
-73
lines changed

docs/cv/1-image-denoising.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第一讲:图像预处理之图像去噪
3-
---
4-
51
## **前言**
62

73
很多人想入门AI,可是AI包含很多方向,我建议首先应该明确的选择一个方向,然后有目标、有针对的去学习。

docs/cv/10-CNN.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十讲:传统目标检测之卷积神经网络概述
3-
---
4-
51
# 前言
62

73
![esS9C4.png](https://s2.ax1x.com/2019/08/03/esS9C4.png)

docs/cv/11-Pool-Padding.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十一讲:卷积层、池化层与填充
3-
---
4-
51
# 前言
62

73
从2012年AlexNet成名之后,CNN如同雨后春笋一样,出现了各种各样的Net,其中也有很多知名的,例如VGG、GoogleNet、Faster R-CNN等,每个算法都在前面研究工作的基础上做出了很大的改进,但是这些CNN模型中主要使用的组件却有很多重叠之处,这个组件主要有<!--more-->

docs/cv/12-Activation.md

+3-7
Original file line numberDiff line numberDiff line change
@@ -1,9 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十二讲:激活函数
3-
---
4-
5-
**完整代码**链接:[aiLearnNotes](https://github.com/Jackpopc/aiLearnNotes/blob/master/computer_vision/activation.py)
6-
71
# 前言
82

93
激活函数不仅对于卷积神经网络非常重要,在传统机器学习中也具备着举足轻重的地位,是卷积神经网络模型中必不可少的一个单元,要理解激活函数,需要从2个方面进行讨论:
@@ -153,4 +147,6 @@ tf.nn.relu(features, name=None)
153147
tensorflow中激活函数输入有两个参数:
154148

155149
- features:输入的特征张量,也就是前一层池化层或者卷积层输出的结果,数据类型限制在float32, float64, int32, uint8, int16, int8, int64, float16, uint16, uint32, uint64
156-
- name:运算的名称,这个可以自行命名
150+
- name:运算的名称,这个可以自行命名
151+
152+
**完整代码**链接:[aiLearnNotes](https://github.com/Jackpopc/aiLearnNotes/blob/master/computer_vision/activation.py)

docs/cv/13-BN.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十三讲:批量归一化
3-
---
4-
51
# 前言
62

73
当我们用一些数据做一个预测系统时,我们首先需要对数据进行预处理,例如标准化、正则化、滑动窗口等,比如常用的Z-score、最大最小标准化,它能将数据转化为同一个量级,这样的话能够保证数据的稳定性、可比性。

docs/cv/14-Dropout.md

+1-6
Original file line numberDiff line numberDiff line change
@@ -1,9 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十四讲:正则化之Dropout
3-
---
4-
5-
本文完整代码请查看:[aiLearnNotes](https://github.com/Jackpopc/aiLearnNotes/blob/master/computer_vision/dropout.py)
6-
71
# 前言
82

93
在前几讲里已经介绍了卷积神经网络中常用的一些单元,例如,
@@ -191,3 +185,4 @@ Dropout的训练过程中与Bagging集成学习方法类似,以上图为例,
191185

192186
![np6CKU.png](https://s2.ax1x.com/2019/09/01/np6CKU.png)
193187

188+
本文完整代码请查看:[aiLearnNotes](https://github.com/Jackpopc/aiLearnNotes/blob/master/computer_vision/dropout.py)

docs/cv/15-LeNet.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十五讲:卷积神经网络之LeNet
3-
---
4-
51
# 前言
62

73
![n6JaHe.png](https://s2.ax1x.com/2019/09/14/n6JaHe.png)

docs/cv/16-AlexNet.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十六讲:卷积神经网络之AlexNet
3-
---
4-
51
# 前言
62

73
![uv4Na8.png](https://s2.ax1x.com/2019/10/13/uv4Na8.png)

docs/cv/17-VGG.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第十七讲:卷积神经网络之VGG
3-
---
4-
51
# 前言
62

73
[![KyYVj1.md.png](https://s2.ax1x.com/2019/10/27/KyYVj1.md.png)](https://imgchr.com/i/KyYVj1)

docs/cv/2-image-enhancement.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 2-image-enhancement
3-
---
4-
51
## **前言**
62

73
图像增强是图像处理中一种常用的技术,它的目的是增强图像中全局或局部有用的信息。合理利用图像增强技术能够针对性的增强图像中感兴趣的特征,抑制图像中不感兴趣的特征,这样能够有效的改善图像的质量,增强图像的特征。

docs/cv/3-image-segmentation.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第三讲:图像预处理之图像分割
3-
---
4-
51
## 前言
62

73
图像分割是一种把图像分成若干个独立子区域的技术和过程。在图像的研究和应用中,很多时候我们关注的仅是图像中的目标或前景(其他部分称为背景),它们对应图像中特定的、具有独特性质的区域。为了分割目标,需要将这些区域分离提取出来,在此基础上才有可能进一步利用,如进行特征提取、目标识别。因此,图像分割是由图像处理进到图像分析的关键步骤,在图像领域占据着至关重要的地位。

docs/cv/4-image-augmented.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第四讲:图像预处理之图像增广
3-
---
4-
51
## **前言**
62

73
近几年深度学习的大规模成功应用主要的就是得益于数据的累积和算例的提升,虽然近几年很多研究者竭力的攻克半监督和无监督学习,减少对大量数据的依赖,但是目前数据在计算机视觉、自然语言处理等人工智能技术领域依然占据着非常重要的地位。甚至可以说,大规模的数据是计算机视觉成功应用的前提条件。但是由于种种原因导致数据的采集变的十分困难,因此图像增广技术就在数据的准备过程中占据着举足轻重的角色,本文就概括一下常用的图像增广技术并编程实现相应手段。

docs/cv/5-feature-engineering.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第五讲:传统目标检测之特征工程
3-
---
4-
51
## 前言
62

73
随着2012年[AlexNet](http://www.cs.toronto.edu/~fritz/absps/imagenet.pdf)在ImageNet挑战赛一举夺魁,让深度卷积网络迅速霸占了目标识别和计算机视觉的头把交椅。随后的VGG、R-CNN、SSD、YOLO让深度卷积网络在计算机视觉领域的地位更加稳固。

docs/cv/6-harris.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第六讲:传统目标检测之Harris角点检测
3-
---
4-
51
## **前言**
62

73
在传统目标识别中,特征提取是最终目标识别效果好坏的一个重要决定因素,因此,在这项工作里,有很多研究者把主要精力都放在特征提取方向。在传统目标识别中,主要使用的特征主要有如下几类:

docs/cv/7-SIFT.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第七讲:传统目标检测之SIFT特征
3-
---
4-
51
## **前言**
62

73
提到传统目标识别,就不得不提SIFT算法,Scale-invariant feature transform,中文含义就是尺度不变特征变换。此方法由David Lowe于1999年发表于ICCV(International Conference on Computer Vision),并经过5年的整理和晚上,在2004年发表于IJCV(International journal of computer vision)。由于在此之前的目标检测算法对图片的大小、旋转非常敏感,而SIFT算法是一种基于局部兴趣点的算法,因此不仅对图片大小和旋转不敏感,而且对光照、噪声等影响的抗击能力也非常优秀,因此,该算法在性能和适用范围方面较于之前的算法有着质的改变。这使得该算法对比于之前的算法有着明显的优势,所以,一直以来它都在目标检测和特征提取方向占据着重要的地位,截止2019年6月19日,这篇文章的引用量已经达到51330次(谷歌学术),受欢迎程度可见一斑,本文就详细介绍一下这篇文章的原理,并一步一步编程实现本算法,让各位对这个算法有更清晰的认识和理解。

docs/cv/8-HOG.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第八讲:传统目标检测之HOG特征
3-
---
4-
51
## 前言
62

73
![erkAC8.png](https://s2.ax1x.com/2019/08/03/erkAC8.png)

docs/cv/9-DPM.md

-4
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,3 @@
1-
---
2-
title: 【动手学计算机视觉】第九讲:传统目标检测之DPM模型
3-
---
4-
51
# 前言
62

73
![erJsKA.png](https://s2.ax1x.com/2019/08/03/erJsKA.png)

0 commit comments

Comments
 (0)