|
1 | 1 | <div align="center">
|
2 |
| - |
| 2 | + <img src="./docs/logo.png" width="250px"/> |
| 3 | + <div> </div> |
3 | 4 | [](./LICENSE)
|
4 | 5 | [](https://badge.fury.io/py/cnstd)
|
5 | 6 | [](https://img.shields.io/github/forks/breezedeus/cnstd)
|
|
10 | 11 |
|
11 | 12 | </div>
|
12 | 13 |
|
13 |
| -# cnstd |
| 14 | +# CnSTD |
14 | 15 |
|
15 |
| -**cnstd** 是 **Python 3** 下的**场景文字检测**(**Scene Text Detection**,简称**STD**)工具包,支持**中文**、**英文**等语言的文字检测,自带了多个训练好的检测模型,安装后即可直接使用。欢迎扫码加入微信交流群: |
| 16 | +**CnSTD** 是 **Python 3** 下的**场景文字检测**(**Scene Text Detection**,简称**STD**)工具包,支持**中文**、**英文**等语言的文字检测,自带了多个训练好的检测模型,安装后即可直接使用。欢迎扫码加入微信交流群: |
16 | 17 |
|
17 | 18 | <div align="center">
|
18 | 19 | <img src="https://huggingface.co/datasets/breezedeus/cnocr-wx-qr-code/resolve/main/wx-qr-code.JPG" alt="微信群二维码" width="300px"/>
|
19 | 20 | </div>
|
20 | 21 |
|
21 | 22 | 作者也维护 **知识星球** [**CnOCR/CnSTD私享群**](https://t.zsxq.com/FEYZRJQ),欢迎加入。**知识星球私享群**会陆续发布一些CnOCR/CnSTD相关的私有资料,包括**更详细的训练教程**,**未公开的模型**,使用过程中遇到的难题解答等。本群也会发布OCR/STD相关的最新研究资料。
|
22 | 23 |
|
23 |
| -自 **v1.0.0** 版本开始,**cnstd** 从之前基于 MXNet 实现转为基于 **PyTorch** 实现。新模型的训练合并了 **ICPR MTWI 2018**、**ICDAR RCTW-17** 和 **ICDAR2019-LSVT** 三个数据集,包括了 **`46447`** 个训练样本,和 **`1534`** 个测试样本。 |
| 24 | +自 **v1.0.0** 版本开始,**CnSTD** 从之前基于 MXNet 实现转为基于 **PyTorch** 实现。新模型的训练合并了 **ICPR MTWI 2018**、**ICDAR RCTW-17** 和 **ICDAR2019-LSVT** 三个数据集,包括了 **`46447`** 个训练样本,和 **`1534`** 个测试样本。 |
24 | 25 |
|
25 | 26 | 相较于之前版本, 新版本的变化主要包括:
|
26 | 27 |
|
@@ -55,11 +56,11 @@ pip install cnstd -i https://pypi.doubanio.com/simple
|
55 | 56 |
|
56 | 57 | ## 已有模型
|
57 | 58 |
|
58 |
| -cnstd 从 **V1.2** 开始,可直接使用的模型包含两类:1)cnstd 自己训练的模型,通常会包含 PyTorch 和 ONNX 版本;2)从其他ocr引擎搬运过来的训练好的外部模型,ONNX化后用于 cnstd 中。 |
| 59 | +CnSTD 从 **V1.2** 开始,可直接使用的模型包含两类:1)CnSTD 自己训练的模型,通常会包含 PyTorch 和 ONNX 版本;2)从其他ocr引擎搬运过来的训练好的外部模型,ONNX化后用于 CnSTD 中。 |
59 | 60 |
|
60 | 61 | 直接使用的模型都放在 [**cnstd-cnocr-models**](https://huggingface.co/breezedeus/cnstd-cnocr-models) 项目中,可免费下载使用。
|
61 | 62 |
|
62 |
| -### 1. cnstd 自己训练的模型 |
| 63 | +### 1. CnSTD 自己训练的模型 |
63 | 64 |
|
64 | 65 | 当前版本(Since **V1.1.0**)的文字检测模型使用的是 [**DBNet**](https://github.com/MhLiao/DB),相较于 V0.1 使用的 [PSENet](https://github.com/whai362/PSENet) 模型, DBNet 的检测耗时几乎下降了一个量级,同时检测精度也得到了极大的提升。
|
65 | 66 |
|
@@ -93,7 +94,7 @@ cnstd 从 **V1.2** 开始,可直接使用的模型包含两类:1)cnstd 自
|
93 | 94 |
|
94 | 95 | ## 使用方法
|
95 | 96 |
|
96 |
| -首次使用 **cnstd** 时,系统会自动下载zip格式的模型压缩文件,并存放于 `~/.cnstd`目录(Windows下默认路径为 `C:\Users\<username>\AppData\Roaming\cnstd`)。下载速度超快。下载后的zip文件代码会自动对其解压,然后把解压后的模型相关目录放于`~/.cnstd/1.2`目录中。 |
| 97 | +首次使用 **CnSTD** 时,系统会自动下载zip格式的模型压缩文件,并存放于 `~/.cnstd`目录(Windows下默认路径为 `C:\Users\<username>\AppData\Roaming\cnstd`)。下载速度超快。下载后的zip文件代码会自动对其解压,然后把解压后的模型相关目录放于`~/.cnstd/1.2`目录中。 |
97 | 98 |
|
98 | 99 | 如果系统无法自动成功下载zip文件,则需要手动从 [百度云盘](https://pan.baidu.com/s/1zDMzArCDrrXHWL0AWxwYQQ?pwd=nstd)(提取码为 `nstd`)下载对应的zip文件并把它存放于 `~/.cnstd/1.2`(Windows下为 `C:\Users\<username>\AppData\Roaming\cnstd\1.2`)目录中。模型也可从 **[cnstd-cnocr-models](https://huggingface.co/breezedeus/cnstd-cnocr-models)** 中下载。放置好zip文件后,后面的事代码就会自动执行了。
|
99 | 100 |
|
|
0 commit comments