Skip to content

Commit 95b7c99

Browse files
committed
feat: runtime
1 parent ac73d4d commit 95b7c99

File tree

3 files changed

+185
-0
lines changed

3 files changed

+185
-0
lines changed

README.md

Lines changed: 4 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -151,6 +151,8 @@
151151

152152
- [使用 redis ziplist 大幅度降低优化千万级 kv 的内存占用](https://github.com/rfyiamcool/notes/blob/main/redis_ziplist_reduce_mem.md)
153153

154+
- [# golang gomaxprocs 不匹配引起 runtime 调度性能损耗](https://github.com/rfyiamcool/notes/blob/main/golang_runtime_maxprocs.md)
155+
154156
- [go http server感应连接中断及超时控制](https://github.com/rfyiamcool/notes/blob/main/go_http_client_timeout.md)
155157

156158
- [golang net/http超时引发大量fin-wait2](https://github.com/rfyiamcool/notes/blob/main/go_http_client_fin_wait2.md)
@@ -186,3 +188,5 @@
186188
- [istio envoy 的性能测试](https://github.com/rfyiamcool/notes/blob/main/istio_sidecar_performance.md)
187189

188190
- [为 golang GRPC 配置 SAN 证书](https://github.com/rfyiamcool/notes/blob/main/create_san_tls.md)
191+
192+
- [对比 redis lua和 modules 模块的性能损耗](https://github.com/rfyiamcool/notes/blob/main/redis_lua_vs_module.md)

golang_runtime_maxprocs.md

Lines changed: 100 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,100 @@
1+
# golang gomaxprocs 不匹配引起 runtime 调度性能损耗
2+
3+
先前在社区里分享了关于golang行情推送的分享,有人针对ppt的内容问了我两个问题,一个是在docker下golang的gomaxprocs初始化混乱问题,另一个是golang runtime.gomaxprocs配置多少为合适?
4+
5+
![](http://xiaorui.cc/wp-content/uploads/2020/01/aa.jpg)
6+
7+
分享下上面行情推送的ppt地址,有兴趣的可以看看。 http://xiaorui.cc/?p=6250
8+
9+
## golang runtime
10+
11+
golang的runtime调度是依赖pmg的角色抽象,p为逻辑处理器,m为执行体(线程),g为协程。p的runq队列中放着可执行的goroutine结构。golang默认p的数量为cpu core数目,比如物理核心为8cpu core,那么go processor的数量就为8。另外,同一时间一个p只能绑定一个m线程,pm绑定后自然就找g和运行g。
12+
13+
那么增加processor的数量,是否可以用来加大runtime对于协程的调度吞吐?
14+
15+
大多golang的项目偏重网络io,network io在netpoll设计下都是非阻塞的,所涉及到的syscall不会阻塞。如果是cpu密集的业务,增加多个processor也没用,毕竟cpu计算资源就这些,居然还想着来回的切换? 😅 所以,多数场景下单纯增加processor是没什么用的。
16+
17+
当然,话不绝对,如果你的逻辑含有不少的cgo及阻塞syscall的操作,那么增加processor还是有效果的,最少在我实际项目中有效果。原因是这类操作有可能因为过慢引起阻塞,在阻塞期间的p被该mg绑定一起,其他m无法获取p的所有权。虽然在findrunnable steal机制里,其他p的m可以偷该p的任务,但在解绑p之前终究还是少了一条并行通道。另外,runtime的sysmon周期性的检查长时间阻塞的pmg, 并抢占并解绑p。
18+
19+
## golang在docker下问题
20+
21+
在微服务体系下服务的部署通常是放在docker里的。一个宿主机里跑着大量的不同服务的容器,为了避免资源冲突,通常会合理的对每个容器做cpu资源控制。比如给一个golang服务的容器限定了2cpu core的资源,容器内的服务不管怎么折腾,也确实只能用到大约2个cpu core的资源。
22+
23+
但golang初始化processor数量是依赖/proc/cpuinfo信息的,容器内的cpuinfo是跟宿主机一致的,这样导致容器只能用到2个cpu core,但golang初始化了跟物理cpu core相同数量的processor。
24+
25+
```
26+
// xiaorui.cc
27+
28+
限制2核左右
29+
[email protected]:~# docker run -tid --cpu-period 100000 --cpu-quota 200000 ubuntu
30+
31+
容器内
32+
root@a4f33fdd0240:/# cat /proc/cpuinfo| grep "processor"| wc -l
33+
48
34+
```
35+
36+
## runtime processor多了会出现什么问题?
37+
38+
一个runtime findrunnable时产生的损耗,另一个是线程引起的上下文切换。
39+
40+
runtime的findrunnable方法是解决m找可用的协程的函数,当从绑定p本地runq上找不到可执行的goroutine后,尝试从全局链表中拿,再拿不到从netpoll和事件池里拿,最后会从别的p里偷任务。全局runq是有锁操作,其他偷任务使用了atomic原子操作来规避futex竞争下陷入切换等待问题,但lock free在竞争下也会有忙轮询的状态,比如不断的尝试。
41+
42+
```go
43+
// xiaorui.cc
44+
45+
// 全局 runq
46+
if sched.runqsize != 0 {
47+
lock(&sched.lock)
48+
gp := globrunqget(_p_, 0)
49+
unlock(&sched.lock)
50+
if gp != nil {
51+
return gp, false
52+
}
53+
}
54+
...
55+
// 尝试4次从别的p偷任务
56+
for i := 0; i < 4; i++ {
57+
for enum := stealOrder.start(fastrand()); !enum.done(); enum.next() {
58+
if sched.gcwaiting != 0 {
59+
goto top
60+
}
61+
stealRunNextG := i > 2 // first look for ready queues with more than 1 g
62+
if gp := runqsteal(_p_, allp[enum.position()], stealRunNextG); gp != nil {
63+
return gp, false
64+
}
65+
}
66+
}
67+
...
68+
```
69+
70+
通过godebug可以看到全局队列及各个p的runq里等待调度的任务量。有不少p是空的,那么势必会引起steal偷任务。另外,runqueue的大小远超其他p的总和,说明大部分任务在全局里,全局又是把大锁。
71+
72+
![](http://xiaorui.cc/wp-content/uploads/2020/01/jjj.jpg)
73+
74+
随着调多runtime processor数量,相关的m线程自然也就跟着多了起来。linux内核为了保证可执行的线程在调度上雨露均沾,按照内核调度算法来切换就绪状态的线程,切换又引起上下文切换。上下文切换也是性能的一大杀手。findrunnable的某些锁竞争也会触发上下文切换。
75+
76+
下面是我这边一个行情推送服务压测下的vmstat监控数据。首先把容器的的cpu core限制为8,再先后测试processor为8和48的情况。图的上面是processor为8的情况,下面为processor为48的情况。看图可以直观的发现当processor调大后,上下文切换明显多起来,另外等待调度的线程也多了。
77+
78+
![](http://xiaorui.cc/wp-content/uploads/2020/01/1111.jpg)
79+
80+
另外从qps的指标上也可以反映多processor带来的性能损耗。通过下图可以看到当runtime.GOMAXPROCS为固定的cpu core数时,性能最理想。后面随着processor数量的增长,qps指标有所下降。
81+
82+
![](http://xiaorui.cc/wp-content/uploads/2020/01/qps-2.jpg)
83+
84+
通过golang tool trace可以分析出协程调度等待时间越来越长了。
85+
86+
![](http://xiaorui.cc/wp-content/uploads/2020/01/aaa.jpg)
87+
88+
## 解决docker下的golang gomaxprocs校对问题
89+
90+
有两个方法可以准确校对golang在docker的cpu获取问题。
91+
92+
要么在k8s pod里加入cpu限制的环境变量。容器内的golang服务在启动时获取关于cpu的信息。
93+
94+
要么解析cpu.cfs_period_us和cpu.cfs_quota_us配置来计算cpu资源。社区里有不少这类的库可以使用,uber的automaxprocs可以兼容docker的各种cpu配置。
95+
96+
[https://github.com/uber-go/automaxprocs](https://github.com/uber-go/automaxprocs)
97+
98+
## 总结
99+
100+
建议gomaxprocs配置为cpu core数量就可以了,go默认就是这个配置,无需再介入。如果涉及到阻塞syscall,可以适当的调整gomaxprocs大小,但一定要用指标数据说话 !

redis_lua_vs_module.md

Lines changed: 81 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,81 @@
1+
# 对比 redis lua和 modules 模块的性能损耗
2+
3+
redis lua是干嘛的? 我们可以自定义逻辑方法,在方法里执行多个redis.call命令,以及各种逻辑的判断。 Redis modules的功能跟Redis lua是很类同的,显而易见的区别是,一个是lua,另一个是c代码。
4+
5+
## Redis Lua Scripts的好处
6+
7+
-减少了网络的RTT消耗。
8+
9+
-原子化的封装,在redis里lua脚本的执行触发原子的,不可被中断的。
10+
11+
不可被中断? 如果发生阻塞命令怎么办? redis lua的wiki里写明了是不允许调用那些堵塞方法的,比如sub订阅,brpop这类的。
12+
13+
## Redis modules
14+
15+
redis 4.0版支持扩充自定义的modules模块功能,可以在module里构建各种复杂的逻辑。redis modules兼并了redis lua的优点。较为麻烦的是redis modules需要build动态链接库so,然后loadmodules的方法来外挂启动。每次增加一个新modules的时候,可能就意味着你的redis cluster需要调整下了。
16+
17+
## lua和modules的区别
18+
19+
redis官方建议使用redis modules扩充数据结构和实现组合功能,比如 支持json的rejson,支持搜索的RediSearch,支持topk的redis topk等等,而lua更倾向于去实现命令组合原子化。 对于我们业务上的绝大数需求来说,lua更加的好用,不需要每次都加载so,直接注册lua scirpts就可以了。
20+
21+
## redis lua vs redis modules 性能对比
22+
23+
前面说了这么多科普的介绍,那么我们目的在于什么? 我自己一直怀疑redis lua的速度应该是比redis原生命令和redis modules模块慢,但自己没测试过性能会相差多少,所以写了几个benchmark测试下。 需要说明的是,这里使用redis-benchmark的测试方法也有待论证。 原本是想用go写一版,但考虑到go runtime本身也是有抖动的,有失公平。redis-benchmark也是官方推荐的方式。
24+
25+
### 测试redis原生命令hset的qps
26+
27+
![https://xiaorui.cc/wp-content/uploads/2018/07/20180715141617_48766.jpg](https://xiaorui.cc/wp-content/uploads/2018/07/20180715141617_48766.jpg)
28+
29+
### 测试redis lua scripts的qps
30+
31+
![](https://xiaorui.cc/wp-content/uploads/2018/07/20180715140610_57709.jpg)
32+
33+
### 测试redis modules的hset命令的qps
34+
35+
![](https://xiaorui.cc/wp-content/uploads/2018/07/20180715140959_99044.jpg)
36+
37+
这里放一个redis modules实现hset调用的代码, 只需要make; redis-server –loadmodule ./module.so 就可以启动加载了。
38+
39+
```c
40+
// xiaorui.cc
41+
42+
int HGetCommand(RedisModuleCtx *ctx, RedisModuleString **argv, int argc) {
43+
44+
// we need EXACTLY 4 arguments
45+
if (argc != 4) {
46+
return RedisModule_WrongArity(ctx);
47+
}
48+
RedisModule_AutoMemory(ctx);
49+
50+
// open the key and make sure it's indeed a HASH and not empty
51+
RedisModuleKey *key =
52+
RedisModule_OpenKey(ctx, argv[1], REDISMODULE_READ | REDISMODULE_WRITE);
53+
if (RedisModule_KeyType(key) != REDISMODULE_KEYTYPE_HASH &&
54+
RedisModule_KeyType(key) != REDISMODULE_KEYTYPE_EMPTY) {
55+
return RedisModule_ReplyWithError(ctx, REDISMODULE_ERRORMSG_WRONGTYPE);
56+
}
57+
58+
// set the new value of the element
59+
RedisModuleCallReply *rep =
60+
RedisModule_Call(ctx, "HSET", "sss", argv[1], argv[2], argv[3]);
61+
RMUTIL_ASSERT_NOERROR(ctx, rep);
62+
63+
// if the value was null before - we just return null
64+
if (RedisModule_CallReplyType(rep) == REDISMODULE_REPLY_NULL) {
65+
RedisModule_ReplyWithNull(ctx);
66+
return REDISMODULE_OK;
67+
}
68+
69+
// forward the HGET reply to the client
70+
RedisModule_ReplyWithCallReply(ctx, rep);
71+
return REDISMODULE_OK;
72+
}
73+
```
74+
75+
这里的测试都是单命令测试,主要是为了可以对比原生的命令。单纯从benchmark结果来说,原生的命令是最快,其次是redis modules模块,相对慢一点是redis lua scripts, 通过qps对比,redis lua也仅仅慢一点点罢了。 当然如果使用复杂的 lua 函数,性能会进一步下降。
76+
77+
redis lua 可随意注册使用,但 redis modules 相对麻烦了,需要redis-server启动的时候加载该动态链接库。 很多云厂商的redis paas也不支持你这么做。
78+
79+
## 总结
80+
81+
当然测试的方法很不严谨,但单纯看上面的结果来分析,我们不需要过于担心 redis lua 和 redis modules 的性能损耗。

0 commit comments

Comments
 (0)