服务治理通常是指通过限流、熔断等手段,保障微服务的可靠运行,即运行时治理。更加宽泛的服务治理还包括微服务持续集成(开源软件管理、自动化测试等),微服务部署最佳实践(滚动升级、灰度发布等),微服务可观测性能力(日志、监控、告警等)构建等。
微服务治理专题主要探讨运行时治理。隔离仓是适用于大部分故障模式,简单有效的治理策略,本章介绍隔离仓的原理和作用。
隔离仓的定义和作用
业务请求的处理都会占用系统资源,包括CPU、内存、线程池、连接池等。隔离仓是一种限制业务请求对系统资源占用的服务治理策略,防止单个业务请求或者单个微服务实例过多的占用系统资源,对其他业务请求以及系统总体的性能产生严重影响。
线程池是治理策略应用最广泛的系统资源,通常所有请求都在一个共享的线程池处理,常见的隔离仓实现,都是限制请求对线程池的过多占用。本文以 Spring
Cloud Huawei 为例,演示其隔离仓在两种故障场景下的作用。
·
微服务A调用微服务B,A和B分别有M个实例,模拟N个并发客户端连续不断的请求A。然后给B扩容1个实例。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。
·
微服务A调用微服务B,A和B分别有M个实例,B有两个接口 X 和 Y,
其中X处理100ms,Y处理500 ms,模拟N 个并发客户端通过A连续请求X接口,N 个并发客户端通过A连续请求Y接口。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。
Spring Cloud Huawei客户端隔离仓的工作原理和效果
Spring Cloud Huawei 客户端隔离仓 的主要作用是限制一个实例、或者一个实例的某个接口最大并发数,当一个实例的最大并发处理大于设置的阈值maxConcurrentCalls的时候,后续请求会在当前线程等待maxWaitDuration时间,如果这段时间有请求处理完毕,那么后续请求会继续处理,否则就会被丢弃,返回408错误。
Spring Cloud Huawei 服务端隔离仓 的主要作用是限制一个接口的最大并发数,当一个接口的最大并发处理大于设置的阈值maxConcurrentCalls的时候,后续请求会在当前线程等待maxWaitDuration时间,如果这段时间有请求处理完毕,那么后续请求会继续处理,否则就会被丢弃,返回408错误。
·
微服务A的隔离仓配置:
servicecomb:
matchGroup:
allOperation: |
matches:
- apiPath:
prefix: "/"
instanceBulkhead:
##
隔离仓限制正在处理的请求数为20个,新来的请求等待1000毫秒没有获取到
##
许可,将被拒绝。
allOperation: |
maxConcurrentCalls: 20
maxWaitDuration: 1000
#
为了匹配测试用例,设置微服务A的线程池大小为20
server:
tomcat:
threads:
max: 20
minSpare: 20
微服务A调用微服务B,A和B分别有1个实例,模拟40个并发客户端连续不断的请求A。然后给B扩容1个实例。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。
测试结果:
不使用隔离仓:
Total time
:121852
Success count
:200000
Timeout count
:0
Error count
:0
Average Latency
:24
|(10,7942)||(20,90667)||(50,93017)||(100,7041)||(200,1151)||(500,173)||(1000,9)|
使用隔离仓:
Total time
:112440
Success count
:200000
Timeout count
:0
Error count
:0
Average Latency
:22
|(10,8683)||(20,100275)||(50,86137)||(100,4106)||(200,679)||(500,120)||(1000,0)|
从上述结果可以看出使用隔离仓的情况下,时延大于200ms的请求明显减少。 这个结果说明隔离仓的使用并没有降低系统的处理性能,甚至可能带来一些性能的改善,减少时延偏差较大的请求数量。上述测试场景,并没有演示新启动实例导致故障的场景。如果需要模拟这种场景,可以考虑微服务A部署10个实例,并且采用500个并发客户端访问。
·
微服务A的隔离仓配置:
servicecomb:
matchGroup:
allOperation: |
matches:
- apiPath:
#
对耗时的接口配置隔离仓
prefix: "/benchmark/delay/z100"
instanceBulkhead:
##
隔离仓限制正在处理的请求数为20个,新来的请求等待1000毫秒没有获取到
##
许可,将被拒绝。
allOperation: |
maxConcurrentCalls: 20
maxWaitDuration: 1000
#
为了匹配测试用例,设置微服务A的线程池大小为40
server:
tomcat:
threads:
max: 40
minSpare: 40
微服务A调用微服务B,A和B分别有1个实例,B有两个接口 X 和 Y,
其中X处理1ms,Y处理100 ms,模拟20 个并发客户端通过A连续请求X接口,20 个并发客户端通过A连续请求Y接口。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。
测试结果:
不使用隔离仓:
Total time
:69029
Success count
:40000
Timeout count
:0
Error count
:0
Average Latency
:68
|(10,2175)||(20,12078)||(50,5727)||(100,17)||(200,20003)||(500,0)||(1000,0)||(10000,0)|
使用隔离仓:
Total time
:107354
Success count
:40000
Timeout count
:0
Error count
:0
Average Latency
:106
|(10,2217)||(20,14264)||(50,3506)||(100,7)||(200,15738)||(500,4268)||(1000,0)||(10000,0)|
从上述结果可以看出使用隔离仓的情况下,时延小于20ms的请求有所增加,但是时延超过500ms的请求增加更加明显。这是因为测试场景属于IO密集型场景,使用隔离仓,降低了Y接口的并发度,大量请求排队,导致整体的时延大幅增长。下面把客户端隔离仓去掉,改为服务端隔离仓,再看看效果。
微服务B的隔离仓配置:
servicecomb
:
matchGroup
:
allOperation
:|
matches
:
-
apiPath
:
#
对耗时的接口配置隔离仓
prefix
:"/benchmark/delay/z100"
bulkhead
:
##
隔离仓限制正在处理的请求数为
20个,新来的请求等待
1000毫秒没有获取到
##
许可,将被拒绝。
allOperation
:|
maxConcurrentCalls
:10
maxWaitDuration
:1000
#
为了匹配测试用例,设置微服务
B的线程池大小为
20
server
:
tomcat
:
threads
:
max
:20
minSpare
:20
微服务A调用微服务B,A和B分别有1个实例,B有两个接口 X 和 Y,
其中X处理1ms,Y处理100 ms,模拟20 个并发客户端通过A连续请求X接口,20 个并发客户端通过A连续请求Y接口。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。
测试结果:
不使用隔离仓:
Total time
:110685
Success count
:40000
Timeout count
:0
Error count
:0
Average Latency
:109
|(10,160)||(20,1207)||(50,4378)||(100,14091)||(200,19906)||(500,258)||(1000,0)||(10000,0)|
使用隔离仓:
Total time
:214565
Success count
:40000
Timeout count
:0
Error count
:0
Average Latency
:213
|(10,46)||(20,734)||(50,279)||(100,3941)||(200,14972)||(500,19995)||(1000,33)||(10000,0)|
从上述结果可以看出使用隔离仓的情况下,平均时延和性能同样会下降。我们适当调整下隔离仓的限制,快速丢弃一些请求:
servicecomb
:
matchGroup
:
allOperation
:|
matches
:
-
apiPath
:
#
对耗时的接口配置隔离仓
prefix
:"/benchmark/delay/z100"
bulkhead
:
##
隔离仓限制正在处理的请求数为
20个,新来的请求等待
1000毫秒没有获取到
##
许可,将被拒绝。
allOperation
:|
maxConcurrentCalls
:10
maxWaitDuration
:10
#
为了匹配测试用例,设置微服务
B的线程池大小为
20
server
:
tomcat
:
threads
:
max
:20
minSpare
:20
使用隔离仓的测试结果:
Total time
:68189
Success count
:22733
Timeout count
:1
Error count
:17266
Average Latency
:115
|(10,53)||(20,2096)||(50,19470)||(100,13025)||(200,3885)||(500,1361)||(1000,109)||(10000,1)|
上述结果可以看出,快速丢弃请求的情况下,时延小于50ms的请求大于20000个。隔离仓保证了处理很快的接口能够得到快速成功执行,前提条件是处理很慢的接口不占用资源,快速失败。
隔离仓总结
隔离仓的使用,在计算密集型场景下,对系统的性能影响很小,甚至可以起到一定的性能改善作用。在IO密集型场景下,由于隔离仓降低了请求的并发执行线程,会导致吞吐量降低和时延增加。
也可以看出,在IO等待比较长的情况下,系统的吞吐量和系统的可靠性是两个没法同时满足的目标,如果要保证成功率不降低,并且吞吐量增加,那么势必增加业务线程等系统资源占用,从而对系统整体的可靠性产生影响。对于耗时的请求,只能通过快速丢弃超过资源使用限制的部分,才能够保证系统吞吐量不下降,并且避免产生系统性的全局功能影响。因此,系统应该合理的设计部分耗时请求的最大并发,在超过这些指标的时候,快速丢弃多余的请求。过度追求耗时请求的吞吐量而扩大线程池、连接池等,是很多应用系统最常见的设计误区。