SpringCloud服务的平滑上下线的方法

  • 2022-07-20 18:47:12

吐槽

以前都是手撸rpc,最近接触springcloud,深感痛心。主要有以下几点:

1)代码量巨大,找bug时间长,超级复杂的设计

2)版本管理混乱,经常出现莫名其妙的配置错误(所以2.0是打死不敢上生产啊)

3)netflix公司的有些代码,实在是让人费解,根本就不考虑扩展性

4)生态链庞大,学习成本大

建议准备上微服务的同学,固定下一个版本,不要随意更新或降级。拿tomcat的basedir来说,1.5.8到1.5.13到1.5.16版本是换来换去,不小心点会出事故的。

server:
 port: 21004
 context-path: /
 tomcat:
  basedir: file:.

如上,basedir先是从.换到file:.,又从file:.换成.,连兼容代码都木有。有木有想打死工程师?

前言

今天主要谈的话题,是平滑的上下线功能。所谓平滑,指的是发版无感知,不至于等到夜深人静的时候偷偷去搞。某些请求时间可以长点,但不能失败,尤其是对支付来说,想花钱花不出去是很让人苦恼的;花了钱买不到东西是很让人恼火的。整体来说,springcloud功能齐全,经过一段时间的踩坑后使用起来还是非常舒服的。

我们的微服务,大体集成了以下内容。

SpringCloud服务的平滑上下线的方法

嗯,一个庞大的生态

问题

那么问题来了,springcloud到注册中心的注册是通过rest接口调用的。它不能像zookeeper那样,有问题节点反馈及时生效。也不能像redis那么快的去轮训,太娇贵怕轮坏了。如下图:

SpringCloud服务的平滑上下线的方法

有三个要求:

1)servicea下线一台实例后,zuul网关的调用不能失败 2)serviceb下线一台实例后,servicea的feign调用不能失败 3)服务上线下线,eureka服务能够快速感知

说白了就一件事,怎样尽量缩短服务下线后zuul和其他被依赖服务的发现时间,并在这段时间内保证请求不失败。

解决时间问题

影响因子

1) eureka的两层缓存问题 (这是什么鬼)

eurekaserver默认有两个缓存,一个是readwritemap,另一个是readonlymap。有服务提供者注册服务或者维持心跳时时,会修改readwritemap。当有服务调用者查询服务实例列表时,默认会从readonlymap读取(这个在原生eureka可以配置,springcloud eureka中不能配置,一定会启用readonlymap读取),这样可以减少readwritemap读写锁的争用,增大吞吐量。eurekaserver定时把数据从readwritemap更新到readonlymap中

2) 心跳时间

服务提供者注册服务后,会定时心跳。这个根据服务提供者的eureka配置中的服务刷新时间决定。还有个配置是服务过期时间,这个配置在服务提供者配置但是在eurekaserver使用了,但是默认配置eurekaserver不会启用这个字段。需要配置好eurekaserver的扫描失效时间,才会启用eurekaserver的主动失效机制。在这个机制启用下:每个服务提供者会发送自己服务过期时间上去,eurekaserver会定时检查每个服务过期时间和上次心跳时间,如果在过期时间内没有收到过任何一次心跳,同时没有处于保护模式下,则会将这个实例从readwritemap中去掉

3)调用者服务从eureka拉列表的轮训间隔

4) ribbon缓存

解决方式

1) 禁用eureka的readonlymap缓存 (eureka端)

eureka.server.use-read-only-response-cache: false

2) 启用主动失效,并且每次主动失效检测间隔为3s (eureka端)

eureka.server.eviction-interval-timer-in-ms: 3000

像eureka.server.responsecacheupdateinvervalms和eureka.server.responsecacheautoexpirationinseconds在启用了主动失效后其实没什么用了。默认的180s真够把人给急疯的。

3) 服务过期时间 (服务提供方)

eureka.instance.lease-expiration-duration-in-seconds: 15

超过这个时间没有接收到心跳eurekaserver就会将这个实例剔除。eurekaserver一定要设置eureka.server.eviction-interval-timer-in-ms否则这个配置无效,这个配置一般为服务刷新时间配置的三倍。默认90s!

4) 服务刷新时间配置,每隔这个时间会主动心跳一次 (服务提供方)

eureka.instance.lease-renewal-interval-in-seconds: 5

默认30s

5) 拉服务列表时间间隔 (客户端)

eureka.client.registryfetchintervalseconds: 5

默认30s

6) ribbon刷新时间 (客户端)

ribbon.serverlistrefreshinterval: 5000

ribbon竟然也有缓存,默认30s

这些超时时间相互影响,竟然三个地方都需要配置,一不小心就会出现服务不下线,服务不上线的囧境。不得不说springcloud的这套默认参数简直就是在搞笑。

重试

那么一台服务器下线,最长的不可用时间是多少呢?(即请求会落到下线的服务器上,请求失败)。赶的巧的话,这个基本时间就是eureka.client.registryfetchintervalseconds+ribbon.serverlistrefreshinterval,大约是8秒的时间。如果算上服务端主动失效的时间,这个时间会增加到11秒。

如果你只有两个实例,极端情况下服务上线的发现时间也需要11秒,那就是22秒的时间。

理想情况下,在这11秒之间,请求是失败的。加入你的qps是1000,部署了四个节点,那么在11秒中失败的请求数量会是 1000 / 4 * 11 = 2750,这是不可接受的。所以我们要引入重试机制。

springcloud引入重试还是比较简单的。但不是配置一下就可以的,既然用了重试,那么就还需要控制超时。可以按照以下的步骤:

引入pom (千万别忘了哦)

<dependency>
  <groupid>org.springframework.retry</groupid>
  <artifactid>spring-retry</artifactid>
</dependency>

加入配置

ribbon.oktoretryonalloperations:true 
#(是否所有操作都重试,若false则仅get请求重试)
ribbon.maxautoretriesnextserver:3 
#(重试负载均衡其他实例最大重试次数,不含首次实例)
ribbon.maxautoretries:1
#(同一实例最大重试次数,不含首次调用)
ribbon.readtimeout:30000
ribbon.connecttimeout:3000
ribbon.retryablestatuscodes:404,500,503
#(那些状态进行重试)
spring.cloud.loadbalancer.retry.enable:true
# (重试开关)

发布系统

ok,机制已经解释清楚,但是实践起来还是很繁杂的,让人焦躁。比如有一个服务有两个实例,我要一台一台的去发布,在发布第二台之前,起码要等上11秒。如果手速太快,那就是灾难。所以一个配套的发布系统是必要的。

首先可以通过rest请求去请求eureka,主动去隔离一台实例,多了这一步,可以减少至少3秒服务不可用的时间(还是比较划算的)。

然后通过打包工具打包,推包。依次上线替换。

市面上没有这样的持续集成哦你工具,那么发布系统就需要定制,这也是一部分工作量。

到此,仅仅是解决了springcloud微服务平滑上下线的功能,至于灰度,又是另外一个话题了。有条件的公司选择自研还是很明智的,不至于将功能拉低到如此的水平。

不过大体不用担心,你的公司能不能活下去,还是一个未知数。netflix都忍了,在做的各位能比它强大么?

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。

猜你喜欢