SpringCloud系列 (十四)SCA Sentinel 分布式系统的流量防卫兵

580 阅读14分钟

SCA Sentinel 分布式系统的流量防卫兵

Sentinel 介绍

Sentinel是⼀个⾯向云原⽣微服务的流量控制、熔断降级组件。替代Hystrix,针对问题:服务雪崩、服务降级、服务熔断、服务限流

hystrix

在之前的案例中,创建了两个微服务:服务消费者(⾃动投递微服务)—>调⽤服务提供者(简历微服务)

在调⽤⽅引⼊Hystrix—> 单独搞了⼀个Dashboard项⽬—>Turbine

1)⾃⼰搭建监控平台 dashboard

2)没有提供UI界⾯进⾏服务熔断、服务降级等配置(⽽是写代码,⼊侵了我们源程序环境)

Sentinel

  • 基本特性

    • 独⽴可部署,Dashboard/控制台组件
    • 减少代码开发,通过UI界⾯配置即可完成细粒度控制(⾃动投递微服务)
  • Sentinel的组成

    • 核⼼库:(Java 客户端)不依赖任何框架/库,能够运⾏于所有 Java 运⾏时环境,同时对 Dubbo / Spring Cloud 等框架也有较好的⽀持

    • 控制台:(Dashboard)基于 Spring Boot 开发,打包后可以直接运⾏,不需要额外的 Tomcat 等应⽤容器。

  • Sentinel 具有以下特征

    • 丰富的应⽤场景:Sentinel 承接了阿⾥巴巴近 10 年的双⼗⼀⼤促流量的核⼼场景,例如秒杀(即突发流量控制在系统容量可以承受的范围)、消息削峰填⾕、集群流量控制、实时熔断下游不可⽤应⽤等
    • 完备的实时监控:Sentinel 同时提供实时的监控功能。您可以在控制台中看到接⼊应⽤的单台机器秒级数据,甚⾄ 500 台以下规模的集群的汇总运⾏情况。
    • ⼴泛的开源⽣态:Sentinel 提供开箱即⽤的与其它开源框架/库的整合模块,例如与 Spring Cloud、Dubbo的整合。您只需要引⼊相应的依赖并进⾏简单的配置即可快速地接⼊ Sentinel。
    • 完善的 SPI 扩展点:Sentinel 提供简单易⽤、完善的 SPI 扩展接⼝。您可以通过实现扩展接⼝来快速地定制逻辑。例如定制规则管理、适配动态数据源等。
  • 主要特性

image.png

  • 开源生态 image.png

Sentinel 部署

下载地址:github.com/alibaba/Sen… 我们使⽤v1.7.1

启动:java -jar sentinel-dashboard-1.7.1.jar &

⽤户名/密码:sentinel/sentinel

image.png

启动后打开网址:http://localhost:8080/ image.png

服务改造

在我们已有的业务场景中,“⾃动投递微服务”调⽤了“简历微服务”,我们在⾃动投递微服务进⾏的熔断降级等控制,那么接下来我们改造⾃动投递微服务,引⼊Sentinel核⼼包

  • 新创建一个项目 image.png

  • pom添加依赖

<!--sentinel 核心环境 依赖-->
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
</dependency>
  • application.yml配置文件,重点添加sentinel的配置
server:
  port: 8098
spring:
  application:
    name: lagou-service-autodeliver
  cloud:
    nacos:
      discovery:
        server-addr: 127.0.0.1:8848,127.0.0.1:8849,127.0.0.1:8850

    sentinel:
      transport:
        dashboard: 127.0.0.1:8080 # sentinel dashboard/console 地址
        port: 8719   #  sentinel会在该端口启动http server,那么这样的话,控制台定义的一些限流等规则才能发送传递过来,
        #如果8719端口被占用,那么会依次+1
      # Sentinel Nacos数据源配置,Nacos中的规则会自动同步到sentinel流控规则中

management:
  endpoints:
    web:
      exposure:
        include: "*"
  # 暴露健康接口的细节
  endpoint:
    health:
      show-details: always
#针对的被调用方微服务名称,不加就是全局生效
lagou-service-resume:
  ribbon:
    #请求连接超时时间
    ConnectTimeout: 2000
    #请求处理超时时间
    ##########################################Feign超时时长设置
    ReadTimeout: 3000
    #对所有操作都进行重试
    OkToRetryOnAllOperations: true
    ####根据如上配置,当访问到故障请求的时候,它会再尝试访问一次当前实例(次数由MaxAutoRetries配置),
    ####如果不行,就换一个实例进行访问,如果还不行,再换一次实例访问(更换次数由MaxAutoRetriesNextServer配置),
    ####如果依然不行,返回失败信息。
    MaxAutoRetries: 0 #对当前选中实例重试次数,不包括第一次调用
    MaxAutoRetriesNextServer: 0 #切换实例的重试次数
    NFLoadBalancerRuleClassName: com.netflix.loadbalancer.RoundRobinRule #负载策略调整
logging:
  level:
    # Feign日志只会对日志级别为debug的做出响应
    com.lagou.edu.controller.service.ResumeServiceFeignClient: debug
  • 启动一个简历微服务,启动一个简历投递微服务 image.png

  • 在nacos中,已经看到两个微服务已经上来了 image.png

  • 让简历投递微服务发起请求到简历微服务后,再来看看sentinel,已经发现有数据过来了 image.png

Sentinel 关键概念

  • 资源 它可以是 Java 应⽤程序中的任何内容,例如,由应⽤程序提供的服务,或由应⽤程序调⽤的其它应⽤提供的服务,甚⾄可以是⼀段代码。我们请求的API接⼝就是资源

  • 规则 围绕资源的实时状态设定的规则,可以包括流量控制规则、熔断降级规则以及系统保护规则。所有规则可以动态实时调整

Sentinel 流量规则模块

系统并发能⼒有限,⽐如系统A的QPS⽀持1个,如果太多请求过来,那么A就应该进⾏流量控制了,⽐如其他请求直接拒绝

我们打开“簇点链路” 标签,可以看到请求的资源 image.png

现在无论我每秒并发多少次的请求,系统都能去接收响应,如果流量洪峰一过来,就会把机器打卦,所以,我们可以针对这个资源进行限流配置 image.png

点击“流控”按钮,弹出新增框,这里解释一下“针对来源”一栏:因为发起请求的客户端有可能是浏览器,有可能是A服务,有可能是B服务,我们可以针对不同的调用来源进行配置,这里选择public表示不做限制,针对所有请求都要进行限流 image.png

  • 流控方式之QPS,线程数 这里选择限制QPS,并且单机阈值设置为1,即一秒钟只能有一个请求,如果这里选择的是线程数,则代表着,一次性只能有一个线程在处理,如果当前线程没有处理完,则被限流 image.png

当我们在一秒内发起多次请求时,就会返回一个限流报错 image.png

  • 流控效果之Warm up 当系统⻓期处于空闲的情况下,当流量突然增加时,直接把系统拉升到⾼⽔位可能瞬间把系统压垮,⽐如电商⽹站的秒杀模块。

通过 Warm Up 模式(预热模式),让通过的流量缓慢增加,经过设置的预热时间以后,到达系统处理请求速率的设定值。Warm Up 模式默认会从设置的 QPS 阈值的 1/3 开始慢慢往上增加⾄ QPS 设置值

image.png

  • 流控模式之关联限流 关联的资源调⽤达到阈值时候限流⾃⼰,⽐如⽤户注册接⼝,需要调⽤身份证校验接⼝(往往身份证校验接⼝),如果身份证校验接⼝请求达到阈值,使⽤关联,可以对⽤户注册接⼝进⾏限流。也就是说:当大量的验证接口被调用时,系统限制注册接口。 image.png

+流控模式之链路限流 链路指的是请求链路(调⽤链)

链路模式下会控制该资源所在的调⽤链路⼊⼝的流量。需要在规则中配置⼊⼝资源,即该调⽤链路⼊⼝的上下⽂名称。 image.png

上图中来⾃⼊⼝ Entrance1 和 Entrance2 的请求都调⽤到了资源 NodeA ,Sentinel 允许只根据某个调⽤⼊⼝的统计信息对资源限流。⽐如链路模式下设置⼊⼝资源为 Entrance1 来表示只有从⼊⼝ Entrance1 的调⽤才会记录到 NodeA 的限流统计当中,⽽不关⼼经 Entrance2 到来的调⽤。

image.png

  • 流控效果之排队等待 排队等待模式下会严格控制请求通过的间隔时间,即请求会匀速通过,允许部分请求排队等待,通常⽤于消息队列削峰填⾕等场景。需设置具体的超时时间,当计算的等待时间超过超时时间时请求就会被拒绝。

很多流量过来了,并不是直接拒绝请求,⽽是请求进⾏排队,⼀个⼀个匀速通过(处理),请求能等就等着被处理,不能等(等待时间>超时时间)就会被拒绝。

例如,QPS 配置为 5,则代表请求每 200 ms 才能通过⼀个,也就是一秒允许通过5个,多出的请求将排队等待通过。超时时间代表最⼤排队时间,超出最⼤排队时间的请求将会直接被拒绝。排队等待模式下,QPS 设置值不要超过 1000(请求间隔 1 ms),也就是一秒钟能通过的数量为1000。

Sentinel 降级规则模块

流控是对外部来的⼤流量进⾏控制,熔断降级的视⻆是对内部问题进⾏处理。Sentinel 降级会在调⽤链路中某个资源出现不稳定状态时(例如调⽤超时或异常⽐例升⾼),对这个资源的调⽤进⾏限制,让请求快速失败,避免影响到其它的资源⽽导致级联错误。当资源被降级后,在接下来的降级时间窗⼝之内,对该资源的调⽤都⾃动熔断.

Sentinel不会像Hystrix那样放过⼀个请求尝试⾃我修复,就是明明确确按照时间窗⼝来,熔断触发后,时间窗⼝内拒绝请求,时间窗⼝后就恢复。

image.png

  • RT(平均响应时间 ) image.png

当 1s 内持续进⼊ >=5 个请求,平均响应时间超过阈值(以 ms 为单位),那么在接下的时间窗⼝(以 s 为单位)之内,对这个⽅法的调⽤都会⾃动地熔断(抛出 DegradeException)。

注意 Sentinel 默认统计的 RT 上限是 4900 ms,超出此阈值的都会算作 4900 ms,若需要变更此上限可以通过启动配置项 -Dcsp.sentinel.statistic.max.rt=xxx 来配置

上图所示:RT平均响应时间为200毫秒,时间窗口为5秒,如果此接口在5秒内的平均响应时间大于5的话,那么在此5秒内,其他所有的请求都是直接熔断的

image.png

  • 异常⽐例 当资源的每秒请求量 >= 5,并且每秒异常总数占通过量的⽐值超过阈值之后,资源进⼊降级状态,即在接下的时间窗⼝(以 s 为单位)之内,对这个⽅法的调⽤都会⾃动地返回。异常⽐率的阈值范围是 [0.0, 1.0] ,代表 0% - 100%。

  • 异常数 当资源近 1 分钟的异常数⽬超过阈值之后会进⾏熔断。注意由于统计时间窗⼝是分钟级别的,若 timeWindow ⼩于 60s,则结束熔断状态后仍可能再进⼊熔断状态。 时间窗⼝ >= 60s

Sentinel ⾃定义兜底逻辑

@SentinelResource注解类似于Hystrix中的@HystrixCommand注解

@SentinelResource注解中有两个属性需要我们进⾏区分

  • blockHandler属性⽤来指定不满⾜Sentinel规则的降级兜底⽅法
  • fallback属性⽤于指定Java运⾏时异常兜底⽅法

构建一个异常处理器类,注意兜底类中的⽅法为static静态⽅法

public class SentinelHandlersClass {

    // 整体要求和当时Hystrix一样,这里还需要在形参中添加BlockException参数,用于接收异常
    // 注意:方法是静态的
    public static Integer handleException(Long userId, BlockException blockException) {
        return -100;
    }

    //用来处理Java错误的兜底服务
    public static Integer handleError(Long userId) {
        return -500;
    }

}

在控制器方法中,使用@SentinelResource注解标记是一个sentinel服务降级处理器类

  • blockHandlerClass: sentinel服务降级处理器类
  • blockHandler:sentinel服务降级处理方法
  • fallbackClass:java错误回滚处理器类(同hystrix)
  • fallback:错误处理方法(同hystrix)
    @GetMapping("/checkState/{userId}")
    @SentinelResource(value = "findResumeOpenState",
            blockHandlerClass = SentinelHandlersClass.class, blockHandler = "handleException",
            fallbackClass = SentinelHandlersClass.class,fallback = "handleError")
    public Integer findResumeOpenState(@PathVariable Long userId){

        try {
            Thread.sleep(1000);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        return client.findResumeOpenState(userId);
    }

基于 Nacos 实现 Sentinel 规则持久化

⽬前,Sentinel Dashboard中添加的规则数据存储在内存,微服务停掉规则数据就消失,在⽣产环境下不合适。我们可以将Sentinel规则数据持久化到Nacos配置中⼼,让微服务从Nacos获取规则数据

  • ⾃动投递微服务的pom.xml中添加依赖
<!-- Sentinel⽀持采⽤ Nacos 作为规则配置数据源,引⼊该适配依赖 -->
<dependency>
 <groupId>com.alibaba.csp</groupId>
 <artifactId>sentinel-datasource-nacos</artifactId>
</dependency>
  • ⾃动投递微服务的application.yml中配置Nacos数据源
server:
  port: 8098
spring:
  application:
    name: lagou-service-autodeliver
  cloud:
    nacos:
      discovery:
        server-addr: 127.0.0.1:8848,127.0.0.1:8849,127.0.0.1:8850

    sentinel:
      transport:
        dashboard: 127.0.0.1:8080 # sentinel dashboard/console 地址
        port: 8719   #  sentinel会在该端口启动http server,那么这样的话,控制台定义的一些限流等规则才能发送传递过来,
        #如果8719端口被占用,那么会依次+1
      # Sentinel Nacos数据源配置,Nacos中的规则会自动同步到sentinel流控规则中

      # Sentinel Nacos数据源配置,Nacos中的规则会自动同步到sentinel流控规则中
      datasource:
        # 自定义的流控规则数据源名称
        flow:
          nacos:
            server-addr: ${spring.cloud.nacos.discovery.server-addr}
            data-id: ${spring.application.name}-flow-rules
            groupId: DEFAULT_GROUP
            data-type: json
            rule-type: flow  # 类型来自RuleType类
        # 自定义的降级规则数据源名称
        degrade:
          nacos:
            server-addr: ${spring.cloud.nacos.discovery.server-addr}
            data-id: ${spring.application.name}-degrade-rules
            groupId: DEFAULT_GROUP
            data-type: json
            rule-type: degrade  # 类型来自RuleType类 

  • Nacos Server中添加对应规则配置集(public命名空间—>DEFAULT_GROUP中添加)
    • resource:资源名称
    • limitApp:来源应⽤
    • grade:阈值类型 0 线程数 1 QPS
    • count:单机阈值
    • strategy:流控模式,0 直接 1 关联 2 链路
    • controlBehavior:流控效果,0 快速失败 1 Warm Up 2 排队等待
    • clusterMode:true/false 是否集群

流控规则配置集 lagou-service-autodeliver-flow-rules

[
     {
         "resource":"findResumeOpenState",
         "limitApp":"default",
         "grade":1,
         "count":1,
         "strategy":0,
         "controlBehavior":0,
         "clusterMode":false
     }
]
  • 降级规则配置集 lagou-service-autodeliver-degrade-rules
    • resource:资源名称
    • grade:降级策略 0 RT 1 异常⽐例 2 异常数
    • count:阈值
    • timeWindow:时间窗
[
     {
         "resource":"findResumeOpenState",
         "grade":2,
         "count":1,
         "timeWindow":5
     }
]
  • 注意点:
    • 1)⼀个资源可以同时有多个限流规则和降级规则,所以配置集中是⼀个json数组
    • 2)Sentinel控制台中修改规则,仅是内存中⽣效,不会修改Nacos中的配置值,重启后恢复原来的值; Nacos控制台中修改规则,不仅内存中⽣效,Nacos中持久化规则也⽣效,重启后规则依然保持

image.png

image.png

Nacos + Sentinel + Dubbo 三剑合璧

改造“⾃动投递微服务”和“简历微服务”,删除OpenFeign 和 Ribbon,使⽤DubboRPC 和 Dubbo LB

⾸先,需要删除或者注释掉⽗⼯程中的热部署依赖,如果不去除这个依赖,会导致dubbo项目起不来

<!--热部署-->
 <!--<dependency>
 <groupId>org.springframework.boot</groupId>
 <artifactId>spring-boot-devtools</artifactId>
 <optional>true</optional>
 </dependency>
-->

新建duboo spi接口项目

  • 创建一个提取dubbo服务接⼝⼯程,lagou-service-dubbo-api

image.png

新建一个接口

package com.lagou.edu.service;
public interface ResumeService {
 Integer findDefaultResumeByUserId(Long userId);
}

服务提供者⼯程改造

  • 0)新建一个简历微服务项目 image.png

  • 1)pom⽂件添加spring cloud + dubbo整合的依赖,同时添加dubbo服务接⼝⼯程依赖

<!--spring cloud alibaba dubbo 依赖-->
    <dependency>
        <groupId>com.alibaba.cloud</groupId>
        <artifactId>spring-cloud-starter-dubbo</artifactId>
    </dependency>
    <dependency>
        <groupId>com.alibaba.csp</groupId>
        <artifactId>sentinel-apache-dubbo-adapter</artifactId>
    </dependency>
    <!--dubbo 服务接⼝依赖-->
    <dependency>
        <groupId>com.lagou.edu</groupId>
        <artifactId>lagou-service-dubbo-api</artifactId>
        <version>1.0-SNAPSHOT</version>
    </dependency>
  • 2)删除原有ResumeService接⼝,引⼊dubbo服务接⼝⼯程中的ResumeService接⼝,适当调整代码,在service的实现类上添加dubbo的@Service注解

image.png

  • 3)application.yml或者bootstrap.yml配置⽂件中添加dubbo配置
dubbo:
  scan:
    # dubbo 服务扫描基准包
    base-packages: com.lagou.edu.service.impl
  protocol:
    # dubbo 协议
    name: dubbo
    # dubbo 协议端口( -1 表示自增端口,从 20880 开始)
    port: -1
    host: 127.0.0.1
  registry:
    # 挂载到 Spring Cloud 的注册中心
    address: spring-cloud://localhost

image.png

运行简历微服务后,查看nacos

image.png

查看详情,可以看到这个简历微服务是通过dubbo提供的 image.png

服务消费者⼯程改造

接下来改造服务消费者⼯程—>⾃动投递微服务

image.png

  • pom.xml中删除OpenFeign相关内容
  • application.yml配置⽂件中删除和Feign、Ribbon相关的内容;代码中删除Feign客户端内容;
  • pom.xml添加内容和服务提供者⼀样
  • application.yml配置⽂件中添加dubbo相关内容,订阅服务
dubbo:
  registry:
    # 挂载到 Spring Cloud 注册中心
    address: spring-cloud://localhost
  cloud:
    # 订阅服务提供方的应用列表,订阅多个服务提供者使用 "," 连接
    subscribed-services: lagou-service-resume

同样,也配置下spring.main.allow-bean-definition-overriding=true

  • Controller代码改造,其他不变

引用SPI的服务,使用Dubbo的Reference注解 image.png

  • 运⾏发布之后,同样会发现Nacos控制台已经有了服务注册信息

image.png

正常返回 image.png

流控限制 image.png