Go微服务架构实战 中篇:3. 扩缩容、自愈和故障转移、滚动更新以及回退能力

945 阅读3分钟

Go微服务架构实战

Go微服务架构实战目录

1. 微服务架构上篇

1. grpc技术介绍

2. grpc+protobuf+网关实战

3. etcd技术介绍

4. 基于etcd的服务发现与注册

5. 基于etcd的分布式锁实战

2. 微服务架构中篇

1. k8s架构介绍

2. 基于k8s的容器化部署

基于k8s的Deployment工作负载-【公粽号:堆栈future】

主要是利用Deployment资源对象实现的,包括一下功能:

  1. 多副本集

  2. 扩缩容

  3. 自愈和故障转移

  4. 滚动更新

  5. 回退能力

接下来详细了解下操作过程

1. 多副本集

deploy.yaml中只需修改一下replicas,让它的值变成我们想要的副本数量。

apiVersion: apps/v1
kind: Deployment
metadata:
  name: k8sdemo-deploy
  labels:
    app: k8sdemo
spec:
  replicas: 3 //修改这里
  selector:
    matchLabels:
      app: k8sdemo
  template:
    metadata:
      labels:
        app: k8sdemo
    spec:
      containers:
      - name: k8sdemo
        image: k8s-grpc-demo:latest
        imagePullPolicy: Never
        ports:
        - containerPort: 50007

然后kubectl apply -f deploy.yaml应用一下就可以了,看下创建结果:图片从结果看出三个pod成功起来了。

2. 扩缩容

比较简单,一行命令搞定:

kubectl scale --replicas=1 deployment/k8sdemo-deploy回车之后打印如下:图片

然后看下pod数量kubectl get pod发现只有一个pod了,这里就不展示了,非常简单。

3. 自愈和故障转移

因为我只有一台机器,没办法验证,所以只列出步骤,下去大家自己可以尝试。

  • 停某一台机器

  • 删除某个pod

大家可以去试试,看看是否停掉机器之后,pod会在别的机器上再起来,保持Deployment的副本集数量不变。或者在某台机器上删除某个pod之后,看看这个pod是否重新建立(归功于Deployment的能力)。

tips:当你要删除pod的时候发现一直删除不掉,pod会自动起来,不要着急莫慌,你应该先删除Deployment,这样pod就会自动删除的。

4. 滚动更新

首先你基于你的代码做了部分更新,比如增加了日志等功能,然后在本地构建镜像,比如k8s-grpc-demo:v2,然后你用一行命令就可以搞定滚动更新:

kubectl set image deployment/k8sdemo-deploy k8s-grpc-demo=k8s-grpc-demo:v2 --record

查看下更新状态

kubectl rollout status deployment/k8sdemo-deploy

图片

5. 回退能力

  1. 查看历史版本记录
kubectl rollout history deployment/k8sdemo-deploy

图片

  1. 查看某个历史详情
kubectl rollout history deployment/k8sdemo-deploy --revision=2

图片

  1. 回滚(回到上次)
kubectl rollout undo deployment/k8sdemo-deploy

  1. 回滚(回到指定版本)
kubectl rollout undo deploymen/k8sdemo-deploy --to-revision=2

6. 小结

其实k8s使用不是很复杂,你可以学完k8s之后搭建自己的服务,但是如果想深入定制k8s,需要有一定golang知识和容器化知识,所以想要进阶的可以在深入学习下源码理解下原理。

下篇文章继续给大家讲解下k8s的service的服务注册和发现能力和ingress的入口网关能力,以及它们的网络架构知识。喜欢这篇文章的童鞋可以关注,转发和分享哈。

github地址:github.com/guojiangli/…

公粽号:堆栈future

使很多处于迷茫阶段的coder能从这里找到光明,堆栈创世,功在当代,利在千秋

公粽号:堆栈future