k8s series 1: 基础知识

437 阅读6分钟

**这是我参与更文挑战的第2天,活动详情查看: 更文挑战
**

kubernetes是google基于golang语言开发的一套开源容器编排框架,可以实现容器集群的自动化部署、自动扩缩容、高扩展性,可维护性强,开放等特点。

Going back in time 

容器编排和传统物理机,以及虚拟化比较

部署演进

传统部署:

多个app在物理服务器运行,无法定义资源边界,导致资源分配问题,服务性能下降,难扩展,资源争夺oom,物理服务器成本高等

虚拟化部署:

虚拟化技术允许在单台物理服务器虚拟多个虚拟机,app在不同虚拟机之间隔离,虚拟化技术更好的利用了服务器资源,增强了伸缩性以及降低了硬件成本

容器部署:

容器类似于 VM,但是它们具有被放宽的隔离属性,可以在应用程序之间共享操作系统(OS)。 因此,容器被认为是轻量级的。容器与 VM 类似,具有自己的文件系统、CPU、内存、进程空间等。 由于它们与基础架构分离,因此可以跨云和 OS 发行版本进行移植。

容器因具有许多优势而变得流行起来。下面列出的是容器的一些好处:

  • 敏捷应用程序的创建和部署:与使用 VM 镜像相比,提高了容器镜像创建的简便性和效率。
  • 持续开发、集成和部署:通过快速简单的回滚(由于镜像不可变性),支持可靠且频繁的 容器镜像构建和部署。
  • 关注开发与运维的分离:在构建/发布时而不是在部署时创建应用程序容器镜像, 从而将应用程序与基础架构分离。
  • 可观察性不仅可以显示操作系统级别的信息和指标,还可以显示应用程序的运行状况和其他指标信号。
  • 跨开发、测试和生产的环境一致性:在便携式计算机上与在云中相同地运行。
  • 跨云和操作系统发行版本的可移植性:可在 Ubuntu、RHEL、CoreOS、本地、 其他云厂商运行。
  • 以应用程序为中心的管理:提高抽象级别,从在虚拟硬件上运行 OS 到使用逻辑资源在 OS 上运行应用程序。
  • 松散耦合、分布式、弹性、解放的微服务:应用程序被分解成较小的独立部分, 并且可以动态部署和管理 - 而不是在一台大型单机上整体运行。
  • 资源隔离:可预测的应用程序性能。
  • 资源利用:高效率和高密度。

为什么需要 Kubernetes?

解决故障转移,灵活扩展,以及部署模式

例1 一个服务挂了,传统情况下需要保活和监控来自动修复和告警通知,k8s会自我修复,重启失败的容器,替换,kill掉规则定度的不健康容器

例2 流量高峰,传统情况需要做弹性伸缩,在弹性伸缩的机器做各种check,k8s定义HPA

例3 部署应用,传统情况滚动发布,或蓝绿发布,或灰度发布,k8s定义yaml文件或使用helm工具管理

kubernetes 优势:

  • 服务发现和负载均衡

    Kubernetes 可以使用 DNS 名称或自己的 IP 地址公开容器,如果进入容器的流量很大, Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。

  • 存储编排

    Kubernetes 允许你自动挂载你选择的存储系统,例如本地存储、公共云提供商等。

  • 自动部署和回滚

    你可以使用 Kubernetes 描述已部署容器的所需状态,它可以以受控的速率将实际状态 更改为期望状态。例如,你可以自动化 Kubernetes 来为你的部署创建新容器, 删除现有容器并将它们的所有资源用于新容器。

  • 自动完成装箱计算

    Kubernetes 允许你指定每个容器所需 CPU 和内存(RAM)。 当容器指定了资源请求时,Kubernetes 可以做出更好的决策来管理容器的资源。

  • 自我修复

    Kubernetes 重新启动失败的容器、替换容器、杀死不响应用户定义的 运行状况检查的容器,并且在准备好服务之前不将其通告给客户端。

  • 密钥与配置管理

    Kubernetes 允许你存储和管理敏感信息,例如密码、OAuth 令牌和 ssh 密钥。 你可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥

kubernetes架构

架构图

组件

  • Etcd:保存了整个集群的状态; 

  • Apiserver:提供了资源操作的唯一入口,并提供认证、授权、访问控制、API注册和发现等机制; 

  • Controller manager:负责维护集群的状态,比如故障检测、自动扩展、滚动更新等;

  • Scheduler:负责资源的调度,按照预定的调度策略将Pod调度到相应的机器上;

  • kubelet:负责维护容器的生命周期,同时也负责Volume(CSI)和网络(CNI)的管理; 

  • Container runtime:负责镜像管理以及Pod和容器的真正运行(CRI); 

  • kube-proxy:负责为Service提供cluster内部的服务发现和负载均衡;

创建POD流程

1.用户提交创建Pod的请求,可以通过API Server的REST API ,也可用Kubectl命令行工具,支持Json和Yaml两种格式;

2.API Server处理用户请求,存储Pod数据到etcd;

3.Schedule通过和API Server的watch机制,查看到新的Pod,尝试为Pod绑定Node;

4.过滤主机:调度器用一组规则过滤掉不符合要求的主机,比如Pod指定了所需要的资源,那么就要过滤掉资源不够的主机;

5.主机打分:对第一步筛选出的符合要求的主机进行打分,在主机打分阶段,调度器会考虑一些整体优化策略,比如把一个Replication Controller的副本分布到不同的主机上,使用最低负载的主机等;

6.选择主机:选择打分最高的主机,进行binding操作,结果存储到etcd中;

7.Kubelet根据调度结果执行Pod创建操作: 绑定成功后,会启动container,docker run,scheduler会调用API在数据库etcd中创建一个bound pod对象,描述在一个工作节点上绑定运行的所有pod信息。运行在每个工作节点上的Kubelet也会定期与etcd同步bound pod信息,一旦发现应该在该工作节点上运行的bound pod对象没有更新,则调用Docker API创建并启动pod内的容器;