如何用kubeadm快速搭建一套k8s集群

1,835 阅读2分钟

环境规划

主机规划

角色IP地址操作系统配置
Master192.168.253.100CentOS7.5+2核CPU,2G内存,30G硬盘
Node1192.168.253.101CentOS7.5+2核CPU,2G内存,30G硬盘
Node2192.168.253.102CentOS7.5+2核CPU,2G内存,30G硬盘

安装方式

kubernetes有多种部署方式,目前主流的方式有kubeadm、minikube、二进制包。

  • ① minikube:一个用于快速搭建单节点的kubernetes工具。
  • ② kubeadm:一个用于快速搭建kubernetes集群的工具。
  • ③ 二进制包:从官网上下载每个组件的二进制包,依次去安装,此方式对于理解kubernetes组件更加有效。

我们需要安装kubernetes的集群环境,但是又不想过于麻烦,所以选择kubeadm方式。

环境搭建

本次环境搭建需要三台CentOS服务器(一主二从),然后在每台服务器中分别安装Docker(18.06.3-ce)、kubeadm(1.18.0)、kubectl(1.18.0)和kubelet(1.18.0)。

注意:未单独做说明的则需要所有节点都执行命令。

环境初始化

检查操作系统版本

检查操作系统的版本(要求操作系统的版本至少在7.5以上):

[root@k8s-master ~]# cat /etc/redhat-release
CentOS Linux release 7.5.1804 (Core) 

关闭防火墙和禁止防火墙开机启动

关闭防火墙:

systemctl stop firewalld

禁止防火墙开机启动:

systemctl disable firewalld

设置主机名

设置192.168.253.100的主机名:

hostnamectl set-hostname k8s-master

设置192.168.253.101的主机名:

hostnamectl set-hostname k8s-node1

设置192.168.253.102的主机名:

hostnamectl set-hostname k8s-node2

主机名解析

为了方便后面集群节点间的直接调用,需要配置一下主机名解析,企业中推荐使用内部的DNS服务器

cat >> /etc/hosts << EOF
192.168.253.100 k8s-master
192.168.253.101 k8s-node1
192.168.253.102 k8s-node2
EOF

时间同步

kubernetes要求集群中的节点时间必须精确一致,所以在每个节点上添加时间同步:

yum install ntpdate -y

ntpdate time.windows.com

关闭selinux

查看selinux是否开启:

getenforce

永久关闭selinux,需要重启:

sed -i 's/enforcing/disabled/' /etc/selinux/config

临时关闭selinux,重启之后,无效:

setenforce 0

关闭swap分区

永久关闭swap分区,需要重启:

sed -ri 's/.*swap.*/#&/' /etc/fstab

临时关闭swap分区,重启之后,无效:

swapoff -a

将桥接的IPv4流量传递到iptables的链

在每个节点上将桥接的IPv4流量传递到iptables的链:

cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
vm.swappiness = 0
EOF

加载br_netfilter模块:

modprobe br_netfilter

查看是否加载:

lsmod | grep br_netfilter

生效:

sysctl --system

开启ipvs

在kubernetes中service有两种代理模型,一种是基于iptables,另一种是基于ipvs的。ipvs的性能要高于iptables的,但是如果要使用它,需要手动载入ipvs模块。 在每个节点安装ipset和ipvsadm:

yum -y install ipset ipvsadm

在所有节点执行如下脚本:

cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF

授权、运行、检查是否加载:

chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4

检查是否加载:

lsmod | grep -e ipvs -e nf_conntrack_ipv4

重启

每台机器都需要重启:

reboot

每个节点安装Docker、kubeadm、kubelet和kubectl

安装Docker

添加docker yum源:

wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

安装:

yum -y install docker-ce-18.06.3.ce-3.el7

设置开机启动:

systemctl enable docker && systemctl start docker

安装好后查看版本:

docker version

设置Docker镜像加速器:

sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "exec-opts": ["native.cgroupdriver=systemd"],	
  "registry-mirrors": ["https://du3ia00u.mirror.aliyuncs.com"],	
  "live-restore": true,
  "log-driver":"json-file",
  "log-opts": {"max-size":"500m", "max-file":"3"},
  "storage-driver": "overlay2"
}
EOF
sudo systemctl daemon-reload && sudo systemctl restart docker

添加k8s yum源

由于kubernetes的镜像源在国外,非常慢,这里切换成国内的阿里云镜像源:

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

安装kubeadm、kubelet和kubectl

安装并指定版本号:

yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0

为了实现Docker使用的cgroup drvier和kubelet使用的cgroup drver一致,建议修改"/etc/sysconfig/kubelet"文件的内容:

cat > /etc/sysconfig/kubelet <<EOF
KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"
EOF

设置为开机自启动即可,由于没有生成配置文件,集群初始化后自动启动:

systemctl enable kubelet

部署k8s的Master节点

安装前先查看下安装k8s所需镜像:

[root@k8s-master ~]# kubeadm config images list
I0507 16:45:23.617358   31610 version.go:252] remote version is much newer: v1.24.0; falling back to: stable-1.18
W0507 16:45:26.838250   31610 configset.go:202] WARNING: kubeadm cannot validate component configs for API groups [kubelet.config.k8s.io kubeproxy.config.k8s.io]
k8s.gcr.io/kube-apiserver:v1.18.20
k8s.gcr.io/kube-controller-manager:v1.18.20
k8s.gcr.io/kube-scheduler:v1.18.20
k8s.gcr.io/kube-proxy:v1.18.20
k8s.gcr.io/pause:3.2
k8s.gcr.io/etcd:3.4.3-0
k8s.gcr.io/coredns:1.6.7

部署k8s的Master节点(192.168.253.100): 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里需要指定阿里云镜像仓库地址:

kubeadm init \
  --apiserver-advertise-address=192.168.253.100 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.18.0 \
  --service-cidr=10.96.0.0/12 \
  --pod-network-cidr=10.244.0.0/16

1.png 根据提示消息,在Master节点上使用kubectl工具:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

部署k8s的Node节点

根据提示,在192.168.253.101和192.168.253.102上添加如下的命令:

kubeadm join 192.168.253.100:6443 --token mw5p6s.0ar13mnfgnf21yhm \
    --discovery-token-ca-cert-hash sha256:6c3ad4f4782c55f5269ab9b799aecc7147ca81a0a4cb3e739516176f19d95f2e 

注意:默认的token有效期为2小时,当过期之后,该token就不能用了,这时可以在Master节点上使用如下的命令创建token:

kubeadm token create --print-join-command

加上个参数--ttl 0 可以让token永不过期

kubeadm token create --ttl 0 --print-join-command

k8s 支持多种网络插件,如flannel、calico、canal等,任选一种即可,本次选择flannel,如果网络不行,kube-flannel.yaml,当然,你也可以安装calico,calico.yaml,推荐安装calico。 请将网络插件的yaml配置文件下载至Master本地后,在Master节点上执行:

kubectl apply -f calico.yaml

查看部署CNI网络插件进度:

kubectl get pods -n kube-system

2.jpg 查看所有节点状态:

[root@k8s-master ~]# kubectl get nodes
NAME         STATUS   ROLES    AGE   VERSION
k8s-master   Ready    master   47h   v1.18.0
k8s-node1    Ready    <none>   42h   v1.18.0
k8s-node2    Ready    <none>   42h   v1.18.0

查看集群健康状况:

[root@k8s-master ~]# kubectl get cs
NAME                 STATUS    MESSAGE             ERROR
controller-manager   Healthy   ok                  
scheduler            Healthy   ok                  
etcd-0               Healthy   {"health":"true"}   

查看集群信息:

[root@k8s-master ~]# kubectl cluster-info
Kubernetes master is running at https://192.168.253.100:6443
KubeDNS is running at https://192.168.253.100:6443/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.

服务部署

在Kubernetes集群中部署一个Nginx程序,测试下集群是否正常工作。 部署Nginx:

kubectl create deployment nginx --image=nginx:1.14-alpine

暴露端口:

kubectl expose deployment nginx --port=80 --type=NodePort

查看服务状态:

[root@k8s-master ~]# kubectl get pods,svc
NAME                         READY   STATUS    RESTARTS   AGE
pod/nginx-55f8fd7cfc-cx6cl   1/1     Running   0          85s

NAME                 TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
service/kubernetes   ClusterIP   10.96.0.1        <none>        443/TCP        47h
service/nginx        NodePort    10.110.204.155   <none>        80:30549/TCP   39s

访问: 浏览器输入地址:http://192.168.253.100:30549/

3.jpg