一、Docker网络模式概述
1.1 Docker的网络实现原理
- Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。
- Docker网桥是宿主机虚拟出来的,并不是真是存在的网络设备,外部网络是无法寻址到的,这也意味着外部网络无法直接通过Container-IP访问到容器。如果容器希望外部访问能够访问到,可以通过映射容器端口到宿主主机(端口映射),即docker run 创建容器时通过-p或-P参数来启用,访问容器的时候就通过[宿主机IP]:[容器端口]访问容器。
1.2 Docker的映射端口命令
docker run -d --name [] -P [镜像名]
#随机映射端口(从32768开始)
docker run -d --name [] -p [宿主机端口]:[容器端口][镜像名]
#指定映射端口
示例:
宿主机IP:192.168.142.80
docker0虚拟网卡IP:172.17.0.1
docker容器内部IP:172.17.0.2
客户机IP:192.168.142.70
客户机需要对宿主机内部的容器进行访问
上方可以看到,在没有进行端口映射操作之前,客户机是无法对宿主机内部的容器进行访问的,容器存在于宿主机内部,无法被其他客户机直接访问查看。
映射使用完成后,我们可以使用客户机访问宿主机的IP:容器映射的端口,进行访问容器内部
指定端口示例
注意:容器映射宿主机端口时,映射的端口号在宿主机上一定不能被宿主机占用,两者共用一个端口号池,若映射的端口在宿主机上已经被占用,映射将无法生效。
1.3 查看容器主进程日志
docker logs [容器ID/容器名称]
#查看容器主进程日志
二、Docker的网络模式
2.1 Docker网络模式分类
Docker的网络模式主要为四种模式一种自定义网络:
- Host:容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口
- Container:创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围。
- None:该模式关闭了容器的网络功能
- Bridge:默认为该模式,此模式会为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,通过docker0网桥以及iptables nat 表配置与宿主机通信
- 自定义网络
2.2 如何查看docker网络模式
docker network ls
docker network list
#查看docker网络模式
2.3 Docker网络模式介绍
① host模式
- 相当于Vmware中的桥接模式,与宿主机在同一个网络中,但没有独立IP地址。
- Docker使用了Linux的Namespace技术来进行资源隔离,如PID Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。
- 一个Network Namespace提供了一份独立的网络环境,包括网卡、路由、iptable规则等都与其他的Network Namespace隔离
- 一个Docker容器一般会分配一个独立的Network Namespace。但如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace,而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡、配置自己的IP等,而是使用宿主机的IP和端口。
② container模式
-
在理解了host模式后,这个模式也就好理解了。这个模式指定新创建的容器和已经存在的一个容器共享个NetworkNamespace,而不是和宿主机共享。
-
新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的
-
两个容器的进程可以通过lo网卡设备通信。
docker inspect -f '{{.State.Pid}}' 8e1a15aa0b33 #使用jaso格式,查看已运行的容器的pid号 ls -l /proc/10007/ns /proc目录下有文件的映射目录 #查看ns目录中六大命名空间的编号
docker run -dit --net=container:8e1a15aa0b33 centos:7
# 创建运行容器时,--net=container指定网络模式为container
# :8e1a15aa0b33 ,指定跟随已存在的容器名称/容器ID
# centos:7 需要创建的容器的镜像ID或名称
# 注意 :创建的容器不要是基于相同镜像创建,相同镜像所占用端口相同,创建的容器端口被已存在的容器占用无法运行
③ none模式
- 使用none模式,Docker 容器拥有自己的Network Namespace,但是,并不为Docker容器进行任何网络配置。
- 也就是说,这个Docker容器没有网卡、IP、路由等信息。这种网络模式下容器只有lo回环网络,没有其他网卡。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性。
④ bridge模式
- bridge模式是docker的默认网络模式,不用--net参数,就是bridge模式。
- 相当于Vmware中的nat模式,容器使用独立network Namespace, 并连接到docker0虚拟网卡。通过docker0网桥以及iptables nat表配置与宿主机通信,此模式会为每一个 容器分配Network Namespace、 设置IP等,并将一个主机上的Docker 容器连接到一个虚拟网桥上。
- 当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虛拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。
- 从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备。veth设备总是成对出现的,它们组成了一个数据的通道,数据从一个设备进入,就会从另一个设备出来。因此,veth设备常用来连接两个网络设备。
- Docker将veth pair设备的一端放在新创建的容器中,并命名为eth0(容器的网卡),另一端放在主机中,以veth*这样类似的名字命名,并将这个网络设备加入到docker0 网桥中。可以通过brctl show 命令查看。
- 使用docker run -p 时,docker 实际是在iptables做了DNAT规则,实现端口转发功能。可以使用iptables -t nat -vnL 查看。
⑤ 自定义网络
- 直接使用bridge模式是无法支持指定IP运行docker的,例如执行以下命令就会报错
- docker run -itd --name test1 --network bridge --ip 172.17.0.30 centos:7 /bin/bash
如何创建自定义网络
docker run -id --name [指定容器名称] --ip [指定IP地址] [镜像名称/镜像ID]
#指定IP地址必须要在自定义的网段当中进行指定
#所以以上操作无法实现自定义
#实现自定义网络,需要先创建自定义网络的网段,再使用指定IP运行docker容器
docker network create --subnet=[自定义的网段]/16 --opt "com.docker.network.bridge.name"="[网桥网卡名称]" [该自定义网络的名称]
#--opt用于指定网桥网卡名称,若不加此选项,网卡名称将不以docker*显示,而会以一串固定格式字符串显示
#查看网络模式
docker network ls
#创建容器指定创建好的自定义网络模式,并进行启动
docker run -id --network [已创建好的自定义网络模式名称] --name [自定义容器名称] --ip [根据自定义网络模式的网段指定的IP] [镜像名/镜像id]
docker exec -it test1 sh #进入容器进行验证
yum install -y net-tools #下载net-tools服务(用于支持ifconfig命令)
ifconig #查看网卡信息
⑥ 总结
- host模式下,容器与宿主机共用一个IP地址与端口号(即共享Network Space网络命名空间),端口号不能与宿主机进程占用的端口号相同。(与宿主机相同IP,共用宿主机端口范围)
- container模式下,容器与已有的容器共用一个IP地址与端口号(即共享Network Space网络命名空间),容器与宿主机IP不一致,所用端口也不是根据宿主机端口范围进行共享,两个容器之间通信使用lo网卡进行通信。(新容器与已有的一个容器,共享IP与端口范围,容器与容器之间除了网络的命名空间共用,其他命名空间相互隔离)
- none模式下,容器没有任何网卡信息(IP地址、路由等信息),只有lo回环网络,无法进行联网,完全隔离封闭,保证容器安全性
- bridge模式下,每个容器都有独立的网络命名空间,每个容器的IP地址都会连接到docker0的虚拟网卡,每个容器分别对应一个veth,容器需要与外界进行通信会先将信息发送给对应的veth,再由veth交给docker0网桥,docker0再将信息发送给宿主机的物理网卡(通过DNAT策略实现),最终由物理网卡转发,进行与外部的通信。
三、Cgroup的资源控制
3.1 Cgroup的概念
- Docker通过Cgroup来控制容器使用的资源配额,包括CPU、内存、磁盘三大方面,基本覆盖了常见的资源配额和使用量控制。
- Cgroup 是ControlGroups 的缩写,是Linux 内核提供的一种可以限制、记录、隔离进程组所使用的物理资源(如CPU、 内存、磁盘I0等等)的机制,被LXC、docker等很多项目用于实现进程资源控制。Cgroup本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O或内存的分配控制等具体的资源管理是通过该功能来实现的。
3.2 CPU资源控制
① 设置CPU使用率上限
- Linux通过CFS (Completely Fair Scheduler,完全公平调度器)来调度各个进程对CPU的使用。CFS默认的调度周期是100ms(即10万微秒)。
- 我们可以设置每个容器进程的调度周期,以及在这个周期内各个容器最多能使用多少CPU时间。
使用 --cpu-period 即可设置调度周期,使用 --cpu-quota 即可设置在每个周期内容器能使用的CPU时间。两者可以配合使用。
CFS周期的有效范围是1ms ~ 1s, 对应的 --cpu-period 的数值范围是 1000 ~1000000 (单位微秒)。 而容器的CPU配额必须不小于1ms,即 --cpu-quota 的值必须 >= 1000。
cd /sys/fs/cgroup/cpu/docker/ #存放cgroup资源控制文件的容器目录(根据容器ID进入对应目录)
#进入指定容器的目录
#目录下方文件如下
cpu.cfs_period_us #cpu时间分片的周期文件
cpu.cfs_quota_us #容器所能占用的时间分片文件
docker exec -it test1 bash #进入容器
vi cpu.sh #编写死循环脚本
#!/bin/bash
i=0
while true
do
let i++
done
#使一个变量死循环一直做+1的操作
chmod +x cpu.sh #加执行权限
./cpu.sh #运行脚本
#打开另一个终端,使用top命令查看cpu占用率
此时退出脚本,在文件cpu.cfs_quota_us中将-1的默认值修改为50000(即cpu占用50%)
echo 50000 > cpu.cfs_quota_us
回到容器继续运行脚本
#创建一个新的容器,并设定cpu选项
docker run -id --name test2 --cpu-quota 25000 centos:7
#--cpu-quota 25000 即在创建容器时,指定cpu的占用时间分片为25000(即cpu占用最高25%)
#创建完成后,进入新的容器,创建并运行死循环脚本
docker run -id --name test3 --cpu-period 50000 --cpu-quota 25000 centos:7
#设置第三个镜像,设置周期时间为50000,设置时间分片时间为25000(即cpu占用率为50%)
#设置完成后运行死循环脚本进行验证
在多核情况下,如果允许容器进程完全占用两个CPU,则可以将cpu-period设置为10000,cpu-quota设置为20000(即默认周期时间值的两倍)
② 设置CPU资源占用比(设置多个容器时才有效)
Docker 通过--cpu-shares 指定 CPU 份额,默认值为1024,值为1024的倍数。
#创建两个容器为 c1 和 c2,若只有这两个容器,设置容器的权重,使得c1和c2的CPU资源占比为1:4。
docker run -itd --name c1 --cpu-shares 512 centos:7
docker run -itd --name c2 --cpu-shares 2048 centos:7
#分别进入容器,进行压力测试
yum install -y epel-release
yum install -y stress
stress -c 4 #产生四个进程,每个进程都反复不停的计算随机数的平方根
#查看容器运行状态(动态更新)
docker state
- 可以看到在CPU进行时间片分配的时候,容器c2 比容器c1多一倍的机会获得CPU的时间片。但分配的结果取决于当时主机和其他容器的运行状态,实际上也无法保证容器c1一定能获得CPU时间片。比如容器c1的进程一直是空闲的,那么容器c2是可以获取比容器cl更多的CPU时间片的。极端情况下,例如主机上只运行了一个容器,即使它的CPU份额只有50. 它也可以独占整个主机的CPU资源。
- Cgroups.只在容器分配的资源紧缺时,即在需要对容器使用的资源进行限制时,才会生效。因此,无法单纯根据某个容器的CPU份额来确定有多少CPU资源分配给它,资源分配结果取决于同时运行的其他容器的CPU分配和容器中进程运行情况。
③ 设置容器绑定指定的CPU
#先分配虚拟机8个CPU核数
docker run -dit --name test1 --cpuset-cpus 1,3 centos:7 /bin/bash
#指定cpu编号1与3绑定到容器
#进入容器,进行压力测试
yum install -y epel-release
yum install -y stress
stress -c 4 #产生四个进程,每个进程都反复不停的计算随机数的平方根
#退出容器,执行top命令再按1查看cpu使用情况
3.3 对内存使用的限制
① 限制最大内存
-
--memory=或者-m选项用于限制容器可以使用的最大内存
docker run -dit --name test1 -m [指定最大内存] centos:7 /bin/bash #内存格式为数字+单位(m,g,t)
② 限制swap大小
- 限制可用swap大小选项为 --memory-swap ,--memory-swap 选项必须要与 --memory 一起使用
- 正常情况下,--memory-swap的值包含容器可用内存和可用swap,所以-m 300m --memory-swap=1g的含义为:容器可以使用300m的物理内存,并且可以使用700m(1G减去300m)的swap。
如果--memory-swap设置为0或者不设置,则容器可以使用的swap大小为-m值的两倍
如果--memory-swap的值和-m值相同,则容器不能使用swap
如果--memory-swap的值为-1,则表示容器程序使用的内存受限,而可以使用的swap空间使用不受限制(宿主机有多少swap容器就可以使用多少)。
3.4 对磁盘的IO配额控制(bikio)的限制
--device-read-bps:限制某个设备上的读速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:docker run -itd --name test4 --device-read-bps /dev/sda:1M centos:7 /bin/bash
--device-write-bps : 限制某个设备上的写速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:docker run -itd --name test5 --device-write-bps /dev/sda:1mb centos:7 /bin/bash
--device-read-iops :限制读某个设备的iops(次数)
--device-write-iops :限制写入某个设备的iops(次数)
#创建容器,并限制写速度
docker run -it --name test5 --device-write-bps /dev/sda:1mb centos:7 /bin/bash
#通过dd来验证写速度
dd if=/dev/zero of=test.out bs=1M count=10 oflag=direct #添加oflag参数以规避掉文件系统cache
10+0 records in
10+0 records out
10485760 bytes (10 MB) copied, 10.0025 s, 1.0 MB/s