共计 16084 个字符,预计需要花费 41 分钟才能阅读完成。
本文翻译自:Life of a Packet in Kubernetes — Part 2 [1]
作者:Dinesh Kumar Ramasamy
本文在原文的根底上做了适当的批改,如有疑问请查阅原文。
正如咱们在第 1 局部中所探讨的,CNI 插件在 Kubernetes 网络中起着至关重要的作用。以后有许多第三方 CNI 插件可供使用,Calico 便是其中之一。凭借着良好的易用性以及对多种网络架构的反对,Calico 取得了许多工程师的青眼。
Calico 反对宽泛的平台,包含 Kubernetes,OpenShift,Docker EE, OpenStack 和裸金属服务。calico-node 在 Kubernetes 集群中的每个 Master 和 Worker 节点上以容器的形式运行。calico-cni 插件间接与 Kubernetes 的 kubelet 进行集成,可能发现哪些 Pod 被创立,并将它们增加到 Calico 网络中。
咱们将探讨 Calico 的装置、模块(Felix, BIRD, Confd)和路由模式。
不包含什么? Network Policy(网络策略),在第 3 局部的文章中将会进行介绍,因而本文临时跳过。
CNI 要求
- 1. 创立 veth-pair 并接入到容器中。
- 2. 确认正确的 Pod CIDR。
- 3. 创立 CNI 配置文件。
- 4. 调配和治理 IP 地址。
- 5. 在容器内增加默认路由。
- 6. 将路由通告给所有的对等节点(peer node)。(不适用于 VxLan)
- 7. 在宿主机中增加路由。
- 8. 执行网络策略。
除此之外,还有许多其余要求,但以上是根本要求。让咱们看看 Master 和 Worker 节点中的路由表。每个节点中都蕴含一个带有 IP 地址和默认路由的容器。
通过查看路由表,能够很显著地发现 Pod 可能通过 L3 网络互相通信,因为路由是完满的。哪个模块负责增加这些路由条目,以及它是如何失去近程的路由?另外,为什么容器的默认网关是 169.254.1.1?让咱们一会儿再谈。
Calico 的外围组件是 Bird, Felix, ConfD, Etcd 和 Kubernetes API Server。数据存储用于保留配置信息(IP 地址池,端点信息,网络策略等等)。在咱们的示例中,将应用 Kubernetes 作为 Calico 的数据存储。
Calico 有两种数据存储可供选择:
- etcd – 间接连贯 Etcd 集群,长处是:
1. 能够在非 Kubernetes 平台(例如 OpenStack)上运行 Calico。
2. 拆散 Kubernetes 和 Calico 资源的存储,便于独自扩大数据存储。
3. 容许在多个 Kubernetes 集群之上运行一个 Calico 集群,实现跨集群的网络互通。
- Kubernetes – 连贯 Kubernetes API Server,长处是:
1. 无需额定的存储,更易于治理。
2. 能够应用过 Kubernetes RBAC 来管制对 Calico 资源的拜访。
3. 能够应用 Kubernetes 审计日志对 Calico 资源的更改进行审计。
模块和性能
Calico 的架构图如下所示,具体的架构阐明参见:Component architecture [2],本文只介绍 BIRD, ConfD 和 Felix 这 3 个次要模块。
BIRD (BGP)
BIRD 是每个节点的 BGP 守护过程,运行在 calico-node 容器中。BIRD 负责从 Felix 获取路由并与其余节点上的 BGP Peer 替换路由信息。常见的拓扑是点对点的网络,建设全互联的 BGP 连贯关系。
对于大规模部署,这可能会变得凌乱。能够通过将某些节点配置为 Route Reflectors(路由反射器)来实现路由的流传,以缩小 BGP 连贯的数量。每个 BGP 节点只与路由反射器建设 Peer 连贯关系,发送到路由反射器的路由通告随后会反射到所有其余的 BGP 节点。对于路由反射器的详情,请参阅 BGP Route Reflection [3]。
BIRD 实例负责将路由流传到其余 BIRD 实例。默认配置是 BGP Mesh(全互联),可用于小型部署。在大规模部署中,倡议应用路由反射器来防止性能问题。能够应用多个 RR(Route Reflectors)保障高可用,此外还能够在集群内部设置 RR(例如硬件路由器)。
ConfD
ConfD 是一个简略的配置管理工具,以守护过程的形式运行在 calico-node 容器中。ConfD 会监督 Calico 数据存储中的配置更改,并更新 BIRD 的配置文件。因而,每当网络发生变化时,BIRD 都能够检测到,并将路由流传到其余节点。
Felix
Calico Felix 守护过程在 calico-node 容器中运行,负责为容器设置网络资源(IP 地址、路由、Iptables 规定等等)。
让咱们看一下蕴含所有 Calico 模块的 Kubernetes 集群。
数据包是如何路由到对等节点的?
- 1. 在 Master 节点中的 Pod 尝试 ping 10.0.2.11。
- 2.Pod 向网关发送 ARP 申请。
- 3. 从 ARP 响应中获取 MAC 地址。
- 4.等等,是谁发送了 ARP 响应?
产生了什么?容器的路由为什么能够指向一个不存在的 IP 地址(169.254.1.1)?让咱们来看看正在产生的事件。一些读者可能曾经留神到 169.254.1.1 是 IPv4 的链路本地地址(Link-local Address)。容器有一条指向链路本地地址的默认路由。容器冀望这个 IP 地址能够通过其直连贯口进行拜访,在本例中为容器的 eth0 接口。当容器想要通过默认路由发送数据包时,它将尝试发送 ARP 申请以获取这个 IP 的 MAC 地址。
如果咱们捕捉 ARP 响应,能够看到返回的是 veth 另一端(cali123)的 MAC 地址。咱们在主机上查看所有网卡会发现,cali 所有网卡的 MAC 地址都是 ee:ee:ee:ee:ee:ee。所以你可能想晓得主机到底是如何为一个不存在的 IP 地址响应 ARP 申请的。答案是代理 ARP(proxy-arp),Calico 实质上是利用了代理 ARP 撒了一个“善意的谎话”。如果咱们查看主机端的 veth 接口,咱们能够看到曾经启用了 proxy-arp。
master $ cat /proc/sys/net/ipv4/conf/cali123/proxy_arp
1
代理 ARP 是 ARP 协定的一个变种,当 ARP 申请指标跨网段时,网关设施收到此 ARP 申请,会用本人的 MAC 地址返回给请求者,这便是代理 ARP(Proxy ARP)。
让咱们认真看看 Worker 节点。
一旦数据包达到内核,它会依据路由表条目对数据包进行路由。
传入流量
- 1. 数据包达到 Worker 节点的内核。
- 2. 内核将数据包放入 cali123 接口。
路由模式
Calico 反对 3 种路由模式;在本章节中,咱们将理解每种办法的优缺点以及各自的应用场景。
- IP-in-IP:默认应用路由的模式,有封装。
- Direct/NoEncapMode:无封装(首选)。
- VXLAN:有封装(无 BGP)。
IP-in-IP(默认)
IP-in-IP 是一种简略的封装模式,通过将一个 IP 数据包放入另一个数据包中来实现。传输的数据包蕴含一个带有 主机 源和指标 IP 的内部标头和一个带有 Pod 源和指标 IP 的外部标头。
Azure 不反对 IP-IP(据我所知);因而,咱们无奈在那种环境中应用 IP-IP。最好禁用 IP-IP 以取得更好的性能。
NoEncapMode(无封装模式)
在这种模式下,发送的数据包就如同它们间接来自 Pod。因为没有封装和解封装带来的开销,NoEncapMode 有着更好的性能。
必须在 AWS 中禁用源 IP 查看能力启用此模式。
VXLAN
Calico 3.7+ 版本反对 VXLAN 路由模式。
VXLAN 的全称是 Virtual Extensible LAN(虚构可扩大局域网)。VXLAN 实质上是一种隧道技术,在源网络设备与目标网络设备之间的 IP 网络上,建设一条逻辑隧道,将用户侧报文通过特定的封装后通过这条隧道转发。从用户的角度来看,接入网络的服务器就像是连贯到了一个虚构的二层交换机的不同端口上,能够不便地通信。VTEP(VXLAN Tunnel Endpoints,VXLAN 隧道端点) 是 VXLAN 网络的边缘设施,是 VXLAN 隧道的终点和起点,VXLAN 对用户原始数据帧的 封装和解封装 均在 VTEP 上进行。
VXLAN 非常适合不反对 IP-in-IP 的网络,例如 Azure 或任何其余不反对 BGP 的 DC(DataCenter, 数据中心)。
演示 — IPIP 和 UnEncapMode
在装置 Calico 之前查看集群状态,能够看到所有节点都处于 NotReady 状态,这种状况是失常的,因为咱们还没有装置任何 CNI,因而集群节点上的 kubelet 会检测并报告节点的状态为 NotReady。
事实上,如果这个时候去部署一个非 hostNetwork 的 Pod,就会处于 Pending 的状态,因为集群的调度器不能找到 Ready 的节点来运行 Pod。然而,对于 Kubernetes 的零碎组件,如 API Server、Kube-Scheduler、Kube-Controller-Manager 等,因为它们是 hostNetwork 的 Pod,所以即便在未装置 CNI 组件的状况下也能失常运行。
master $ kubectl get nodes
NAME STATUS ROLES AGE VERSION
controlplane NotReady master 40s v1.18.0
node01 NotReady <none> 9s v1.18.0
master $ kubectl get pods --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-66bff467f8-52tkd 0/1 Pending 0 32s
kube-system coredns-66bff467f8-g5gjb 0/1 Pending 0 32s
kube-system etcd-controlplane 1/1 Running 0 34s
kube-system kube-apiserver-controlplane 1/1 Running 0 34s
kube-system kube-controller-manager-controlplane 1/1 Running 0 34s
kube-system kube-proxy-b2j4x 1/1 Running 0 13s
kube-system kube-proxy-s46lv 1/1 Running 0 32s
kube-system kube-scheduler-controlplane 1/1 Running 0 33s
查看 CNI 的 bin 和 conf 目录,确保外面没有任何配置文件或者 Calico 的二进制文件,装置 Calico 时将会往该目录寄存这些文件。
master $ cd /etc/cni
-bash: cd: /etc/cni: No such file or directory
master $ cd /opt/cni/bin
master $ ls
bridge dhcp flannel host-device host-local ipvlan loopback macvlan portmap ptp sample tuning vlan
查看 Master/Worker 节点的路由。
master $ ip route
default via 172.17.0.1 dev ens3
172.17.0.0/16 dev ens3 proto kernel scope link src 172.17.0.32
172.18.0.0/24 dev docker0 proto kernel scope link src 172.18.0.1 linkdown
下载并利用 calico.yaml 文件。
curl https://docs.projectcalico.org/manifests/calico.yaml -O kubectl apply -f calico.yaml
咱们来看看一些有用的配置参数。
cni_network_config: |-
{
"name": "k8s-pod-network",
"cniVersion": "0.3.1",
"plugins": [
{
"type": "calico", # Calico 插件
"log_level": "info",
"log_file_path": "/var/log/calico/cni/cni.log",
"datastore_type": "kubernetes",
"nodename": "__KUBERNETES_NODE_NAME__",
"mtu": __CNI_MTU__,
"ipam": {"type": "calico-ipam" # Calico IPAM 插件,治理和调配 IP 地址},
"policy": {"type": "k8s"},
"kubernetes": {"kubeconfig": "__KUBECONFIG_FILEPATH__"}
},
{
"type": "portmap",
"snat": true,
"capabilities": {"portMappings": true}
},
{
"type": "bandwidth",
"capabilities": {"bandwidth": true}
}
]
}
# Enable IPIP
- name: CALICO_IPV4POOL_IPIP
value: "Always" # 设置为 Never 能够禁用 IP-IP
# Enable or Disable VXLAN on the default IP pool.
- name: CALICO_IPV4POOL_VXLAN
value: "Never"
查看装置 Calico 后 Pod 和 Node 的状态,能够看到 Node 曾经处于 Ready 状态,并且 Pod 正在初始化或者创立中。
master $ kubectl get pods --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system calico-kube-controllers-799fb94867-6qj77 0/1 ContainerCreating 0 21s
kube-system calico-node-bzttq 0/1 PodInitializing 0 21s
kube-system calico-node-r6bwj 0/1 PodInitializing 0 21s
kube-system coredns-66bff467f8-52tkd 0/1 Pending 0 7m5s
kube-system coredns-66bff467f8-g5gjb 0/1 ContainerCreating 0 7m5s
kube-system etcd-controlplane 1/1 Running 0 7m7s
kube-system kube-apiserver-controlplane 1/1 Running 0 7m7s
kube-system kube-controller-manager-controlplane 1/1 Running 0 7m7s
kube-system kube-proxy-b2j4x 1/1 Running 0 6m46s
kube-system kube-proxy-s46lv 1/1 Running 0 7m5s
kube-system kube-scheduler-controlplane 1/1 Running 0 7m6s
master $ kubectl get nodes
NAME STATUS ROLES AGE VERSION
controlplane Ready master 7m30s v1.18.0
node01 Ready <none> 6m59s v1.18.0
让咱们摸索一下 CNI 的配置,因为这是 Kubelet 设置网络所需的。
master $ cd /etc/cni/net.d/
master $ ls
10-calico.conflist calico-kubeconfig
master $
master $
master $ cat 10-calico.conflist
{
"name": "k8s-pod-network",
"cniVersion": "0.3.1",
"plugins": [
{
"type": "calico",
"log_level": "info",
"log_file_path": "/var/log/calico/cni/cni.log",
"datastore_type": "kubernetes",
"nodename": "controlplane",
"mtu": 1440,
"ipam": {"type": "calico-ipam"},
"policy": {"type": "k8s"},
"kubernetes": {"kubeconfig": "/etc/cni/net.d/calico-kubeconfig"}
},
{
"type": "portmap",
"snat": true,
"capabilities": {"portMappings": true}
},
{
"type": "bandwidth",
"capabilities": {"bandwidth": true}
}
]
}
查看 CNI 的二进制文件。
master $ ls
bandwidth bridge calico calico-ipam dhcp flannel host-device host-local install ipvlan loopback macvlan portmap ptp sample tuning vlan
master $
让咱们装置 calicoctl 工具,从而更好地和 Calico 进行交互。
master $ cd /usr/local/bin/
master $ curl -O -L https://github.com/projectcalico/calicoctl/releases/download/v3.16.3/calicoctl
master $ chmod +x calicoctl
master $ export DATASTORE_TYPE=kubernetes
master $ export KUBECONFIG=~/.kube/config
# 查看端点,当咱们没有部署任何 Pod 时将会是空的
master $ calicoctl get workloadendpoints
WORKLOAD NODE NETWORKS INTERFACE
查看 BGP 对等节点状态,在 Master 节点上将会显示 Worker 节点。
master $ calicoctl node status
Calico process is running.
IPv4 BGP status
+--------------+-------------------+-------+----------+-------------+
| PEER ADDRESS | PEER TYPE | STATE | SINCE | INFO |
+--------------+-------------------+-------+----------+-------------+
| 172.17.0.40 | node-to-node mesh | up | 00:24:04 | Established |
+--------------+-------------------+-------+----------+-------------+
创立一个 2 正本的 busybox Pod,并增加 toleration(容忍),容许 Pod 调度到 Master 节点上。
cat > busybox.yaml <<"EOF"
apiVersion: apps/v1
kind: Deployment
metadata:
name: busybox-deployment
spec:
selector:
matchLabels:
app: busybox
replicas: 2
template:
metadata:
labels:
app: busybox
spec:
tolerations:
- key: "node-role.kubernetes.io/master"
operator: "Exists"
effect: "NoSchedule"
containers:
- name: busybox
image: busybox
command: ["sleep"]
args: ["10000"]
EOF
master $ kubectl apply -f busybox.yaml
deployment.apps/busybox-deployment created
获取 Pod 和 WorkloadEndpoints 状态。
master $ kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
busybox-deployment-8c7dc8548-btnkv 1/1 Running 0 6s 192.168.196.131 node01 <none> <none>
busybox-deployment-8c7dc8548-x6ljh 1/1 Running 0 6s 192.168.49.66 controlplane <none> <none>
master $ calicoctl get workloadendpoints
WORKLOAD NODE NETWORKS INTERFACE
busybox-deployment-8c7dc8548-btnkv node01 192.168.196.131/32 calib673e730d42
busybox-deployment-8c7dc8548-x6ljh controlplane 192.168.49.66/32 cali9861acf9f07
获取 Master 节点上 busybox Pod 的主机端 veth 对的详细信息。
master $ ifconfig cali9861acf9f07
cali9861acf9f07: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1440
inet6 fe80::ecee:eeff:feee:eeee prefixlen 64 scopeid 0x20<link>
ether ee:ee:ee:ee:ee:ee txqueuelen 0 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 5 bytes 446 (446.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
获取 Master 节点 busybox Pod 的接口地址,路由和 ARP 信息。
master $ kubectl exec busybox-deployment-8c7dc8548-x6ljh -- ifconfig
eth0 Link encap:Ethernet HWaddr 92:7E:C4:15:B9:82
inet addr:192.168.49.66 Bcast:192.168.49.66 Mask:255.255.255.255
UP BROADCAST RUNNING MULTICAST MTU:1440 Metric:1
RX packets:5 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:446 (446.0 B) TX bytes:0 (0.0 B)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
master $ kubectl exec busybox-deployment-8c7dc8548-x6ljh -- ip route
default via 169.254.1.1 dev eth0
169.254.1.1 dev eth0 scope link
master $ kubectl exec busybox-deployment-8c7dc8548-x6ljh -- arp
查看 Master 节点的路由。
master $ ip route
default via 172.17.0.1 dev ens3
172.17.0.0/16 dev ens3 proto kernel scope link src 172.17.0.32
172.18.0.0/24 dev docker0 proto kernel scope link src 172.18.0.1 linkdown
blackhole 192.168.49.64/26 proto bird
192.168.49.65 dev calic22dbe57533 scope link
192.168.49.66 dev cali9861acf9f07 scope link # Master 节点上连贯 busybox Pod 的 veth 接口
192.168.196.128/26 via 172.17.0.40 dev tunl0 proto bird onlink # 通往 Worker 节点上 Pod 的路由
尝试在 Master 节点的 Pod 上 ping Worker 节点的 Pod 以触发 ARP 申请。
master $ kubectl exec busybox-deployment-8c7dc8548-x6ljh -- ping 192.168.196.131 -c 1
PING 192.168.196.131 (192.168.196.131): 56 data bytes
64 bytes from 192.168.196.131: seq=0 ttl=62 time=0.823 ms
# 查看 ARP 条目
master $ kubectl exec busybox-deployment-8c7dc8548-x6ljh -- arp
? (169.254.1.1) at ee:ee:ee:ee:ee:ee [ether] on eth0
网关的 MAC 地址就是 cali9861acf9f07 接口的。从当初开始,所有出访的流量都会间接打到内核,而后内核会依据路由将数据包传入 tunl0 接口。
ARP 代理的配置。
master $ cat /proc/sys/net/ipv4/conf/cali9861acf9f07/proxy_arp
1
那么目标节点是如何解决数据包的?
node01 $ ip route
default via 172.17.0.1 dev ens3
172.17.0.0/16 dev ens3 proto kernel scope link src 172.17.0.40
172.18.0.0/24 dev docker0 proto kernel scope link src 172.18.0.1 linkdown
192.168.49.64/26 via 172.17.0.32 dev tunl0 proto bird onlink # 通往 Master 节点上 Pod 的路由
blackhole 192.168.196.128/26 proto bird
192.168.196.129 dev calid4f00d97cb5 scope link
192.168.196.130 dev cali257578b48b6 scope link
192.168.196.131 dev calib673e730d42 scope link # Worker 节点上连贯 busybox Pod 的 veth 接口
目标节点的内核收到数据包后,会依据路由表将数据包发往正确的 veth 接口。如果咱们捕捉数据包,咱们能够看到网络上的 IP-IP 协定。应用 tcpdump 工具进行抓包:
- -i:抓包的接口,留神要在主机的接口,而不是在 tunl0 接口上抓包,在 tunl0 接口看到是还未封装前的数据包。
- host:依据 IP 地址过滤,IP-IP 外层的是地址是节点的 IP。
- -nn:不解析主机名或端口名,能够放慢抓包的速度。
- -w:输入到文件。
另外须要留神不要通过 ICMP 的形式过滤数据包,因为外层是 IP-IP 协定,内层才能够看到 ICMP 协定。
tcpdump -i < 节点接口 > host < 节点 IP> -nn -w /tmp/ipip.pcap
在 Wireshark 工具关上能够看到以下成果,下图我是在另一篇文章 Calico Routing Modes [4] 中截取的,图中的 IP 地址和本示例中的环境是不统一的,这里次要为了是不便读者看一下成果。能够看到,Pod 的 IP 通过 IP-IP 协定封装在节点的 IP 中。
Azure 不反对 IP-IP(据我所知);因而,咱们无奈在那种环境中应用 IP-IP。最好禁用 IP-IP 以取得更好的性能。让咱们尝试禁用它,看看成果如何。
演示 — UnEncapMode
禁用 IP-IP:更改 ipPool 配置以禁用 IP-IP,先应用以下命令获取以后的配置。
master $ calicoctl get ippool default-ipv4-ippool -o yaml > ippool.yaml
master $ vi ippool.yaml
编辑 ippool.yaml 文件,将 ipipMode 参数设置为 Never,而后应用 calicoctl 命令从新利用配置文件。
master $ calicoctl apply -f ippool.yaml
Successfully applied 1 'IPPool' resource(s)
从新查看路由。
master $ ip route
default via 172.17.0.1 dev ens3
172.17.0.0/16 dev ens3 proto kernel scope link src 172.17.0.32
172.18.0.0/24 dev docker0 proto kernel scope link src 172.18.0.1 linkdown
blackhole 192.168.49.64/26 proto bird
192.168.49.65 dev calic22dbe57533 scope link
192.168.49.66 dev cali9861acf9f07 scope link
192.168.196.128/26 via 172.17.0.40 dev ens3 proto bird # 通往 Worker 节点 Pod 的路由的出接口变成 ens33 了
路由的出接口不再是 tunel0,而是变成了 Master 节点的治理接口。
让咱们尝试 ping Worker 节点的 Pod 并确保一切正常。从当初开始,将不再波及任何 IPIP 协定。
master $ kubectl exec busybox-deployment-8c7dc8548-x6ljh -- ping 192.168.196.131 -c 1
PING 192.168.196.131 (192.168.196.131): 56 data bytes
64 bytes from 192.168.196.131: seq=0 ttl=62 time=0.653 ms
--- 192.168.196.131 ping statistics ---
1 packets transmitted, 1 packets received, 0% packet loss
round-trip min/avg/max = 0.653/0.653/0.653 ms
NoEncapMode 模式下要求集群的节点在 同一网段 内才能够保障 Pod 之间的失常通信。因为如果跨网段的话,没有在 Pod IP 的内部封装节点 IP 的状况下,网关设施是不晓得 Pod 的网段的,将会抛弃数据包。应用 tcpdump 工具抓包剖析,因为没有额定的封装,能够间接通过 ICMP 协定进行过滤。
tcpdump -i < 节点接口 > icmp -nn -w /tmp/noencapmode.pcap
Calico 能够抉择仅封装跨子网边界的流量,倡议在 IP-IP 或者 VXLAN 模式中应用 CrossSubnet
抉择,以最大限度地缩小封装开销,配置详情参见:Calico Overlay networking [5]。
演示 — VXLAN
从新初始化集群并下载 calico.yaml 文件,而后批改以下内容。
-
从 livenessProbe 和 readinessProbe 中移除 bird。因为在第 2 步中禁用 BIRD 会导致衰弱探测失败。
livenessProbe: exec: command: - /bin/calico-node - -felix-live #- -bird-live # 正文这条 periodSeconds: 10 initialDelaySeconds: 10 failureThreshold: 6 readinessProbe: exec: command: - /bin/calico-node - -felix-ready #- -bird-ready # 正文这条
2. 批改 calico_backend 参数为 vxlan,示意禁用 BIRD,因为咱们不再须要 BGP。
kind: ConfigMap
apiVersion: v1
metadata:
name: calico-config
namespace: kube-system
data:
# Typha is disabled.
typha_service_name: "none"
# Configure the backend to use.
calico_backend: "vxlan" # 批改为 vxlan
3. 禁用 IPIP。
# Enable IPIP
- name: CALICO_IPV4POOL_IPIP
value: "Never" # 将参数设置为 Never 禁用 IPIP
# Enable or Disable VXLAN on the default IP pool.
- name: CALICO_IPV4POOL_VXLAN
value: "Never"
批改结束后利用配置文件。
$ kubectl apply -f calico.yaml
查看 Master 节点的路由和接口。
master $ ip route
default via 172.17.0.1 dev ens3
172.17.0.0/16 dev ens3 proto kernel scope link src 172.17.0.15
172.18.0.0/24 dev docker0 proto kernel scope link src 172.18.0.1 linkdown
192.168.49.65 dev calif5cc38277c7 scope link
192.168.49.66 dev cali840c047460a scope link
192.168.196.128/26 via 192.168.196.128 dev vxlan.calico onlink # 通往 Worker 节点 Pod 的路由走 vxlan.calico 接口
# 多了一个 vxlan.calico 接口用于封装和解封装 VXLAN 流量
master $ ifconfig
vxlan.calico: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1440
inet 192.168.196.128 netmask 255.255.255.255 broadcast 192.168.196.128
inet6 fe80::64aa:99ff:fe2f:dc24 prefixlen 64 scopeid 0x20<link>
ether 66:aa:99:2f:dc:24 txqueuelen 0 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 11 overruns 0 carrier 0 collisions 0
查看 Pod 状态。
master $ kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
busybox-deployment-8c7dc8548-8bxnw 1/1 Running 0 11s 192.168.49.67 controlplane <none> <none>
busybox-deployment-8c7dc8548-kmxst 1/1 Running 0 11s 192.168.196.130 node01 <none> <none>
查看 Pod 的路由。
master $ kubectl exec busybox-deployment-8c7dc8548-8bxnw -- ip route
default via 169.254.1.1 dev eth0
169.254.1.1 dev eth0 scope link
发动 ping 命令触发 ARP 申请。
master $ kubectl exec busybox-deployment-8c7dc8548-8bxnw -- arp
master $ kubectl exec busybox-deployment-8c7dc8548-8bxnw -- ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=116 time=3.786 ms
^C
master $ kubectl exec busybox-deployment-8c7dc8548-8bxnw -- arp
? (169.254.1.1) at ee:ee:ee:ee:ee:ee [ether] on eth0
master $
和后面介绍的 IP-IP 模式的概念相似,惟一的区别是数据包达到 vxlan.calico 接口后,会在数据包的外层封装节点 IP 和 MAC 地址。此外,VXLAN 协定应用 UDP 4789 端口。应用 tcpdump 工具抓包剖析,能够在节点接口上依据 VXLAN 的 4789 端口进行过滤。
tcpdump -i < 节点接口 > port 4789 -nn -w /tmp/vxlan.pcap
留神: VXLAN 可能反对在某些 IP-IP 不反对的环境(例如 Azure)。和 IP-IP 模式相比,因为 VXLAN 封装数据包所应用的标头更大,因而会耗费更多的资源。除非你运行网络密集型的工作负载,否则通常不会留神到两者间性能的差别。
参考资料
- [1] 原文链接:https://dramasamy.medium.com/…
- [2] Component architecture: https://projectcalico.docs.ti…
- [3] BGP Route Reflection: https://datatracker.ietf.org/…
- [4] Calico Routing Modes: https://octetz.com/docs/2020/…
- [5] Calico Overlay networking: https://projectcalico.docs.ti…
- [6] Calico 网络通信原理揭秘: https://zhuanlan.zhihu.com/p/…
- [7] 什么是 VXLAN: https://support.huawei.com/en…
- [8] 一文明确 calico 的 IPIP 网络模式: https://network.51cto.com/art…
- [9] 应用 Go 从零开始实现 CNI:https://morven.life/posts/cre…
- [10] Switching from IP-in-IP to VXLAN:https://projectcalico.docs.ti…
- [11] Troubleshooting Calico: https://github.com/apprenda/k…
- [12] The Calico datastore: https://projectcalico.docs.ti…
欢送关注