共计 1956 个字符,预计需要花费 5 分钟才能阅读完成。
基于 linux 内核 5.4.54
veth 是一个虚构网络设备,是通过 linux 内核网络设备驱动实现的
/* veth 设施在内核上注册的调用办法 */
static const struct net_device_ops veth_netdev_ops = {
.ndo_init = veth_dev_init, /* 初始化设施 */
.ndo_open = veth_open, /* 关上设施 */
.ndo_stop = veth_close, /* 敞开设施 */
.ndo_start_xmit = veth_xmit, /* 传输数据包(重要) */
.ndo_get_stats64 = veth_get_stats64, /* 拷贝硬件统计计数到用户空间 */
.ndo_set_rx_mode = veth_set_multicast_list, /* 外面是空函数, 骗人的 */
.ndo_set_mac_address = eth_mac_addr, /* 批改 MAC 地址 */
#ifdef CONFIG_NET_POLL_CONTROLLER
.ndo_poll_controller = veth_poll_controller, /* 外面是空函数, 骗人的 */
#endif
.ndo_get_iflink = veth_get_iflink, /* 获取设施的 iflink 值(应该是编号) */
...
.ndo_bpf = veth_xdp, /* 设置或查问设施上与 XDP 相干的状态,以及治理 BPF offload。*/
.ndo_xdp_xmit = veth_xdp_xmit, /* 传输 XDP 数据包 */
};
通过 veth 将两个容器连接起来
收发门路:
过程(容器 1)
|-- 零碎调用进入 Namespace1 的网络协议栈, 容器 1 创立过程时会为过程设置 network namespace
kernel 层: 创立 skb,从用户空间拷贝数据到内核空间
TCP/UDP 封包
IP 封包, 跑 Namespace1 的路由和 iptables
|-- 出协定栈进入网络设备
调用网络设备驱动的传输数据包函数
|
veth_xmit: veth 驱动注册的传输函数
|
veth_forward_skb
|
__dev_forward_skb: 革除 skb 中可能影响命名空间隔离的所有信息
| 并且会更新数据包要达到的网路设施(skb->dev), 由 eth0 改为 eth1
| 数据包要跑的协定栈 (network namespace) 由 skb->dev 的 nd_net 字段决定
|
XDP 钩子点
|
netif_rx
|
netif_rx_internal: cpu 软中断负载平衡
|
enqueue_to_backlog: 将 skb 包退出指定 cpu 的 input_pkt_queue 队尾
queue 为空时激活网络软中断,
queue 不为空不须要激活软中断,cpu 没清空队列之前
会主动触发软中断
每个 cpu 都有本人的 input_pkt_queue(接管队列, 默认大小 1000, 可批改), 和 process_queue(解决队列), 软中断处理函数解决实现 process_queue 中的所有 skb 包之后, 会将将 input_pkt_queue 拼接到 process_queue
input_pkt_queue 和 process_queue 是 cpu 为非 NAPI 设施筹备的队列,NAPI 设施有本人的队列
cpu 解决网络数据包过程:
do_softirq()
|
net_rx_action: 网络软中断处理函数
|
napi_poll
|
n->poll: veth 设施没有定义 poll, 调用默认 poll 函数 -process_backlog
|
process_backlog: cpu 循环从 process_queue 中取出 skb 解决, 最多解决 300 个 skb,
| 解决队列清空后, 拼接 input_pkt_queue 到 process_queue 队尾
|
__netif_receive_skb
|
...
|
__netif_receive_skb_core: 跑 eth1 所在的 Namespace2 的网络协议栈
(最终容器 2 过程收到数据包)
总结 veth 工作过程:
容器 1 过程生成数据包 —->eth0—>veth 批改革除信息 —->eth1—> 容器 2 过程收到数据包
具体实现:
容器 1 过程发包到 eth0, veth 改数据包内容, 将数据包退出某个 cpu 的队列, 期待 cpu 解决
cpu 解决数据包时, 运行容器 2 的 eth1 所在的网络协议栈(Namespace2), 最终发到容器 2 的利用中
相当于数据包从容器 1 中到了容器 2 中
硬件网卡设施承受数据包示意图
veth 虚构设施与硬件网卡设施区别
- veth 设施与硬件网卡设施相比少了 DMA,Ring Buffer, 中断处理函数
- veth 设施是零拷贝的
硬件网卡设施与 veth 相比有 2 次拷贝损耗:
一次是接管数据包时 DMA 到内核空间的拷贝, 一次是发送数据包时内核空间到 DMA 的拷贝
正文完