 Cilium的网络加速秘诀�������������������� ���������������� ������������������������ Cilium加速网络 性能提升的主要表现: • 不同场景下,不同程度地降低了 网络数据包的“转发延时” • 不同场景下,不同程度地提升了 网络数据包的“吞吐量” • 不同场景下,不同程度地降低了 转发数据包所需的“ CPU 开销” eBPF 简介 eBPF 技术 在 Linux hook 点上,以 VM 方式安全运行,其能过通过 map 存储结 构存储数据,能通过 map 同用户态程序交互, 最终实现内核数据进行修改,或者影响内核处 理请求的结果,或者改变内核处理请求的流程。 极大提升了内核处理事件的效率。 截止 linux 5.14 版本,eBPF 有32种类型程序。而 cilium 主要使用了如下类型程序: • sched_cls 。cilium在内核 TC 处实现数据包转发、负载均衡、过滤 LoadBalancer service 的解析和转发,其转发性能能比肩 DPDK 技术,且能节省大量CPU资源 当 PPS 压力越大,提升效果越发显 著,相比 kube-proxy,测量得出以下 效果: 1. TC 转发方式,在10Mpps input压 力下提升 1 倍的吞吐量,在2Mpps 压力下,节省了30%的CPU利用率 2. XDP的性能上限极高,可能是 TC 的 10 倍左右 raw0 码力 | 14 页 | 11.97 MB | 1 年前3 Cilium的网络加速秘诀�������������������� ���������������� ������������������������ Cilium加速网络 性能提升的主要表现: • 不同场景下,不同程度地降低了 网络数据包的“转发延时” • 不同场景下,不同程度地提升了 网络数据包的“吞吐量” • 不同场景下,不同程度地降低了 转发数据包所需的“ CPU 开销” eBPF 简介 eBPF 技术 在 Linux hook 点上,以 VM 方式安全运行,其能过通过 map 存储结 构存储数据,能通过 map 同用户态程序交互, 最终实现内核数据进行修改,或者影响内核处 理请求的结果,或者改变内核处理请求的流程。 极大提升了内核处理事件的效率。 截止 linux 5.14 版本,eBPF 有32种类型程序。而 cilium 主要使用了如下类型程序: • sched_cls 。cilium在内核 TC 处实现数据包转发、负载均衡、过滤 LoadBalancer service 的解析和转发,其转发性能能比肩 DPDK 技术,且能节省大量CPU资源 当 PPS 压力越大,提升效果越发显 著,相比 kube-proxy,测量得出以下 效果: 1. TC 转发方式,在10Mpps input压 力下提升 1 倍的吞吐量,在2Mpps 压力下,节省了30%的CPU利用率 2. XDP的性能上限极高,可能是 TC 的 10 倍左右 raw0 码力 | 14 页 | 11.97 MB | 1 年前3
共 1 条
- 1













