Replies: 8 comments 10 replies
-
如果喜欢dperf,加个star吧,谢谢 |
Beta Was this translation helpful? Give feedback.
-
我注意到testpmd 使用的 burst 是 32(mac packet forwarding packets/burst=32),testpmd 使用15个核心和 16个队列 ,我将 dperf client 的 burs 设置了32,然后删除 dperf client 中的 rss auto 配置后,依然没有效果
输出如下
|
Beta Was this translation helpful? Give feedback.
-
这是 dperf client 的输出,不管怎么调参数 bitsRx 总是到 49,652,720,544 左右,感觉像是哪里设置不对 |
Beta Was this translation helpful? Give feedback.
-
用多个CPU |
Beta Was this translation helpful? Give feedback.
-
忘记 CPU 配置了 Intel(R) Xeon(R) Silver 4216 CPU @ 2.10GHz,单 socket ,32 核心 |
Beta Was this translation helpful? Give feedback.
-
这个极限是 dperf client 还是 testpmd呢? bitsTx 有 96,900,784,960,比 bitsRx 多了一倍左右,dperf client 的发送应该不是瓶颈吧 |
Beta Was this translation helpful? Give feedback.
-
从这个 testpmd 的输出来看,是 port 1 接收的时候被丢弃了
|
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
dperf 非常好用,之前经常用来测试各种网卡的速度,这次测试 100G 网卡时遇到了一点问题,请教一下。
我现在有 3 台机器,每台机器都有 2 张 100G 的网卡。三台机器两两之间使用 dperf 互相打流都可以跑满线速。
但是如果在 dperf client 和 dperf server 两台机器之间加一台机器跑 dpdk-testpmd 用来转发流量,那么带宽仅有50G 左
右,想请教下为什么会出现这种现象?哪里可能出现问题呢?拓扑和配置如下
dperf 使用的提交是 fcf5035
dpdk 版本 22.11
系统环境是 ubuntu22.04
内核版本是 6.8.0-49-generic
系统 /etc/default/grub 设置如下
大页配置和网卡绑定参数 3 台机器都一样,如下
大页配置
网卡绑定信息
客户端配置
服务端配置
可以跑满限速的拓扑
加入 dpdk-testpmd 仅有 50G 左右的拓扑
dpdk-testpmd 启动参数
尝试修改过 dpdk-testpmd 队列和线程数,测试结果没有变化
dpdk-testpmd 的输出
dperf client 的输出
dperf server 的输出
Beta Was this translation helpful? Give feedback.
All reactions