主题中讨论的其他器件:TDA4VH
您好、TI!
通过以太网扩展桥10G 连接的两个 TDA4VH 评估板之间可实现的最大网络带宽是多少? 我们当前使用的是 SDK 8.06.001、而 Linux 原生驱动程序会初始化 CPSW9G。 我们使用 iperf 工具(TCP 双向)进行的测试得出的结果约为3.4 Gbit/s。 考虑到3.4Gbit/s 明显低于预期的10Gbit/s、造成如此低带宽的原因是什么?
此致、
Marko.
This thread has been locked.
If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.
尊敬的 Marko:
Unknown 说:考虑到3.4Gbit/s 明显低于预期的10Gbit/s,造成如此低带宽的原因是什么?
低带宽是网络堆栈中的软件瓶颈。 当前 Linux 上的网络堆栈无法维持10Gbps 的吞吐量。 已验证硬件的链路速率是否超过10Gbps、但软件会进行节流。 如果在性能分析期间运行 TOP/mpstat,您应该会看到核心被100%利用。
可以使用以下方法来提高性能:
希望这对您有所帮助。
此致、
坦迈
您好、Tanmay、
在 数据表中、TDA4VH 板上的 CPSW9G 的网络性能测试是使用 QSGMII 卡上以太网接口类型 QSGMII (速率为1Gbps)执行的。 当两个 TDA4VH 评估板使用以太网扩展桥10G 将 MAC 连接到 MAC 时、您是否有关于 QNX 的任何结果?
此致、
Marko.
尊敬的 Marco:
数据表中 TDA4VH 板上 CPSW9G的网络性能测试使用以太网接口类型 QSGMII 在 QSGMII 卡上以1Gbps 进行。
是的、由于我们在 EVM 上仅支持 QSGMII PHY、因此我们使用 QSGMI 进行测量、并在数据表中提到了同样的内容。
但是、我们在内部测量时使用了两个 TDA4VH 评估板、通过 Linux 中的10G 以太网扩展桥将 MAC 连接到了 MAC、 3.3Gbps 这种情况。
如前所述、网络堆栈和软件处理将成为此处的瓶颈。 但是、通过从一个外部端口到另一个端口的 H/W 切换可以提供 几乎 10Gbps 的吞吐量。
此致、
苏德黑尔