This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] AM6442:添加了运行 Nitika Verma 和 Team 为异构 SoC 提议的 RT/NRT 隧道机制的延迟

Guru**** 2430620 points


请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/1538561/am6442-added-delay-running-the-rt-nrt-tunneling-mechanism-proposed-by-nitika-verma-and-team-for-heterogeneous-socs

器件型号:AM6442


工具/软件:

您好:

在 2025 年嵌入式世界展览和会议上、Nitika Verma、Teja Rowthu、Pradeep HN、Archit Dev 和 Manuel Philipin 提出了一篇论文、其中介绍了一种使用软件桥将 RT 和 NRT 数据拆分为 MPU 不同处理器的方法。

本文题为“在异构 SoC 上进行网络流量隧道处理“。

我想知道此软件桥接器增加了多少延迟。 对于 Linux 和 RTOS 内核、无论是否有桥接器、我都希望能够访问数据包处理延迟。

我也对获取这些数字的方法感兴趣(如果有)。

请添加或询问我忘记添加的与此主题相关的任何缺失信息。

此致、

基督教

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Christian:

    我很遗憾地通知大家、我们没有测量网桥和共享存储器增加的额外延迟。 我们提供了一种解决方案、可为使用我们 PRU 固件的时间关键型应用单独处理 RT 和 NRT 流量。 这可确保 RT 流量始终与边界保持一致。 我们观察到 从外部主机 PC 到 Linux、再到 Linux 的最大 RTT 约为 4ms。 如果您想获得这些数字、我们可以计划进行一些测试并分享这些结果。

    我想了解您计划使用的终端解决方案类型、因此我们可以提供更好的测试方法来反映您的用例。

    谢谢。此致、
    Teja。

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Teja:

    感谢您的回答。 计划的解决方案是具有高频循环流量的桥接 TSN 端点。 TSN 周期时间需要与工业以太网协议的当前先进水平相匹配。

    EtherCAT 显然支持 12.5us 周期时间(请参阅 www.ethercat.org/.../etg_201202_e.pdf) 、Profinet TSN 达到 31.25us(请参阅 us.profinet.com/.../)

    如果在 RT 路径内转发所增加的延迟超过允许的容差、则此解决方案不适合我的应用。

    NRT 路径不是那么重要,但从我的角度来看仍然有趣。

    此致、

    基督教

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Christian:

    是您尝试运行的 内核上的 TSN 节点未直接连接到网络外设 ? 只有在这些情况下、由于额外的软件切换、才会产生额外的延迟。

    对于 端口到端口转发、任何流量都不会有任何额外延迟。 因此、它仍将满足当前周期时间和 SDK 支持的最大跳数参数。 TI 在工业通信 SDK 中提供 EtherCAT 主站和从站解决方案、并支持在 PRU-ICSS 内核上运行特定于协议的固件、该内核可处理 RT 和 NRT 流量。

    目前、我们仅针对 NRT 流量测试基于共享内存的解决方案。 这也是预期的用例、其中可以处理网络上的 RT 和 NRT 流量、该解决方案提供了一种减轻处理需求较高的 NRT 流量处理负担的方法。

    如果我们可以帮助您提供更多信息或说明、请告知我们。

    谢谢。此致、
    Teja。

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Teja:

    据我所知、任何传入的以太网数据包都将通过 ICSSG 路由到 lwip 软件桥。 然后、NRT 数据包向 A 内核发送、而 RT 数据包直接在 RTOS 中处理。 我的应用程序将使用类似的布局、其中只有 NRT 流量路由到不同的处理器。

    在任何情况下、所选工业以太网协议的 RT 数据包均由软件网桥处理、然后由 R5 内核复合体中的目标进程进行处理。 这将需要在接收和发送路径中产生额外的延迟。

    请纠正我,如果我不可避免地得到一些细节错误。

    此致、

    基督教

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Christian:

    对于 ICSSG 示例、软件桥仅放置在 NRT 路径中。 RT 数据包将采用与固件完全不同的路由。 在本文中、我们以 CPSW 为例、它不会区分 RT 和 NRT、并将为所有数据包增加延迟。

    如果您的解决方案需要分别处理 RT 和 NRT 流量、我们建议您使用 ICSS 进行实施、并支持 RT 固件。 对于通用用例、我们建议使用 CPSW 将处理大量流量卸载到内核、并以更高的时界灵活性实现确定性流量。

    此致、
    Teja。

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Teja:

    如果我正确理解您:您的论文并不是为了展示 RT 数据包的快速处理、而 RT 数据包本应在 ICSSG 内部处理。 而是将它们转发到一个 R5 处理器中、为纸张提供某种形式的 RT 流量。

    在我的应用中、RT 数据包的切换和处理应在 ICSSG 本身内处理。 这会非常快、因为这种特殊的硬件将实时处理以太网数据包。 只有 NRT 数据包会转发到 AM64xx 的其中一个 A/ R 处理器。

    感谢你的帮助。

    此致、

    基督教

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Christian:

    对于 ICSSG、正如您正确提到的、RT 流量将在固件中单独处理。 如果您遵循本文中所示的方法、仅使用 ICSSG、所有 NRT 流量都将路由到软件桥接器、然后转发到 A53/R5 内核。 在我们的白皮书中、我们没有讨论 RT 数据包的快速处理、因为我们不会改变 ICSSG 中的任何 RT 数据包处理。 本文将讨论流量的隧道化、而不会占用大量 CPU 负载、将网络流量通过隧道传输到远程核心以进行过程卸载。

    我希望我能够澄清你的问题。 如有任何其他疑问、请告知我们。

    谢谢。此致、
    Teja。