This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] TDA4VM-Q1:在 EVM 板上使用已导入的 edgeai-Benchmark 工件

Guru**** 657930 points
Other Parts Discussed in Thread: SK-TDA4VM
请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/1120095/tda4vm-q1-using-edgeai-benchmark-imported-artifacts-on-the-evm-board

器件型号:TDA4VM-Q1
主题中讨论的其他器件:SK-TDA4VM

大家好、

根据 edgeeai-Benchmark GitHub 页面、导入的模型工件可用于在 J721E EVM 上执行推理。 但是、我们无法使用来自 edgeeai-Benchmark 的工件在 J721E EVM 板上的任何模型(例如 efficiencedet_lite0-3)上运行推理。 我们可以在 SK-TDA4VM 板上执行此操作、但不能在 J721E EVM 板上执行此操作。 通过使用 Processor RTOS SDK v8.2中包含的 TIDL 工具导入模型、我们能够在 J721E EVM 上获取工作伪影。

edgeai-Benchmark 的导入工件是否应在 J721E EVM 板上正常工作而不进行修改? 如果不是、需要进行哪些修改? 我们希望对 J721E EVM 和 SK-TDA4VM 使用单个模型编译工具。

提前感谢您。

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好 James、

    用于 J721E EVM 的 PSDK RTOS 和用于 SK-TDA4VM 的边缘 AI SDK 上使用的运行时存在一些差异(即 PSDK RTOS 使用 TIDM-RT、而边缘 AI SDK 使用 OSRT、例如 ONNX、Tensorflow Lite、TVM/Neo)。  

    我能否在下周回来与您讨论一下可在 PSDK RTOS 中使用的 edgeai-Benchmark 中的模型吗?  

    此致、

    Takuma

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    是的、我们很高兴听到有关如何在 PSDK RTOS 版本中使用这些模型的更新消息。

    谢谢你。

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    从我们到目前为止看到的情况来看、edgeai-Benchmark 生成的工件似乎与在 PSDK RTOS DL 应用程序中运行它们的代码不兼容。 (到目前为止、我们主要关注对象检测。)

    此外、我们还注意到、对于 PSDK RTOS、我们必须手动指定一组设置、而对于 edgeai-Benchmark、它具有一组用于这些设置的预设。  在 SK-TDA4VM EdgeAI 板上运行时显然设置了哪些选项?  不过、我们确实了解了如何在流水线设置中更改某些变量。

    因此、如果有支持这两种用例(EVM 和边缘 AI)的路线图、我们希望获得更多信息。

    谢谢、

    James

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 James:

    对拖延表示歉意。 我已经获得了一直致力于创建这些工具的工程师的响应。  

    使用 edgeeai-Benchmark 创建的模型可与 PSDK RTOS 一起使用。 然而、PSDK RTOS 中使用的运行时、TIDM-RT、只能使用完全受支持的模型(它不能卸载到 ARM)。 如果使用 edgeai-tidl 工具或 edgeai-benchmark 编译模型、并且所有层都卸载到硬件加速器和 DSP 内核、则 TIDM-RT 也可以使用这些工件。

    此致、

    Takuma  

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    感谢您的回答。

    我们已经找到了针对 TVM 和 ONNX 运行时间禁用到 ARM 的卸载的方法、但无法找到针对 TFLite 运行时禁用它的方法。

    您能否指定在 TFLite 运行时禁用 ARM 卸载所需的更改?

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 James:

    有 一些选项可用于禁用卸载(到 DSP/MMA)=仅 ARM 模式=所有模型在 ARM 上运行、而不是部分卸载到 DSP/MMA。 我认为没有针对 TVM 或 ONNX 禁用到 ARM 的卸载选项。

    我从团队那里得到的是、没有专门用于边缘 AI SDK 和 PSDK RTOS 的模型导入工具。 但是、使用 Edge AI SDK 中的 edgeai-tidl-tools/edgeai-benchmark 创建的模型也可以与 PSDK RTOS 中使用的 TIDM-RT 一起运行、只要模型仅使用 TIDM-RT: https://software-dl.ti.com/jacinto7/esd/processor-sdk-rtos-jacinto7/08_00_00_12/exports/docs/tidl_j7_08_00_00_10/ti_dl/docs/user_guide_html/md_tidl_layers_info.html 支持的层和运算即可 

    因此、一些可能的选择包括:

    • 使用适用于 PSDK RTOS 的 TIDL 模型导入程序和适用于边缘 AI SDK 的 eZeai-tidl-tools -这是推荐的方法、因为这两个 SDK 适用于不同的用例(汽车与工业)、具有不同的流水线(OpenVX 与 GStreamer)、 并关注不同的底层操作系统(RTOS 与 Linux)、因此每个 SDK 中包含的所有工具都不是为了进行混合和匹配而设计的
    • 在挑选模型时、请确保 TIDM-RT 通过引用上面的链接来支持所有层/操作、并使用 edgeai-tidl-tools/edgeai-benchmark 进行编译-不建议这样做、因为这与预期的应用开发流程不同、并且 TI 提供的支持将受到限制、但有可能。

    此致、

    Takuma

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    你好、Takuma、

    感谢你的答复。

    我们在内部讨论了这一点、并将继续使用 PSDK RTOS 的模型导入程序和边缘 AI SDK 的 eZeai-tidl-tools。 我们最终将把所有开发整合在一个平台上。

    此致、

    James