This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] TDA4VM:使用 Edgeai-modelmaker 为 TDA4VM 训练的物体检测模型推理

Guru**** 2532530 points
Other Parts Discussed in Thread: TDA4VM, AM67A

请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/1556572/tda4vm-inference-for-object-detection-model-trained-for-tda4vm-using-edgeai-modelmaker

器件型号:TDA4VM
Thread 中讨论的其他器件: DRA829AM67A

工具/软件:

我已经使用 Edgeai-modelmaker 针对定制数据集训练了 yolox_s_lite (yolox_s_lite_640x640_20220221_checkpoint.pth)、为时 100 个周期、我所需的 EVM 是 TDA4VM

该模型应该是使用 Edgeai-modelmaker 编译的、但训练后遇到的错误为:

FileNotFoundError:[errno 2]没有此类文件或目录:“/home/chai/edgeai-tensorlab/edgeai-modelmaker/data/projects/classwise/run/20250821-175504/yolox_s_lite/compilation/pkg/artifacts.yaml “

所以在训练后,我得到了.onnx 和.protottxt 文件,然后我用 edgeai-tidl-tools 编译模型,现在我想用这个模型的视频推理验证它的检测,但我无法找到一个正确的方法从一个自定义训练的模型进行推理。

我正在尝试使用 edgeai-studio 模型分析器进行推理、但找不到上传定制训练模型的选项。 因此、到目前为止、我们尚未能在视频或图像上测试我们经过训练的定制 yolox_s_lite 模型。 在这种情况下,你能帮助一些推理的方法吗?  

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好;

    感谢您问这个问题。

    您可以构建一个 ROTS SDK、并将您的 Yolo 模型(模型的工件)下载到 EVM 并进行验证。 EVM 上的实时视频播放是一种验证方法。

    SDK 中有一个示例、您只需修改 YAML 文件即可调用模型。

    确保下载测试数据 tarball 以及视频测试流。  

    以下链接提供了下载 SDK 以及如何运行 TIDL 视觉应用程序的链接。

    https://www.ti.com/tool/PROCESSOR-SDK-J721E?keyMatch=TDA4VM%20sdk&tisearch=universal_search

    点击此链接、然后点击最后的下载选项“RTOS-J721E  适用于 DRA829 和 TDA4VM Jacinto 的 PROCESSOR-SDK-RTOS SDK“

    此致

    Wen Li

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好:

    感谢您的答复。

    在这种情况下、在 EVM 上验证模型是否是进行推理的唯一方法?

    或者、我们是否有任何方法可以通过它在工作站/PC 上进行推理?

    谢谢  

    Chaitanya

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好:

    您上面指定的 EVM 是通过模型分析器提供的虚拟 EVM、还是实际的 TDA4VM 板???

    谢谢

    Chaitanya

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好:  

    对此进行任何更新??

    谢谢。

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    如果您想进行实时推理并验证性能、我们建议使用真正的 EVM。   

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您还可以使用“PC_DSP_TEST_dl_algo.out"程序“程序在 PC 上进行推理测试。 它位于以下目录中:

    ./edgeai-tidl-tools/tools/AM67A/tidl_tools

    根据您使用的器件、您的器件可能不是“AM67A"。“。  

    您只需创建一个推理配置文本文件作为此程序“pc_dsp_test_dl_algo.out"的“的输入   

    有关更多详细信息、请参阅此链接

    https://software-dl.ti.com/jacinto7/esd/processor-sdk-rtos-jacinto7/07_00_00_11/exports/docs/tidl_j7_01_02_00_09/ti_dl/docs/user_guide_html/md_tidl_sample_test.html

    但是、使用视频流作为输入来在 PC 仿真上测试推理会很慢、并且可能涉及一些额外的预处理(例如视频解压缩)。  

    同样、如果要使用视频流作为输入来测试推理、我们建议使用真实的 EVM。 由于 SDK 内置了基础设施、因此视频可以是来自摄像头的以太网、也可以是预录制的视频流。

    此致

    Wen Li

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好;

    您是否仍对此问题有疑问? 如果没有、请关闭 TT。 如果您将来有问题、可以轻松重新打开或提交新问题。

    谢谢。此致

    Wen Li

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好;

    如果您真的想在 PC 上进行模拟,并且您有一个可以捕获原始视频片段的图像传感器(相机)。 然后、您可以将剪辑视作多个帧/图像(用于 PC 模拟)、例如、2 秒视频的 60 个图像(假设 30 帧/秒)。 您可以进行的最少预处理是将传感器格式转换为 RGB 格式、这非常简单。   

    此致

    Wen Li