器件型号: SK-AM62A-LP
TI 团队大家好、
我一直尝试使用我的 yolox-nano 模型、该模型使用 edgeai-modelmaker 进行了默认配置和自定义数据集训练。 我编译 tensor_bits 设置为 16 位的模型。 我提到了使用该自定义模型执行推理的 2 个选项:
- 来自 edgeai-tidl-tools/examples 的 onnx_ep.py 脚本
- 通过 edgeai-gst-apps 使用我的模型。
我尝试了两个 SDK 版本 — r10.1(在上安装了 r11.0 tidl 工具)和 r11.1。 我已经在两者上使用相同的方法训练了模型。 使用 onnx_ep.py 执行推理时、我可以看到如下预测-
使用 r10.1 进行预测(在上安装了 r11.0 tidl 工具)-

使用 r11.1 进行预测-

当我想使用 edgeai-gst-apps/apps_python/app_edgeai.py 中使用的 gstreamer 流水线执行推理时、会出现问题。 以下是在同一映像上运行 app_edgeai.py 后生成的图像作为输出-
r11.1 app_edgeai.py 上的预测


我倾向于认为这两种方法对输入法使用不同的预处理。 我希望使用 app_edgeai.py 中的 gstreamer 流水线来获得相同/相似的结果、而不是使用 onnx_ep.py 基于 onnx 的推理、以确保我以应用程序优先级实时地尽快运行流水线。
好极了



