This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] TDA4VE-Q1:在 PC 上推断.bin 模型后、得到的是量化的 edgeai 结果。 但结果板是不正确的,精度和回忆的结果降低了很多. 我们怎样才能找到原因呢?

Guru**** 2475415 points


请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/1463491/tda4ve-q1-edgeai-quantized-and-the-result-is-right-when-the-bin-model-infered-on-pc-but-the-result-in-board-is-not-right-the-precision-and-recall-of-the-result-decreased-a-lot-how-can-we-find-the-reason

器件型号:TDA4VE-Q1

工具与软件:

我们 在 edgeai 中量化了3dOD 模型烟雾 ,我们使用 edgeai   工具下的脚本"onnxrt_ep.py" 量化模型,并推断了 bin 模型。tensor_bit 为8。  我们将结果可视化, 它看起来很好。  但是,当我们 在 TDA4VME 板上运行时, 结果是不对的,我们对结果进行了可视化,我们很难在图片中找到3D 框,结果是可怕的。   

Wen i 再次量化模型,将量化模型设为 16位,我们在 PC 上运行 ti、结果也很好。 但当我们尝试在 TDA4VE 上运行 ti 时、它会 出错。   

我们如何找到原因并解决它?

我们的 edgeai 是 edgeai-tidl-tools-09_01_08_00、我们 在 TDA4VE 板上运行的 SDK 是   SDK09_01。任何细节都可以问我,如果你需要.

Int16模型推测错误  

Onnx 模型

即 int16和 int8 bin 模型

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好;

    感谢您提出问题并提供了模型信息。 我们将对此进行探讨、并与您联系。

    谢谢。此致

    文立