This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] AM68A:板载 FastBEV 型号部署

Guru**** 2448780 points


请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/1549948/am68a-fastbev-model-deployment-on-board

部件号:AM68A


工具/软件:

我使用 edgeai-benchmark 编译了 FastBEV 模型、并生成了一个 modelpackage 文件。 如何使用 edgeai-gst-apps 在电路板上运行该模型? 当前的 edgeai-gst-apps 代码是否支持 FastBEV 模型? 如果我要在主板上部署此 FastBEV 型号、应如何部署?

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好 Yue、

    假设您使用 OSRT 工具、则输出将为 edgeai-tidl-tools/model-artifacts/ 。  如果使用 TIDLRT 进行编译、则输出将放置在导入文件中指定的位置。   

    要在器件上运行它、请 从/opt/tidl_test.运行它  您将需要一个像下面这样的推理文件。

    inFileFormat = 0
    rawDataInElementType = 0
    inDataFormat = 1
    numFrames = 1
    netBinFile =“out/tidl_net.bin"</s>“
    ioConfigFile =“out/tidl_io_buff1.bin"</s>“
    inData =“../jet.bmp"</s>“
    outData =“out/tidl_out.bin"</s>“

    其中、黄色是模型工件的位置 (net.bin 和 io.bin)。  绿色是输入数据文件。

    若要在仍在/opt/tidl_test 中运行此驱动程序、请执行以下操作:

    /TI_DEVICE_a72_TEST_dl_algo_host_rt.out

    此致、

    Chris