工具/软件:
我使用 edgeai-benchmark 编译了 FastBEV 模型、并生成了一个 modelpackage 文件。 如何使用 edgeai-gst-apps 在电路板上运行该模型? 当前的 edgeai-gst-apps 代码是否支持 FastBEV 模型? 如果我要在主板上部署此 FastBEV 型号、应如何部署?
This thread has been locked.
If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.
工具/软件:
我使用 edgeai-benchmark 编译了 FastBEV 模型、并生成了一个 modelpackage 文件。 如何使用 edgeai-gst-apps 在电路板上运行该模型? 当前的 edgeai-gst-apps 代码是否支持 FastBEV 模型? 如果我要在主板上部署此 FastBEV 型号、应如何部署?
您好 Yue、
假设您使用 OSRT 工具、则输出将为 edgeai-tidl-tools/model-artifacts/ 。 如果使用 TIDLRT 进行编译、则输出将放置在导入文件中指定的位置。
要在器件上运行它、请 从/opt/tidl_test.运行它 您将需要一个像下面这样的推理文件。
inFileFormat = 0
rawDataInElementType = 0
inDataFormat = 1
numFrames = 1
netBinFile =“out/tidl_net.bin"</s>“
ioConfigFile =“out/tidl_io_buff1.bin"</s>“
inData =“../jet.bmp"</s>“
outData =“out/tidl_out.bin"</s>“
其中、黄色是模型工件的位置 (net.bin 和 io.bin)。 绿色是输入数据文件。
若要在仍在/opt/tidl_test 中运行此驱动程序、请执行以下操作:
/TI_DEVICE_a72_TEST_dl_algo_host_rt.out:
此致、
Chris