Thread 中讨论的其他器件:TDA4VH、 AM69A
工具/软件:
您好!
我正在尝试使用 edgeai-tidl-tools 的 11_00_08_00 版本在 TDA4VH 卡上部署模型。 但是、编译脚本会冻结、而不会向终端输出任何信息。 如果我使用的图像的宽度和高度是预期的一半,它会编译。 如果我将 ADD、MUL 和 Softmax 节点放在 deny_list 中、它也会进行编译、但这会使模型变得太慢。
附件中包含以下文件:
model.onnx:已将错误原因隔离到的模型的细分。downscaled_model.onnx:模型的相同细分、但在使用缩放图像时。model_configs.py:编译模型时使用的选项。onnxrt_ep.py:用于编译模型的脚本 — 脚本的修改版本。log.txt:在脚本冻结之前、脚本向终端输出的内容(使用 DEBUG_LEVEL 6 并导出 TIDLRT_DEBUG=1)。
我已设法将问题隔离到模型的附加部分、因为所有内容都按预期编译和运行、直至此部分结束。 要重现错误、首先设置 edgeai-tidl-tools 版本 11_00_08_00、然后按如下方式插入附加的文件:
model_configs.py -> edgeai-tidl-tools/examples/osrt_python/model_configs.py,onnxrt_ep.py -> edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py,model.onnx -> edgeai-tidl-tools/examples/osrt_python/ort/model.onnx,downscaled_model.onnx -> edgeai-tidl-tools/examples/osrt_python/ort/downscaled_model.onnx.
然后、onnxrt_ep.py -c -m model在 edgeai-tidl-tools/examples/osrt_python/ort/以下位置运行 python3:。 若要运行缩放图像的示例、请重命名 downscaled_model.onnx为 model.onnx.
由于模型在减小映像大小或将更少的节点卸载到 DSP 时进行编译、我们怀疑导致该问题的 DSP 可能存在一些内存限制、但我们没有专门知识来研究这一想法。 也许您可以帮助我们、或者向我们指明另一个方向? 如果您需要任何其他信息,请告知我们,我们将尽我们的能力提供这些信息。
此致
Olof
e2e.ti.com/.../downscaled_5F00_model.zip、 e2e.ti.com/.../onnxrt_5F00_ep.zip、 e2e.ti.com/.../model_5F00_configs.zip、e2e.ti.com/.../1033.model.zip、e2e.ti.com/.../3000.log.zip