工具/软件:
我尝试使用通过修改 https://github.com/TexasInstruments/edgeai-tidl-tools/tree/master/examples/osrt_cpp/ort 上的示例而构建的程序运行自定义 ONNX 模型。
这种情况下可以正常运行且没有加速(“-a 0“)、但当使用“-a 1“运行时、会引发以下异常:
“
抛出“ORT::exception“实例后调用的终止
what(): /root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。
已中止(核心已转储)
“
这也是我在 x86 中运行此选项时遇到的相同行为(我想我没有提供标志,它只是默认为 1)。
我还尝试在运行应用程序之前导出此变量: export TIDL_RT_ONNX_VARDIM=1
我还能够使用具有加速功能的 Python API 运行该模型。