This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] TDA4VM:RuntimeError tidl_execution_provider:status == true was false。

Guru**** 2484615 points


请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/1554477/tda4vm-runtimeerror-tidl_execution_provider-status-true-was-false

器件型号:TDA4VM


工具/软件:

大家好、我正在尝试使用 Edge ai-tools 库进行模型编译。 我使用的是 Ubuntu 22.04 WSL 环境和  10.00.00.08 TI 库版本。  
对于安装、我使用了以下命令、从完全干净的操作系统开始:
mkdir 工程
CD 项目
python -m venv .TI_env
source 
.TI_env/bin/activate
Git 克隆 https://github.com/TexasInstruments/edgeai-tidl-tools.git
CD edgeai-tidl-tools/
Git 结账 10_00_08_00
导出 SOC=am68pa
资料来源:setup.sh

安装完成、没有错误。
为了测试安装、我运行了示例 edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py。

运行 会显示以下错误:
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。

完整响应为:

可用的执行提供程序:['TIDLExecutionProvider '、'TIDLCompilationProvider '、'CPUExecutionProvider ']

运行 3 个型号-[“cl-ort-resnet18-v1",“,"od-ort-ssd-lite_mobilenetv2_FPN"、"od-ort-ssd-lite_mobilenetv2_FPN",“,"s-ort-deeplabv3lite_mobilenetv2"]“"s-ort-deeplabv3lite_mobilenetv2"]</s>、 ““


Running_Model : cl-ort-resnet18-v1.


Running_Model:正在下载./../../models/public/resnet18_opset9.onnx
OD-ort-ssd-lite_mobilenetv2_FPn

正在下载./../../models/public/ssd-lite_mobilenetv2_fpn.onnx

Running_Model : ss-ort-deeplabv3lite_mobilenetv2.

正在下载./../../models/public/deeplabv3lite_mobilenetv2.onnx
转换后的模型有效!
正在下载./../../models/public/ssd-lite_mobilenetv2_fpn.prototxt
加载了 libtidl_onnxrt_EP 0x55acc0397b40
处理过程 2:
回溯(最近一次呼叫):
在_sbootstrap 中输入/usr/lib/python3.10/multiprocessing/process.py 第 314 行
self.run()
文件“/usr/lib/python3.10/multiprocessing/process.py、第 108 行、运行中
self._target (* self._args、** self._kwargs)
文件“run_model"中“中的/home/gauss/projects/edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py 第 334 行
SESS = RT.ConferenceSession(
文件“/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 362 行、位于__init__
self._create_immussion_session(提供程序,提供程序选项,禁用优化器)
/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 410 行、位于_create_emption_session 中
sess.initialize_session(providers、provider_options、disabled_optimizers)
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。

转换后的模型有效!
加载了 libtidl_onnxrt_EP 0x55acc04f3f40
工艺流程 3:
回溯(最近一次呼叫):
在_sbootstrap 中输入/usr/lib/python3.10/multiprocessing/process.py 第 314 行
self.run()
文件“/usr/lib/python3.10/multiprocessing/process.py、第 108 行、运行中
self._target (* self._args、** self._kwargs)
文件“run_model"中“中的/home/gauss/projects/edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py 第 334 行
SESS = RT.ConferenceSession(
文件“/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 362 行、位于__init__
self._create_immussion_session(提供程序,提供程序选项,禁用优化器)
/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 410 行、位于_create_emption_session 中
sess.initialize_session(providers、provider_options、disabled_optimizers)
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。

转换后的模型有效!
加载了 libtidl_onnxrt_EP 0x55acbf31f1e0
处理过程 1:
回溯(最近一次呼叫):
在_sbootstrap 中输入/usr/lib/python3.10/multiprocessing/process.py 第 314 行
self.run()
文件“/usr/lib/python3.10/multiprocessing/process.py、第 108 行、运行中
self._target (* self._args、** self._kwargs)
文件“run_model"中“中的/home/gauss/projects/edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py 第 334 行
SESS = RT.ConferenceSession(
文件“/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 362 行、位于__init__
self._create_immussion_session(提供程序,提供程序选项,禁用优化器)
/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 410 行、位于_create_emption_session 中
sess.initialize_session(providers、provider_options、disabled_optimizers)
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。

是否有办法解决?

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好;

    感谢您提问。  

    这看起来像是一个与环境相关的问题。  

    TI 强烈建议使用 Docker 环境。

    以下是在 TIDL 中使用 Docker 的链接

    https://github.com/TexasInstruments/edgeai-tidl-tools/blob/master/docs/advanced_setup.md#docker-based-setup-for-x86_pc

    为了便于入门、我还创建了以下分步说明。   

    1.克隆 Github 存储库并结账相应的 TIDL/SDK 版本

    User@PC:~$ git clone github.com/.../edgeai-tidl-tools.git

    2.签出您要使用的版本
    用户@PC:~/edgeai-tidl-tools$ git checkout // git checkout 10_01_04_00

    3. Docker 一次性设置:

    用户@PC:~/edgeai-tidl-tools$ source ./scripts/docker/setup_docker.sh

    4.构建 Docker 映像:
    用户@PC:~/edgeai-tidl-tools$ source ./scripts/docker/build_docker.sh

    5.运行 Docker 映像:

    用户@PC:~/edgeai-tidl-tools$ source ./scripts/docker/run_docker.sh


    sudo Docker run -w /home/root -it --rm --shm-size=4096m -v /shared:/shared --mount source=$(pwd)、target=/home/root、type=bind edgeai_tidl_tools_x86_ubuntu_22


    6.运行 Docker 容器后,运行安装脚本:

    root@container:/home/root export SOC=
    root@container:/home/root export TIDL_TOOLS_TYPE=
    root@container:/home/root source ./ setup.sh

    设置完成后、您可以按照此链接中的示例验证 Docker 设置。

    https://github.com/TexasInstruments/edgeai-tidl-tools

    最好的考虑

    Wen Li