工具/软件:
大家好、我正在尝试使用 Edge ai-tools 库进行模型编译。 我使用的是 Ubuntu 22.04 WSL 环境和 10.00.00.08 TI 库版本。
对于安装、我使用了以下命令、从完全干净的操作系统开始:
mkdir 工程
CD 项目
python -m venv .TI_env
source .TI_env/bin/activate
Git 克隆 https://github.com/TexasInstruments/edgeai-tidl-tools.git
CD edgeai-tidl-tools/
Git 结账 10_00_08_00
导出 SOC=am68pa
资料来源:setup.sh
安装完成、没有错误。
为了测试安装、我运行了示例 edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py。
运行 会显示以下错误:
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。
完整响应为:
可用的执行提供程序:['TIDLExecutionProvider '、'TIDLCompilationProvider '、'CPUExecutionProvider ']
运行 3 个型号-[“cl-ort-resnet18-v1",“,"od-ort-ssd-lite_mobilenetv2_FPN"、"od-ort-ssd-lite_mobilenetv2_FPN",“,"s-ort-deeplabv3lite_mobilenetv2"]“"s-ort-deeplabv3lite_mobilenetv2"]</s>、 ““
Running_Model : cl-ort-resnet18-v1.
Running_Model:正在下载./../../models/public/resnet18_opset9.onnx
OD-ort-ssd-lite_mobilenetv2_FPn
正在下载./../../models/public/ssd-lite_mobilenetv2_fpn.onnx
Running_Model : ss-ort-deeplabv3lite_mobilenetv2.
正在下载./../../models/public/deeplabv3lite_mobilenetv2.onnx
转换后的模型有效!
正在下载./../../models/public/ssd-lite_mobilenetv2_fpn.prototxt
加载了 libtidl_onnxrt_EP 0x55acc0397b40
处理过程 2:
回溯(最近一次呼叫):
在_sbootstrap 中输入/usr/lib/python3.10/multiprocessing/process.py 第 314 行
self.run()
文件“/usr/lib/python3.10/multiprocessing/process.py、第 108 行、运行中
self._target (* self._args、** self._kwargs)
文件“run_model"中“中的/home/gauss/projects/edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py 第 334 行
SESS = RT.ConferenceSession(
文件“/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 362 行、位于__init__
self._create_immussion_session(提供程序,提供程序选项,禁用优化器)
/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 410 行、位于_create_emption_session 中
sess.initialize_session(providers、provider_options、disabled_optimizers)
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。
转换后的模型有效!
加载了 libtidl_onnxrt_EP 0x55acc04f3f40
工艺流程 3:
回溯(最近一次呼叫):
在_sbootstrap 中输入/usr/lib/python3.10/multiprocessing/process.py 第 314 行
self.run()
文件“/usr/lib/python3.10/multiprocessing/process.py、第 108 行、运行中
self._target (* self._args、** self._kwargs)
文件“run_model"中“中的/home/gauss/projects/edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py 第 334 行
SESS = RT.ConferenceSession(
文件“/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 362 行、位于__init__
self._create_immussion_session(提供程序,提供程序选项,禁用优化器)
/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 410 行、位于_create_emption_session 中
sess.initialize_session(providers、provider_options、disabled_optimizers)
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。
转换后的模型有效!
加载了 libtidl_onnxrt_EP 0x55acbf31f1e0
处理过程 1:
回溯(最近一次呼叫):
在_sbootstrap 中输入/usr/lib/python3.10/multiprocessing/process.py 第 314 行
self.run()
文件“/usr/lib/python3.10/multiprocessing/process.py、第 108 行、运行中
self._target (* self._args、** self._kwargs)
文件“run_model"中“中的/home/gauss/projects/edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py 第 334 行
SESS = RT.ConferenceSession(
文件“/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 362 行、位于__init__
self._create_immussion_session(提供程序,提供程序选项,禁用优化器)
/home/gauss/projects/.ti_env/lib/python3.10/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第 410 行、位于_create_emption_session 中
sess.initialize_session(providers、provider_options、disabled_optimizers)
RuntimeError:/root/onnxruntime/onnxruntime/core/providers/tidl/tidl_execution_provider.cc:94 onnxruntime:::TidlExecutionProvider::TidlExecutionProvider (const onnxruntime::TidlExecutionProviderInfo&) status == true 为 false。
是否有办法解决?