python3 onnxrt_ep.py -c
/home/quest/t-i/edgeai-tidl-tools/examples/osrt_python/ort
可用的执行提供程序: ['CPUExecutionProvider']
运行1个模型-['yolov5s6_640_ti_lite_37p4_56p0']
Running_Model: yolov5s6_640_ti_lite_37p4_56p0
对 yolov5s6_640_ti_lite_37p4_56p0/yolov5s6_640_ti_lite_37p4_56p0.onnx 模型运行形状推理
回溯(最近的调用最后):
文件"onnxrt_ep.py"、第281行、位于
RUN_MODEL (model、mIdx)
文件"onnxrt_ep.py"、第185行、位于 RUN_MODEL
Sess = rt.InferenceSession (config['model_path"]、providers=EP_list、provider_options=[delegate_options、{}]、sess_options=so)
_init__中的文件/home/quest/.local/lib/python3.6/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第283行
self._create_infer_session (提供程序、提供程序选项)
在_create_inference_session 中、文件"/home/quest/.local/lib/python3.6/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py "、第300行
可用提供者)
check_and_normalize_prover_args 中的文件"/home/quest/.local/lib/python3.6/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py "第80行
SET_PROVIDER_OPTIONS (名称、选项)
SET_PROVIDER_OPTIONS 中的文件"/home/quest/.local/lib/python3.6/site-packages/onnxruntime/capi/onnxruntime_inference_collection.py、第54行
名称、"、".join (available_provider_names))
ValueError:指定的提供程序'TIDLCompilationProvider'不可用。 可用提供程序:'CPUExecutionProvider'