工具与软件:
我正在尝试在 SDK10中启动示例 edgeai gstreamer 应用、但我遇到了一个问题。 使用 https://www.ti.com/tool/PROCESSOR-SDK-AM68A 中的默认预编译映像时、 可以通过访问/opt/edgeai-gst-apps/apps_python 并使用 python3 app_edgeai.py ./configs/启动系统并尝试演示应用 .yaml、一切都按预期运行。
但是、当我构建准备好的 Docker (通过 docker_build.sh 在/opt/edgeai-get-apps/docker 中调用./Docker)、然后运行该 Docker 时、并非所有模型都能正常工作。 例如、我可以运行 TFL-CL-0000-mobileNetV1-mlperf、但不能运行 ONR-CL-6360-regNetx-200mf。 似乎问题在于所有使用 onnxruntime 启动的模型,与所有这些模型一样,我得到以下输出:
[docker] root@am68-sk:/opt/edgeai-gst-apps/apps_python python3 app_edgeai.py ../configs/image_classification.yaml
libtidl_onnxrt_EP 已加载0x154c95a0
分段故障(已转储内核)
对于 SDK 版本10.00和10.01、使用 apps_cpp 而不是 apps_python 时、我也观察到相同的行为。 是否有某种解决方法允许我从 Docker 启动 ONR 模型?