我目前正在用onnx_main.cpp推理自己的模型,但推理结果是错的,排查原因时发现onnx_main.cpp调用yaml文件,里面的模型路径指向onnx格式的模型而不是编译生成的bin格式的模型,请问有没有调用生成的文件如bin文件这块的相关资料,和调用过程相关的,以及请问下调用生成的bin格式模型这部分代码在哪里?
This thread has been locked.
If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.
您好,我们已收到您的问题并升级到英文论坛寻求帮助,链接如下,如有答复将尽快回复您:
e2e.ti.com/.../sk-tda4vm-the-inference-framework-in-the-c-version-of-the-inference-code
您好,
TI有使用我们的 Edge AI SDK 中工具生成的模型和模型工件的示例应用,您可以看下:
关于与模型相关的文档,有一个链接到可用模型培训/编译工具的页面,供用户参考:
在模型编译工具的文本中,.onnx 文件是转换为在 ONNX 运行时运行的模型,而.bin 文件是运行时用于将模型委派给硬件加速器的模型工件文件。 以上的第二个链接中有关于如何编译模型以生成模型工件文件的详细信息。