工具/软件:
尊敬的 Santosh Jha Nikhil Dasan Tarun Mukesh Puvada:
我正在开发 J784S4定制板、该定制板目前从 Linux 内核(Cortex-A72)触发模型推理、并使用 TIDL (TI 深度学习)在 C7x_1内核上执行模型推理。 我想澄清一下如何从 A72内核到 C7x_1内核初始化模型推理。
我知道此过程可能涉及处理器间通信(IPC)、但我不清楚模型的触发机制。 具体而言、我正在调查位于./Firmware/SDKs/ti-processor-sdk-09_02_00/ti-processor-sdk-rtos-j784s4-evm-09_02_00_05/vision_apps/out/J784S4/A72/LINUX/release/libtivision_apps.so.9.2.0的共享目标文件是否负责促进此模型触发。 但是、我无法识别编译到此库中的源文件、也无法理解它是如何启动推理过程的。
我们使用 Python 脚本 tflrt_delegate.py 来运行推理、我认为它利用 TFLite 运行时和 TI 的代理人来卸载到 C7x_1内核。
您能否提供以下方面的详细指导:
- 在该系统中、模型推理是如何从 Linux A72内核触发到 C7x_1内核的?
- libtivision_apps.so.9.2.0库在此过程中发挥着什么作用?
- Processor SDK (版本09_02_00_05)中是否有详细说明 IPC 通信和模型卸载机制的特定源文件或文档?
- tflrt_delegate.py 脚本如何与底层系统交互以促进 C7x_1内核上的推理?
- TIOVX 内核在模型推理方面的作用/责任是什么?它们是否针对 RTOS 实施?
任何见解、代码示例或对相关文档的引用都将非常感谢、以帮助我更好地了解 J784S4平台上的推理工作流程。
感谢您的支持。
尽快等待您的答复
提前感谢
Swedha R