请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
器件型号:IWRL6432BOOST主题中讨论的其他器件:MMWAVE-L-SDK 、IWRL6432、 IWRL6844
工具/软件:
尊敬的 TI 团队:
我们正在努力直接在上部署 CNN 或 Ann 模型 IWRL6432BOOST 在设备本身上执行所有推理、无需依赖主机 PC、也无需卸载雷达数据进行外部分析。 我们已经研究了 MMWAVE-L-SDK 并了解 TI 提供的信号处理和分类流程(例如微多普勒 DPU +分类器)。
现在、我们正在尝试直接在 IWRL6432BOOST 器件上实现并运行自定义神经网络模型(例如 CNN 或 MLP)。 我们想问:
- 是否可以在 IWRL6432BOOST 的 Cortex-M4F 内核上运行 CNN 或 ANN 推理?
- 是否有任何受支持的方法、例如 CMSIS-NN、用于微控制器的 TensorFlow Lite 或其他库?
- TI 是否提供任何建议的方法来将经过训练的 ML 模型部署到此平台上?
例如、将模型转换为嵌入式 C 代码? - 是否可以替换当前分类器 DPU、或者是否可以在特征提取阶段后插入自定义神经网络?
- 是否有任何开发人员已在 IWRL6432BOOST 上成功实现了神经网络推理的现有工程或示例?
- 对于该芯片上的实时 CNN 推理、建议的资源限制或模型大小是什么?
(例如,内存约束,每个输入的平均推理时间)
我们非常有兴趣直接在该毫米波雷达芯片上实现真正的低成本、低功耗边缘 AI。 如果 TI 针对此用例提供任何文档、工具或建议的工作流程、我们将非常感谢您的支持。 谢谢!
此致、
An-i Yu