This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] IWRL6432BOOST:在 IWRL6432BOOST 上部署 CNN/ANN(不带主机 PC 的边缘 AI)

Guru**** 2540720 points
Other Parts Discussed in Thread: MMWAVE-L-SDK, IWRL6432, IWRL6432BOOST, IWRL6844

请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/sensors-group/sensors/f/sensors-forum/1545098/iwrl6432boost-deploying-cnn-ann-on-iwrl6432boost-edge-ai-without-host-pc

器件型号:IWRL6432BOOST
主题中讨论的其他器件:MMWAVE-L-SDK 、IWRL6432、 IWRL6844

工具/软件:

尊敬的 TI 团队:

我们正在努力直接在上部署 CNN 或 Ann 模型 IWRL6432BOOST 在设备本身上执行所有推理、无需依赖主机 PC、也无需卸载雷达数据进行外部分析。 我们已经研究了 MMWAVE-L-SDK 并了解 TI 提供的信号处理和分类流程(例如微多普勒 DPU +分类器)。

现在、我们正在尝试直接在 IWRL6432BOOST 器件上实现并运行自定义神经网络模型(例如 CNN 或 MLP)。 我们想问:

  1. 是否可以在 IWRL6432BOOST 的 Cortex-M4F 内核上运行 CNN 或 ANN 推理?
  2. 是否有任何受支持的方法、例如 CMSIS-NN、用于微控制器的 TensorFlow Lite 或其他库?
  3. TI 是否提供任何建议的方法来将经过训练的 ML 模型部署到此平台上?
    例如、将模型转换为嵌入式 C 代码?
  4. 是否可以替换当前分类器 DPU、或者是否可以在特征提取阶段后插入自定义神经网络?
  5. 是否有任何开发人员已在 IWRL6432BOOST 上成功实现了神经网络推理的现有工程或示例?
  6. 对于该芯片上的实时 CNN 推理、建议的资源限制或模型大小是什么?
    (例如,内存约束,每个输入的平均推理时间)

我们非常有兴趣直接在该毫米波雷达芯片上实现真正的低成本、低功耗边缘 AI。 如果 TI 针对此用例提供任何文档、工具或建议的工作流程、我们将非常感谢您的支持。 谢谢!

此致、

An-i Yu

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    你好、我是 Yu、

    1. 是否可以在 IWRL6432BOOST 的 Cortex-M4F 内核上运行 CNN 或 ANN 推理?
      是的

    2. 是否有任何受支持的方法、例如 CMSIS-NN、用于微控制器的 TensorFlow Lite 或其他库?
      我们的所有示例都使用 MATLAB 或 PyTorch

    3. TI 是否提供任何建议的方法来将经过训练的 ML 模型部署到此平台上?
      例如、将模型转换为嵌入式 C 代码?
      是的、 Jupyter 笔记本方法 或 Edge AI Studio(通过源代码)中的表面分类示例使用 TI NNC 将从 PyTorch 流生成的 ONNX 模型编译为针对 Cortex-M4 优化的 C 代码

    4. 是否可以替换当前分类器 DPU、或者是否可以在特征提取阶段后插入自定义神经网络?
      是的、流程的每个部分都可以关闭。 如果使用相同的设备和相同的数据集、则可以根据从数据集提取的特征和要使用的模型类型执行任何所需的操作。 请注意、如果模型大小适合 IWRL6432 的存储器大小、我们的当前工具无法通知用户。

    5. 是否有任何开发人员已在 IWRL6432BOOST 上成功实现了神经网络推理的现有工程或示例?
      我已经提到了表面分类、因为它目前是开源 PyTorch 方法中唯一的一种、但我们也在手势和非人目标分类示例中使用了 ML 片上。

    6. 对于该芯片上的实时 CNN 推理、建议的资源限制或模型大小是什么?
      (例如,内存约束,每个输入的平均推理时间)
      借助 IWRL6432、您实际上会比推理时间限制更频繁地运行到存储器限制。 IWRL6844 等芯片更适合具有 1.2MB 内存的 ML 应用、但仍然非常新、并且目前没有相关示例。 但是、该流程将是相同的、仅针对 6844 的 Cortex-R5 编译

    此致、

    Pedrorm

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    非常感谢您的详细说明和说明。

    这对于我们了解 IWRL6432BOOST 上 CNN/ANN 的实际部署流程非常有帮助。

    此外、我们感谢您的指导以及对表面分类、手势和人类/非人类示例的参考。 这为我们在器件上实现自己的模型提供了一个可靠的起点。

    再次感谢您的支持!

    此致、

    An-i Yu