This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] IWRL6432BOOST:重新训练&在 IWRL6432BOOST 上部署手势识别模型—添加新手势、需要详细的 E2E 工作流程(功能,ONNX→TVM→C,量化,部署)

Guru**** 2535150 points
Other Parts Discussed in Thread: IWRL6432BOOST

请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/sensors-group/sensors/f/sensors-forum/1566176/iwrl6432boost-retraining-deploying-gesture-recognition-model-on-iwrl6432boost-adding-new-gestures-need-detailed-e2e-workflow-features-onnx-tvm-c-quantization-deployment

器件型号:IWRL6432BOOST


工具/软件:

大家好、TI 团队和社区

我们目前正在与合作 IWRL6432BOOST 手势识别演示(xWRLx432 手势识别)。 默认演示效果良好并能识别

6 个手势的准确性很高。 集成商 添加其他手势 并将经过重新训练的模型部署回 IWRL6432BOOST。

我们已经:

  • 在硬件上成功运行官方手势识别演示。

  • 按照演示文档中的建议、通过 Industrial Visualizer/UART 收集了功能数据(演示提到:“可以保存通过 UART 提取的功能并将其用作新模型的训练数据“)。

  • 了解概要流程(见下图):1D FFT→特征提取→分类→后处理。

  • 计划的工作流程: 数据收集→列车模型 (PyTorch/TF)→导出 ONNX→TVM→C 代码生成→集成到演示→部署和测试中

但是、我们对详细的再培训和部署程序并不确定。 该文档仅在“再培训“下提供高级注释、但不提供完整的脚本或工作流。 我们希望获得详细的指导。

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好:  

    感谢您分享项目的背景信息以及您已经尝试过的内容。

    您分享的图来自我们的表面分类示例、与手势识别一样、它在后台使用机器学习模型。 对于表面分类、我们提供了您所注意到的完整再培训流程/程序。 然而,不幸的是,对于手势识别,这不是我们目前公开提供或能够在这个论坛上支持.

    因此、除了用户指南中关于再培训的注释所传达的内容之外、我不确定我是否可以提供帮助。 提取的特征为模型重新训练提供了一个起点、您已经发现可以使用工业可视化工 具(或可选的 mmWave Data Recorder)保存这些特征,我们开发的较新工具可能不直接用于手势数据收集,但这种工具可能更适合用于此目的)。 获得新数据集后、具体的模型架构、培训方法和实施详细信息将由您决定。  

    此致、

    Josh