我可以直接部署 darnet/超透镜 yolov2,3,4,5吗?如果它在 SK-Tda4Vm 上工作?
此致、
南都市
This thread has been locked.
If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.
您好!
目前、我们支持 Yolox 、提供了不同类型的"yolox_s_lite"、"yolox_tin_lite"、"yolox_nano_lite"、"yolox_pico_lite"、"yolox_femto_lite"。
除了列出的其他版本之外、我们目前还支持 YoloV5。
如果您正在尝试开箱即用的示例模型、则可能不会在 C7x-MMA 上将其卸载到完全加速、TIDL 支持的内核很少会在 ARM 内核上运行。
此致、
普拉蒂克
您好!
对于作为 TIDL 优化内核一部分受支持的层、将发生 TIDL 卸载。
不受支持的层将卸载到 ARM 内核(非优化流)
因此、对于任何在 TIDL 中支持所有运算符/内核的网络、都将以优化的方式运行。
我们建议您在此处查看支持的运营商列表: https://github.com/TexasInstruments/edgeai-tidl-tools/blob/master/docs/supported_ops_rts_versions.md 并将其与您尝试推断的任何型号进行比较。
此致、
普拉蒂克
如前所述、
对于任何您正在试验的神经网络
如果 TIDL 库支持所有运算符/内核、编译的网络图将卸载到 C7x-MMA (简单地说、它将在优化模式下运行)。
您可以在此处查看受支持操作员的列表:
我们建议在此处查看支持的运营商列表: https://github.com/TexasInstruments/edgeai-tidl-tools/blob/master/docs/supported_ops_rts_versions.md 并与您尝试推断的任何型号进行比较。
此致、
普拉蒂克