请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
我们正在处理它、这是当前系统:
http://processors.wiki.ti.com/index.php/Small_AI_server
其目标是将 c6678和 x86 Atom CPU 组合在35至75W 的小型 ITX 外形中。 Linux 和 Python 在 Atom 上运行、6678执行 H.264解码、计算机视觉(OpenCV)和推理加速。 在 Atom 和 c66x 端之间、有足够的内存(每个 c66x CPU 2 GB)可供压缩模型运行。
这种方法的一个主要优势是能够让深度学习模型接受培训并在云中工作、然后快速/轻松地将其迁移到嵌入式系统。 这是可能的、因为两种情况下都使用相同的 c6678 PCIe 卡、因此将一个或多个卡直接放入开发和云服务器中。 事实上、自2013年以来、我们一直为 TI c66x CPU 提供"云选项"、 包括虚拟化服务器、KVM 支持、DPDK 支持和 OpenMP 支持。
从我到目前为止看到的 AI 客户来看、"云优先、嵌入式第二"开发路径是边缘/嵌入式产品中深度学习推理的默认路径。
Jeff
Signalogic