您好!
我们有以下要求:
a.捕获原始音频。
b.在 AAC 中对音频进行编码。
c.从摄像机捕捉高清视频。
D. 在 H264中编码视频。
e.以容器格式存储编码视频和音频。
f.将摄像头视频源从#C 传递 到视频分析(如车道偏离等)。
g.根据视频分析反馈发出音频警报。
我们计划实现以下用例:
1. Linux A15上的应用程序
2.从 A15侧使用 gstreamer 的音频捕获(A)+音频编码(B)
3.使用 M4端的 VisionSDK 插件进行视频捕获(C)+视频编码(D)
4.使用 gstreamer (E)使用 TS 多路复用器存储编码视频+音频数据–从 A15侧插入。
5.在(C)处使用 VisionSDK DUP 插件,并使用 VisionSDK 插件(F)进行视频分析
6.使用 gstreamer 音频播放(G)发出音频警告
我们有以下问题
1.您能否确认上述方法是否正常?
2. A15上是否可以有一个使用 VisionSDK 和 gstreamer 的 Linux 应用程序来减少开发工作量 ?
3. VisionSDK 不处理音频,因此我们使用 gstreamer 从 ARM A15侧进行音频捕获、渲染和 TS 复用。
谢谢、
Abhishek