目前我在做的工作是,利用AM5728的ARM端读取视频流,获取图像像素并存入共享内存中,利用IPC方法调用单个DSP核对图像像素进行处理,再利用ARM端把处理好的图像显示出来。现在的问题如下:
1. 利用messageq进行数组头部传递,测试得知每次从开始传送数据->处理数据->返回数据,所用时间平均是0.25s,这样会导致视频FPS很低,算法是非常简单的操作,在arm上单独运行能够达到大概30帧每秒,请问是messageq本身传送数据时延大的原因吗?
2. 在论坛上看到DSP调用的几种办法,我现在使用的是IPC,还有一种办法是利用opencl。请问opencl有读取视频帧、显示图像的函数吗,能否读取图像的像素值呢?
3. 如果以上方法不合适,有没有其他的办法,能够利用DSP的数据处理能力对视频像素进行处理呢?