目前设计的板子是DM8127+FPGA,红外传感器由FPGA驱动,FPGA将红外传感器数据放在SDRAM中,指标为60 frame/s,320pixel*256pixel,现在想请教两个问题:1)如何利用SDRAM中的传感器数据建立link,并进行H264视频压缩;2)压缩后的数据如何通过DM8127的uart进行输出。
谢谢赐教!
This thread has been locked.
If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.
目前设计的板子是DM8127+FPGA,红外传感器由FPGA驱动,FPGA将红外传感器数据放在SDRAM中,指标为60 frame/s,320pixel*256pixel,现在想请教两个问题:1)如何利用SDRAM中的传感器数据建立link,并进行H264视频压缩;2)压缩后的数据如何通过DM8127的uart进行输出。
谢谢赐教!
你好,
请问红外的数据是8-bit一个像素么?FPGA输出给DM8127使用的是什么接口?如果是camera的并口,我建议你参考目前驱动里面支持的YUV sensor的驱动。
你好,
那你配置为YUV16bit采集,但你的后处理软件只使用14-bit。
另,你们的后端算法支持14-bit么?你们准备把14-bit数据转换为Y来黑白显示么?通常YUV的Y是8-bit。
后端的算法还没完成,可以修改支持14bit。我们的应用不包括display,H264压缩以后从串口输出给其他设备。也就是说没用到DM8127的网络传输功能,主要是因为我们以前的设计是基于FPGA+C6713,现在的FPGA+DM8127还得兼容以前的设计,然后再一步步改变
Huchong Li 说:H264压缩以后从串口输出给其他设备。
h264编码器支持的输入图像格式是YUV420sp,请确认你们的红外数据能转换成这种格式。
h264码流通常都是通过网口向外输出,请确认串口的速率可以支持你们的h264码流码率。
感谢重要提醒!因为红外传感器是自己研发的,所以数据格式可以根据需要调整;串口传输速率目前确实不知道能不能满足要求,实在不行就只能降低帧频。