我想讨论并了解在低功耗应用中宽带/小数据包尺寸情况下 CC1101的数据包丢失因素。 观察到的数据包丢失率为5%至13%
用于 FCC >500kHz BW 标准的宽带宽
用于节能的4字节数据包
//数据速率250kbaud = 500kbps - 4FSK、+/-190KHz 偏差、 Rx BW 650KHz
// 16位同步字,FEC 关闭,数据自动交换,固定数据包长度模式,CRC 打开
// 传感器 Tx:4B 前导码+ 2b 同步= 6*8*4US= 192us (TX 作为2-FSK)
// 4B 有效载荷+ 2b CRC = 6*8*2us= 96us (4-FSK)
// ---- >总计288us
测得的数据包丢失示例:
5649数据包(288us)以每秒一次的速度发送到5个不同距离的不同接收器。 按距离 Tx 的距离顺序排列的数据包损耗:4.9%(-23dBm)、13%、6.9%、5.8%、6.8%(-55dBm)
观察结果:
假设由于使用宽带宽、频率精度不是数据包丢失的因素。
2、观察到包丢失与接收到的信号强度无关。 因此与干扰和噪声无关。
3.在带有1个 Tx 和5个 Rx 接收器的设置中,数据包丢失会随时间的推移在接收器之间传播,因此假设与发送器无关。 还显示了与干扰无关:当较高 RSSI 接收器错过数据包时,可能会接收到低电平。
4.除非设置过高,否则 PQT 对数据包丢失的影响很小,这会降低数据包丢失。
前导码长度的实验不会显著影响数据包丢失。 (使用4字节作为建议的第37页数据表)
6.同步字从16/16更改为15/16似乎不会影响数据包丢失率。
问题:
1.根据此使用标准,还有哪些其他因素会影响数据包丢失?
2.预计会有哪些数据包丢失? 我假设信号良好时、数据包丢失率应小于1%。
3.我假设数据包可能会丢失,因为发现错误的同步字,然后被错误的 CRC 和 FIFO 自动清空拒绝。 从而丢失了真正的数据包? 我的计算结果显示、错误同步字的概率为每2秒一次。 添加了8位网络地址和16位 CRC 后、我的计算结果是每2年一次的错误数据包。 但是、FIFO 必须平均每2秒清除1个错误的 CRC 数据包(基于导致同步字匹配的噪声)。 但在2秒的间隔内、这仍然小于300us。 这仅是0.015%的时间、人们认为这不会表示非常高的丢包率。
欢迎您提出想法、意见和建议