工具/软件:
尊敬的 TI 团队:
目前、我已在代码中启用运行时校准功能。 校准模块掩码设置为:0xF10。 我知道此配置对应于启用所有运行时校准。
测试方法是将雷达放置在温度变化范围从–40℃ 到 85℃ 的环境试验箱中、然后返回到–40℃。 然后持续监测前方 1.5 米处的 CR、最后提取此 CR 的相位和功率数据。
测试结果如下。

Y 轴表示功率(以 dB 为单位)、X 轴表示雷达帧数。这两张图片显示了功率的测试结果。 左图表示 run_time_cal 为启用状态、而右图显示 run_time_cal 为禁用状态。 在我看来,这些测试结果符合我的期望。
但是、在同一时间段的相位数据中、我认为校准效应没有得到反映。

Y 轴表示每个通道之间的相位相对误差(图中的顶黄线段表示雷达 TX 温度、而其余 16 个线段表示每个通道之间的相对相位误差。)、单位为度。 X 轴表示雷达帧数。
这两张图片显示了电源的测试结果。 左图表示 run_time_cal 为启用状态、而右图显示 run_time_cal 为禁用状态。
比较这两个图时、除了左图中红色框标记的存在相位变化的区域(表示已执行校准)外、在其他数据中没有明显优势。 相对误差保持非常大。
此外、启用 RUN_TIME_cal 后、附加所有通道设置的绝对相位图像。

可以观察到、每个通道中的相位变化并不一致。
因此、对于 PHASE 的 run_time_cal 函数、这是芯片性能的正常结果、还是我的配置有问题?
此致
Minxi

