最近在做一个项目,设计到了一点频谱的东西,又不小心涉及到了激光雷达,于是这里学习时,做个笔记记录,感兴趣的朋友可以看看。
1. 激光雷达(LiDAR):像用一支“极细的铅笔”描边
- 它怎么“看”:激光雷达会射出几百万束比头发丝还细的激光,像一支超级快的铅笔,对物体表面进行密集的、逐点的扫描。
- 它“看”到什么:就像你用铅笔描一个水杯,能画出它完整的、连续的轮廓和表面。结果是一张密密麻麻的、精确的3D素描图,连杯把手上的弧度都一清二楚。
- 对应到技术:这就是“分辨率高、点云密集”。它直接描绘物体的形状。
2. 毫米波雷达:像用“手电筒”找反光点
- 它怎么“看”:毫米波雷达发射的是一束锥形的波,更像在黑暗里打开一个小手电筒去照物体。它不是去扫描表面,而是在捕捉物体上最闪亮的反光点。
- 它“看”到什么:你用手电筒照一辆停在路边的车,你不会看到整个车身。你只会看到几个特别亮的光斑:车牌、车标、轮毂、后视镜的边角。因为只有这些有棱角、金属材质的“高光点”才会把光强烈地反射回你眼睛。
- 它“看不到”什么:平坦的车门、玻璃、保险杠这些光滑地方,光会“滑”到别处去,你几乎看不到反射。所以,你无法通过这几个光斑描绘出车的完整形状。
这就是毫米波雷达“点云稀疏、分辨率低”的通俗解释:
- “分辨率低”= 你的“手电筒”光斑太散了(波束宽),如果两辆车离得很近,它们的高光点会混成一团,你分不清是几辆车。
- “点云稀疏”= 你只能看到少数几个离散的“高光点”,而不是物体全部的表面。就像用五六个亮点去代表一整辆车,信息量太少了。
一句话总结它们的根本区别:
- 激光雷达是在问:“物体的表面在哪里?”(测绘几何形状)
- 毫米波雷达是在问:“哪里有一个能强烈反射我信号的亮点?”(探测“高光”目标)
所以,毫米波雷达的“视力”天生就是模糊的、不完整的,它擅长告诉你“前面有东西,速度很快”,但不擅长告诉你“那东西长得具体是什么样”。这就是它在做精细3D感知(比如识别行人手势、判断障碍物精确形状)时的核心难点。
现在再来看看为什么分辨率低
我们用“手电筒”这个比喻继续深挖,把“分辨率低”这件事彻底讲透。
“分辨率低”,说白了就是“看得不够清楚、分得不够细”。这主要在两个维度上出问题:分不清谁是谁(角度)和分不清远和近(距离)。而问题的根源,都藏在物理定律和现实工程里。
1. 为什么“分不清谁是谁”? —— 角分辨率低,波束太宽
想象你站在停车场,要用手电筒在远处一排车里,找到你自己的车。
- 你的“手电筒光束”就是雷达的“波束”。
- 如果你的手电筒光斑又大又散(相当于雷达波束宽),一照过去,把旁边两三辆车都罩进去了。你只知道那片亮光里有车,但分不清到底是哪一辆是你的。这叫角分辨率低。
那么,什么决定了你“手电筒”光斑的大小(波束宽窄)呢?两个东西:
光本身的波长(核心物理定律)
- 毫米波雷达用的是无线电波,波长是毫米级的(比如4毫米)。
- 激光雷达用的是光波,波长是纳米级的(0.001毫米都不到)。
- 物理定律(瑞利判据)决定了:在“手电筒”(天线)大小固定的情况下,波长越长,光斑就越散,看东西就越模糊。就像你用普通手电和波长极短的激光笔相比,激光笔的光点要细得多。
- 所以,毫米波波长“长”,是它天生“眼神不好”、看东西模糊的根本物理原因。
手电筒的口径大小(工程现实限制)
- 如果你想要手电筒的光斑变细,理论上可以把“手电筒”的口径做得巨大,就像探照灯一样。这样发出的光束就会很集中、很细。
- 但现实是,汽车前脸、后视镜上留给雷达安装的空间很小,不可能塞下一个巨大的“手电筒”。所以,雷达的天线尺寸是被严格限制的。
总结一下:
毫米波雷达的波长本来就长(先天不足),天线尺寸又做不大(后天受限),这两个因素相乘,就决定了它的“光束”必然很宽。一束宽波束打出去,前方角度稍微不同的两个物体(比如相邻的两辆车)的回波就混在了一起,雷达就“傻傻分不清楚”,以为是一个大物体。
2. 为什么“分不清远和近”? —— 距离分辨率受带宽限制
再想象一个场景:你开车跟着一辆大卡车,前面有个低矮的桥洞。你想知道你的车是离卡车近,还是离桥洞近。
- 距离分辨率,就是雷达区分“卡车”和“更远的桥洞”的能力。
- 如果雷达分辨率不高,它可能会把“卡车尾”和“桥洞”这两个距离很近的目标,合并成一个又大又长的模糊影子,让你无法判断。
那么,什么决定了雷达“分辨远近”的能力呢?
- 信号带宽。你可以把它理解为雷达发出的“声音”的音调变化范围。
- 雷达会发出一段频率变化的波。带宽越宽,这段“音调”的变化就越剧烈、越丰富。
- 原理很简单:不同距离的目标,反射回来的“音调”延迟不同。雷达通过分析这个“跑调”的程度来计算距离。带宽越宽,你对“跑调”的测量就越精细,就越能分辨出微小的时间差,从而区分出两个距离很近的目标。
- 问题来了:要获得很高的距离分辨率(比如4厘米),就需要非常非常宽的带宽(约4GHz)。虽然毫米波频段有这么大的空间,但要造出能稳定处理这么宽带宽信号的芯片和天线,成本和技术难度会急剧上升。这又是一个工程现实对性能的限制。
现代技术如何补救?—— “多联手电筒”和“智能算法”
既然单个“手电筒”不给力,工程师们想出了聪明的办法:
用一堆小手电筒合成一个“虚拟大手电筒”(MIMO与虚拟孔径)
- 与其费力做一个巨大的天线,不如在允许的尺寸内,密密麻麻排列几十个小的收发单元。
- 通过精密的时序控制,让这些小单元协同工作,等效于一个尺寸巨大的“虚拟手电筒”。这样,就能在物理尺寸不变的情况下,极大地“收窄”波束,把角分辨率从几度提升到一度以内,看得清楚多了。这就是4D成像雷达的核心技术。
用“听声辨位”的算法来猜(超分辨率算法)
- 即使硬件接收到的信号是模糊的,但通过先进的数学算法(如MUSIC, 压缩感知),可以“猜”出比硬件理论极限更多的细节。就像你听到几个模糊的回声,但结合经验,能判断出大概有几个声源、在哪个方向。
终极结论:
毫米波雷达的“分辨率低”,是其较长的工作波长与有限的天线尺寸/系统带宽之间矛盾的直接结果,是物理定律和工程现实共同划定的性能天花板。现代技术(如4D成像雷达)通过各种巧妙的“组合拳”和“软件算法”,正在奋力将性能推向这个天花板的极限,但它永远无法像激光雷达(波长极短)那样实现“天生高清”。
雷达会发出一段频率变化的波。带宽越宽,这段“音调”的变化就越剧烈、越丰富。为啥?
这是理解雷达如何“测距”的关键。我们继续用“音调”的比喻,把它拆开揉碎,讲清楚背后的逻辑。
一句话概括核心思想:带宽越宽,雷达用来测量距离的“尺子”刻度就越密,量得就越准。
1. 先把“音调”和“测距”的原理讲清楚
想象一下这个场景:
- 你(雷达)站在山顶,面对山谷唱歌。
- 你唱的歌很特别:你不是一直唱一个调,而是从一个很低的音调开始,用固定的速度,连续不断地升高音调(比如从男低音一路唱到女高音)。这个过程,就叫做**“线性调频”。你发出的这个频率连续变化的声波,就是雷达发出的“调频连续波”**。
- 山谷对面有座山,它会把你的歌声(声波)反射回来,形成回声。
关键点来了:
- 这个回声传回你耳朵需要时间。这个时间,就等于声音飞到对面山再飞回来的时间,所以它直接代表了距离。
- 当回声回到你耳朵时,你的嘴巴在唱什么?由于你的音调在不停升高,当回声回来时,你嘴巴正在唱的音调,已经比你当初发出这个回声时的音调要高了。
所以,在同一时刻,你耳朵里听到的回声的音调(旧的、低的),和你嘴巴正在唱的音调(新的、高的),是两个不同的音调!
这个“音调差”是多大呢?
- 目标离你越远,回声返回的时间就越长,在这段时间里你的音调就爬升得越多。所以,“音调差”就越大。
- 目标离你越近,回声回来得越快,音调差就越小。
雷达正是通过精确测量这个“音调差”(频率差),然后根据自己音调爬升的速度,反推出回声的飞行时间,从而计算出精确的距离。这是现代毫米波雷达(FMCW雷达)测距的核心原理。
2. 现在,我们加入“带宽”这个角色
“带宽”指的是什么?就是你这次“唱歌”中,音调变化的整个范围有多宽。
- 低带宽:就像你只从中央C唱到了高音C(一个八度)。你的“音调尺子”总长度很短。
- 高带宽:就像你从最低的男低音一直唱到最高的女高音(横跨好几个八度)。你的“音调尺子”总长度非常长。
为什么带宽宽,尺子就“刻度更密”、量得更准呢?
回到你测量“音调差”的场景:
- 情况A(窄带宽):你的音调只在一个八度内变化。假设现在有两个目标,它们距离你非常近,比如只差10厘米。它们的回声产生的“音调差”可能只相差几个赫兹。这个差别太小了,你的“耳朵”(雷达接收机)和后续的分析电路很难分辨出这两个几乎一样的音调差,于是就把这两个目标混成了一个,分辨不出来。
- 情况B(宽带宽):你的音调横跨了四个八度。同样是距离相差10厘米的两个目标,由于你的音调变化范围巨大,变化速度极快,它们产生的“音调差”可能会相差几百赫兹。这个差别非常明显,你的“耳朵”能轻松地听出这是两个截然不同的音高,于是就能清晰地分辨出这是两个独立的目标。
用更直观的比喻:
- 你想测量一张纸的厚度,用一把刻度到厘米的尺子(窄带宽),你根本量不出来,因为纸的厚度远小于一个刻度。
- 换一把刻度到0.1毫米的游标卡尺(宽带宽),你就能精确测量了。
在雷达里,带宽决定了你测量“音调差”(即时间差/距离)的尺子的最小刻度。公式是:距离分辨率 = 光速 / (2 × 带宽)。带宽越宽,这把尺子的最小刻度值就越小,能区分开的最小距离也就越小。
总结一下这个逻辑链:
- 雷达发出“滑动音调”:发出一段频率线性连续增加的无线电波(唱一首从低到高的歌)。
- 用“音调差”测距:通过比较回声的音高和当前发射音高的差别,计算目标距离。
- 带宽决定“标尺”精度:
- 带宽窄-> 音调变化范围小 -> 不同距离产生的音调差差异很小 -> “尺子”刻度稀疏 ->分不清距离相近的目标(距离分辨率低)。
- 带宽宽-> 音调变化范围极大 -> 即使距离微小差异,也会产生明显不同的音调差 -> “尺子”刻度极密 ->能清晰分辨靠得很近的目标(距离分辨率高)。
所以,“带宽越宽,音调变化越剧烈、越丰富”的真正含义是:它为雷达测量提供了一把刻度更精细的尺子,让雷达能够捕捉并区分出由微小距离差产生的、极其微小的“音调差”信号,从而实现高精度的距离分辨。
在智能驾驶系统中,激光雷达和毫米波雷达并非相互替代,而是像一对默契的搭档,通过取长补短来实现更安全、更可靠的环境感知。它们的核心协作逻辑是:充分发挥各自优势,并为对方补足短板,从而在各种复杂场景下提供冗余备份。
下面的表格能让你快速看清这对“搭档”是如何分工的。
| 传感器 | 核心优势 (擅长什么) | 主要短板 (不擅长什么) | 在配合中的角色 |
|---|---|---|---|
| 激光雷达 (LiDAR) | 高精度3D建模:能精确识别物体轮廓、大小甚至姿态 | 受恶劣天气影响大:大雨、浓雾会显著缩短探测距离 | “高精度测绘师”:负责看清“是什么”,精确描绘物体形状。 |
| 毫米波雷达 (Radar) | 直接测速:能直接、精确测量目标的相对速度;全天候工作:雨、雪、雾、尘对其影响很小 | 分辨率低:难以识别物体具体形状和类别 | “全天候哨兵”:负责感知“有没有动的东西,速度多快”,在任何天气下保持警戒。 |
具体的配合方式
在实际应用中,这两种雷达通过一种称为“传感器融合”的技术协同工作。这个过程可以分解为以下几个关键步骤:
取长补短的数据融合
这是最核心的环节。系统会优先采用来自激光雷达的高精度距离和轮廓信息,以确保车辆能准确知道障碍物的位置和大小。同时,系统会信任毫米波雷达提供的速度信息,因为这是它最擅长且最直接的测量结果。通过这种方式,融合后的目标信息就同时具备了激光雷达的“形状精准”和毫米波雷达的“速度精准”。应对极端天气的冗余备份
在晴朗天气下,激光雷达可以大显身手。但一旦遇到大雨或大雾,激光雷达的“视力”会大幅下降。这时,毫米波雷达的价值就凸显出来,它能穿透这些障碍,继续探测到车辆和大型障碍物,虽然看不清细节,但能提供最关键的“前方有物体”的预警,成为保障安全的关键冗余。提升感知效率的协同
一些更先进的融合思路也在探索中。例如,可以先利用毫米波雷达快速扫描整个场景,识别出“感兴趣的区域”,然后引导激光雷达对这些区域进行更精细、更集中的扫描。这种分工可以避免激光雷达盲目地进行全局高精度扫描,从而提升整个系统的数据处理效率。
面临的挑战与发展
让两种原理不同的传感器完美配合并非易事,主要挑战在于精确的时空同步(确保它们在同一时刻、用同一套坐标描述同一个物体)和处理海量数据所需的强大计算能力。
未来,随着4D成像毫米波雷达(在传统三维基础上增加了高度信息,点云更密集,性能提升显著)技术的普及,以及更先进的融合算法和芯片算力的发展,这对“搭档”的配合将会更加默契,共同推动更高等级智能驾驶的到来。