凌晨公路上空无一人,车却不停地自动刹停沙拉酱

1/17/2026

智驾发展到今天,最难的不是教车辆怎么开走,而是教车辆怎么停下。

你坐在一辆智驾接管顺畅行驶的车辆里,眼前路况开阔、阳光明媚,中控屏上的蓝线平稳延伸。突然,毫无征兆地,车辆狠狠来了一脚“死亡急刹”,安全带瞬间勒紧,后排手机飞向挡风玻璃,而窗外,空无一物。

这正是无数车主正在经历的、被评为智驾应用中最灵异的场景:“幽灵刹车”。

过去几年,智驾技术从堆砌代码规则,进化到模拟人类直觉的“端到端”,甚至开始构建“世界模型”。但这些轰轰烈烈的技术演进,似乎都被困在了那个最微小的瞬间:车辆到底什么时候踩下刹车,最合适?

而无数个这样难以判断的微妙瞬间背后的,不仅仅是技术的难题,更是信任的难题,一边是渴望行驶里程数指数增长的车企,一边是因为微小失误就彻底取关的用户,当一个新技术的发展关乎到用户安全的时候,技术和信任如何平衡?

“幽灵刹车”的幽灵从哪来?

智驾变成“智障”往往是从不会刹车开始的。

就拿我第一次体验 robotaxi 的经验来看吧:大概三年前,我第一次体验国内大厂的一个 robotaxi,就在我们绕完了一圈之后,在车辆归位的时候,路边出现了一位行人,其实这个行人距离车辆的距离还是很远的,但是车辆忽然点了个急刹车,刹车程度之猛导致坐在后排录像的我直接把手机甩飞了。

这种现象被称为“幽灵刹车”,这个像是智驾患上的“被害妄想症”也是 X、Reddit、小红书等国内外论坛上对智能驾驶抱怨最多的情况。

国内一位智能车车主就对我抱怨,在高速换道的时候,有一辆车从右侧擦过,等到这辆车已经超过自己的车几秒钟了,自己的车才反应过来刹车。这种变道犹豫导致的刹车失误 FSD 也经常出现,一位在 Reddit 上专门测评特斯拉 FSD 的博主就曾发帖抱怨,FSD 在转向的时候,转向灯闪了半天还是犹犹豫豫不赶紧并道,等到后车不耐烦超车的时候才变道,非常危险。

有人抱怨 FSD 面对停车标志时,不知道应该在什么距离停下最合适,经常远远刹停然后一步步往前挪,显得极其“智障”,还有人指出在黄昏、凌晨这种视线昏暗的时刻,FSD 经常“幽灵刹车”甚至直接退出接管……

结合 Waymo 安全报告、NHTSA 数据汇总及第三方保险机构 ConsumerShield 分析,智驾目前事故率最高的三个场景:复杂路口变道失败、幽灵刹车以及鬼探头等突发物件处理失败,其实归根结底,都是不知道什么时候能刹车导致的。

为什么教给一辆车什么时候刹车,甚至比教它跑起来还要难?这并非算力不够,而是因为刹车这个动作,本质上不是机械执行,而是一场关于“预判”的赌局。

人类司机和赛博司机最根本的区别是人类可以很轻易的判断意图。

人类看到路边行人低头看手机,会预判他大概率不会动;看到有人眼神游移、脚步虚浮,会预判他可能醉酒冲出。但智驾系统大多只能基于物体的运动的速度、方向来计算,等到行人真的冲出来有了横向速度,它才开始计算物理碰撞概率,这中间的“计算延迟”加上机械执行时间,往往就导致了那种“事故已经快发生了才重刹”的滞后感。

但是这对机械司机来说十分困难,在工程师的逻辑里,智驾系统每时每刻都在做一道残酷的选择题——是“错杀”,还是“错放”?

如果为了绝对安全,把雷达和视觉的敏感度拉满,那么路边随风飘起的一个塑料袋、井盖上的一抹积水反光,甚至前方卡车排气管喷出的一团黑烟,在系统的“眼中”都可能被渲染成一块坚硬的巨石。为了保命,它只能不管不顾地一脚跺死——这就是“幽灵刹车”的由来。

极端相反的是,如果为了舒适性和通行效率,降低了感知的敏感度,过滤掉那些看似“杂波”的信号,那么当一辆静止的白色货车横在路中间,或者一个穿着深色衣服的行人在夜色中鬼探头时,系统可能会“自信”地认为前方无障碍,最终酿成惨剧。

人类司机拥有基于常识的“物理直觉”,我们一眼就能分辨出飘舞的报纸撞上去也无妨,但机器没有这种常识,在它们的世界里,那只是一堆占据了空间体素的、未知的“障碍物”。

是谁出的题这么的难?到处找不到正确答案

智驾为了培养机器的“物理直觉”尝试过很多路径。

最初,传统智驾研究的方案把开车分成了三个步骤:感知、规划、决策。信息像接力棒一样在这些盒子之间传递——感知层说:前方10米有一个障碍物,置信度80%。

预测层说:这东西好像不带动的。

决策层查阅了程序员写下的第502条规则:如果前方有障碍物且静止,立即刹车。

控制层执行命令:一脚跺死。

但是在规控这个环节总是会遇到一个问题:很多事情没有最优解。

举个例子,车辆现在需要右转,但是右侧有行人在走路,这个行人距离车辆还有一定距离,如果是人类司机在教新手,这个时候一脚油门过去也可以、原地等待行人也可以,这种“都可以按情况决定”对人类来说是非常简单的,但是对机器学习来说就复杂了。因为这会衍生出下一个问题:哪种情况要加速过去,那种情况要原地等待。

传统规控做的事情就是干这个“具体问题具体分析”的活,把遇到的 corner case(特殊场景下的极端情况) 人工标注出来告诉机器应该怎么办。这就会引起另外两个问题:1. corner case 穷尽不了怎么办?2. 代码太多了,需要的人力也太多了怎么办。

“幽灵刹车”这种现象在传统研究方法之下很容易产生,因为总会出现“这个 case 我没处理过,所以不知道怎么做最好”这种情况。

一项遵循“第一原则”的马斯克推翻了传统的研发路径,提出另一个解决方案:如果我能直接让机器像人一样思考,而不是再用人工标注要教他每一个 corner case 应该怎么处理,才能真正实现智驾的初衷。

于是乎,在 2023 年的夏天,马斯克在加州的帕洛阿尔托进行了一场画质并不清晰的 FSD 直播,但真正震撼业界的不是画质,而是他说出的那句话:“FSD v12 没有任何一行代码是用来告诉车什么是红灯、什么是路口。我们删掉了超过 30 万行 C++控制代码。”

Scroll for more