小鹏G 7创下行业最高AEB刹停速度,但我们更应该关心速度之外的东西
「安全才是最大的豪华」,看了无数场旗舰车型发布会后,这句话几乎成了旗舰车型讲解安全特性时必选的一句台词,无论是被动安全里的笼式车身,高强度金属材料使用量,电池的枪击测试和针刺测试;还是主动安全里的 AEB自动紧急制动,高速爆胎安全控制系统等等,都值得大书特书一下。
但,非豪华车型呢?在非旗舰车型的发布会上,尤其是平价车型的发布会上,我们不会看到这样的表述,更多的是关于配置同级领先,空间越级挑战之类的表述。
小鹏最近发布的 2 款车以及 1 个测试,则把一个重要的议题摆到了台前:动力、空间、配置平权之后,科技与安全,是不是也该平权了?
小鹏 G7 创下行业最高 AEB 刹停速度
前不久,已经开启预售,即将正式上市的小鹏 G7 进行了一次 AEB 自动紧急制动测试,在白天静止事故车辆/行人前向两个场景下,刹停速度均达到了 130kph,这也成为了行业最高的 AEB 的紧急刹停速度。
另外,在夜间高速、湿滑路面和前向事故车和前向行人的两个场景下,小鹏 G7 的 AEB 成功刹停速度为 120kph。
在黑夜行车,隧道内起雾,湿滑路面,前向事故车的较为极端场景下,小鹏 G7 的 AEB 成功刹停速度为 80kph。
AEB 并不算是一个特别新的技术,但却是一个技术密集程度高,并且仍在不断迭代的技术,简单讲,AEB 是通过车辆的感知传感器,包括但不限于毫米波雷达,摄像头和激光雷达等等,对驾驶环境,主要是前向方向进行感知,当传感器感知到障碍物,并且系统判定可能产生碰撞的时候,AEB 系统就会计算车辆可能撞上障碍物的时间还有多少,这个时间业界叫 TTC(Time To Collision),然后根据 TTC,以及当下的车速等情况,提醒司机进行制动,或者直接给到制动系统命令进行车辆制动。
「高算力和强模型」和 AEB 有何关系?
今年 5 月 28日,小鹏 MONA M03 Max 新车上市,小鹏 MONA M03 推出了 4 款全新版型,分别为小鹏 MONA M03 502 长续航Max、小鹏 MONA M03 600 超长续航 Max,以及小鹏 MONA M03 515 长续航 Plus、小鹏 MONA M03 620 超长续航 Plus,官方指导价 11.98—13.98 万元。
其中 Max 版本标配有双 Orin-X 芯片,总算力升至 508TOPS,这是 13 万级别车型里面罕有的配置,同级产品的算力基本上在 100TOPS 左右。
小鹏图灵 AI 智能辅助驾驶采用了纯视觉路线之后,不需要激光雷达元器件,这个技术路线和特斯拉一致。
少一种传感器数据,就能节省不少算力,进而能够升级视觉感知模型的容量、参数量和推理的频率,因为视觉摄像头的获取数据的帧率(24fps)大大高于激光雷达(10fps),所以反应速度也会更快,这对需要在高速条件下做感知做决策的 AEB 至关重要。
而才预售没多久的小鹏 G7 是目前小鹏体系内智能辅助驾驶算力最高的车型,其旗舰 Ultra 版本搭载了 3 颗小鹏自研的图灵 AI 芯片,有效算力超 2200TOPS,小鹏表示,这样的算力储备,是为后续的 L3 级别智能辅助驾驶做好准备。
在智能辅助驾驶方案上,小鹏 G7 行业首发了「大脑+小脑」VLA-OL 模型和VLA+ VLM 大模型,多模态大语言模型技术的出现,让智能辅助驾驶的上限得到不小提升,包括主动安全在内的下限也随之提升,相比于依靠编写规则的智能辅助驾驶方案,大模型支持的端到端方案能够像人类一样「看得更明白,想得更清楚」,并且和人类大脑一样,这套方案具有理解和学习的能力,车能够越开越聪明。
这里面,「大脑+小脑」 VLA-OL 模型能让智能辅助驾驶可以理解、推理和决策,有「主动思考」和「理解世界」的能力,例如看到前方塌陷,或者遇到救护车的时候,能够像人类司机进行避让。这种小概率的场景,在以往依靠工程师写规则的辅助驾驶方案里很难覆盖到。
论述了这么多小鹏新车和智能辅助驾驶端到端方案,是因为它们和 AEB 息息相关。因为 AEB 就是典型的「感知+决策」场景,感知准不准,决策快不快,决定了 AEB 的效果如何。
理解了这层逻辑,就会明白为什么小鹏 G7 演示的小鹏 AEB 能力为什么能够大幅进阶,因为本质上讲,AEB 是一个验证小鹏纯视觉智能辅助驾驶方案在主动安全可靠性的典型场景。
纯视觉智能辅助驾驶方案背后,是依赖「高算力和强模型」,强大的模型可以提升感知到的信息的处理效率和精度,而高算力可以让大模型在车端跑得更顺畅,也就是「感知+决策」能够准且快。
进一步讲,小鹏使用一段式端到端模型,从感知到决策再到规划控制,可以一步到位,计算简化让端到端模型的延迟大幅降低。
在本地部署过 DeepSeek 不同参数大小模型的人会清楚,参数越小,运行和反应速度也快,对硬件要求也低,但答案质量也会更差,而参数越多,比如 671B 大小的满血版 DeepSeek R1 生成的答案质量最好,但对硬件要求很高,同时运行反应速度也会慢。
所以说想要又准又快,其实也是个很矛盾的事情,想要智能辅助驾驶决策快,尤其是 AEB 感知准决策快,那模型肯定就需要在本地,因为云端通信的时间太不可控,干扰因素太多,本地运行的话,那模型肯定也不能太大,不然反应也慢,但是模型不过大的话,那也不够聪明,反过来会影响感知的效率和精度,以及决策的准确性。
小鹏的做法是,先把大算力芯片准备好,图灵 AI 芯片最高可以运行 30B 大模型,这是能力的上限,也为未来的智能辅助驾驶留有了巨大的冗余。
因为,在小鹏的逻辑中,高算力是智能辅助驾驶的先决因素,算力不够,强模型跑不动,后面一切都是空谈。
在车端模型侧,小鹏汽车通过云端蒸馏小模型的方式将世界基座模型部署到车端。「蒸馏」技术能够让车端的 VLA模型在继承原本云端基座模型能力的前提下,有效地减小模型体积。
其实今年春节期间火爆的 DeepSeek 背后的大模型就是基于 Llama 和 Qwen 系列开源大模型进行强化学习和知识蒸馏而来的。
至此,我们就可以理解小鹏图灵 AI 智能辅助驾驶采用的端到端大模型方案,VLA 模型和 VLM 模型,图灵 AI 芯片,以及 AEB 测试成绩之间的逻辑关系了。