
AI 原生汽车,到底应该什么样?
4 月 21 日,荣威 20 周年品牌之夜。台上在讲一个叫「CPP」的 AI 原生架构,台下的汽车媒体老师们有些茫然——这三个字母代表什么?它和别家车企接一个豆包大模型有什么不同?为什么荣威要管自己叫「第一家 AI 原生汽车」?

这些问题,荣威自己也很清楚不好回答。
荣威显然觉得自己做了一件真正不同的事——但怎么让外界理解这种「不同」这件事很难。
「接一个大模型」和「为 AI 重构架构」的区别
2025 年下半年以来,火山引擎带着豆包大模型疯狂扫荡汽车行业。奔驰、宝马、奥迪、比亚迪、赛力斯、长安马自达……超过九成主流车企都和火山引擎建立了合作关系。荣威 M7 DMH 在去年 9 月首发搭载了豆包深度思考模型,是最早与火山引擎合作的车型。
但问题来了。当所有人都能接入同一个豆包大模型的时候,「我也有 AI」就不再是卖点了。
荣威的思路是往更深的地方走。以「AI go first」为核心理念,整车围绕AI打造,让 AI 成为统一入口,实现整车硬件、功能、体验底层为AI适配。
他们提出了一个叫 CPP 的架构——Context、Planner、Pixel-level function calling。翻译成人话就是三件事。

第一个 C,是把「上下文」的概念做了极大的泛化。不只是你和 AI 聊天的上下文,还包括车内摄像头看到的画面(车内 2-3 路、车外 9-13 路摄像头的信号)、车辆本身的状态信号、你的长期使用记忆、甚至字节系生态(抖音、今日头条)的信息。
你跟车说「我有点闷」,AI 不能只降温,因为夏天的闷和冬天的闷是两回事。它需要结合当前温度、你的表情、你最近的身体姿态变化来综合判断。这些信息从哪来?从车上那十几路摄像头和各种传感器来。
第二个 P,是 Planner,一个多模型协同的规划器。这不是一个大模型在干所有的事,而是多个模型各司其职——有专门处理视觉的、有快速响应简单指令的小模型、有深度推理的大模型、有专门追踪任务执行状态的模型。
举个「Pre-tool / Post-tool」的机制案例:你说了一句很复杂的话,系统会先用小模型秒回一句「你说的是水立方对吧,我现在帮你找」,同时后台大模型在并行计算真正的答案,算完之后再用 Post-tool 把前后缝合成一段连贯的回答。用户感受到的是「这个助手反应很快还很准」,但背后其实是好几个模型在接力。
第三个 P,是 Pixel-level function calling——荣威把它比喻成「像素级的 AI 控车能力」。这可能是整个 CPP 架构里最关键的部分。荣威过去 7 年一直在做电子电气架构的服务层封装,底层有两千多个车控接口,往上封装成了大几百个标准化服务入口。AI 不直接操作底层硬件,而是通过这些服务入口来执行——就像你不会让一个聪明的实习生直接碰公司的财务系统,而是让他通过 OA 流程来提交申请。
一个助理、一个司机、和一个总经办
过去我们做车上的 AI,就像是只给老板配了一个「脑子」——一个很聪明的大脑,能回答问题,但不会干活。而现在他们想做的,是给你配一整套班子。
有助理,擅长排日程、记偏好、帮你做规划。有司机,擅长开车、找路、处理路况。还有一个总经办,协调所有人的工作,确保任务不冲突、不遗漏。这个总经办,就是 CPP 里的 Planner。

再比如,在车上抽烟到底开不开窗,取决于车速、边上有没有人、下不下雨、开多大的窗。传统做法是一个抽烟场景就写了几百条规则,最后还是觉得是个笑话。因为一个人的抽烟习惯是千变万化的,无法穷举的——低速伸手出窗外,高速只开一条缝,旁边坐人了就不开窗。
「只有 context 足够多——对我的习惯、边上人的情况、外部环境、车速、天气——这些信息足够了,才有机会给你一个好的体验。」荣威相关人士说到。
这句话大概是理解整个 CPP 架构最好的切入点。它不是一个更聪明的语音助手,而是一个拥有足够多感知信息、能自主编排任务、且被安全机制约束的 AI 运行时环境。
安全和「黑灰彩」
这里有一个非常实际的问题——你让 AI 控制车辆,安全怎么办?
荣威用了三个区来分级:黑区、灰区、彩区。彩区是 AI 可以尽情发挥的,比如调节氛围灯、播放音乐、规划路线。灰区是需要条件判断的,比如在 P 挡可以操作车灯,但在 D 挡行驶中不行。黑区是绝对禁止的——田总举了一个极端例子:「AI 能点炸气囊吗?当然不能,这是在底层电子电气架构里就锁死的。」
这套安全机制的设计哲学很有意思——不是告诉 AI「你不能做这个」,而是让 AI 根本就「摁不下去」。就像你开着车去按 P 挡,车辆系统本身就不会响应,不需要提前告诉你「开车时不要按 P 挡」。
安全方面一定是荣威要把控的。荣威相关人士说:「荣威不能跟字节火山说AI 千万不能犯错,因为今天 AI 作为一个模型,它就是有犯错的概率,它还有幻觉。这是不能回避的一点。所以安全底线不是靠 AI 来守的,是靠的电子电气架构来守的。」
这也解释了为什么荣威认为自己做的事和其他接豆包的车企不一样。很多车企的做法是把车控接口直接开放给大模型——你想开窗,就给你开窗的 API。但这样做的问题是,你需要穷举所有可能出错的 case,逐条写安全规则。而荣威的做法是在中间加了一层服务层,这层服务里已经封装好了权限和安全协议。AI 操作的是服务层,而不是底层接口。
荣威相关人士透露,如果你听到某个车厂说我们有多少个 agent,那其实不是一种完全内定的方式,因为它只是把一个功能做成一个场景包装成一个 agent。这种 agent 是有限的,也是可以被抄的。但我们这个系统的 runtime 不是去封装 agent 的——它是让 AI 自己去编排任务。
难题留在了后面
荣威和火山引擎的深度合作从开始就、组建了联合团队,从产品定义阶段就联合参与。CPP 架构对应的是 AI 行业最新的 Harness / Runtime 范式,而不是上一代的 prompt engineering 或简单的 context management。从技术路线上看,荣威确实比大多数「接一个大模型就宣布 AI 上车」的同行走得更深。
但技术上走得更深,恰恰也带来了一个更难的传播问题。
发布会讲了太多架构层的概念,普通消费者听完可能仍然不知道,这台车到底和别家有什么不同。
这套东西的价值需要时间才能浮现。「你试一天可能试不出来。试了 7 天以后,它了解你了,有了长期记忆,体验感才会开始迭代。」这对一个习惯了「一天试驾出结论」的行业来说,几乎是一种反直觉的产品逻辑。

但或许,这也正是「AI 原生」这四个字真正想表达的意思——它不是一个可以在发布会上演示 30 秒就让人鼓掌的功能点,而是一种需要相处才能感受到的关系变化。
荣威内部的工程师讲了一个有趣的故事:他和那台测试车相处了很长时间,团队观察到一个变化——他跟车说话的语气,从最早的视频到最近的视频,是不一样的。他开始把那台车当成一个小朋友在聊天。没有人教过这台车怎么让人产生这种感觉。它不是预设的场景,不是工程师写的脚本。
家越 07 量产版将在6月亮相。到那个时候,荣威需要回答的问题就不再是「CPP 是什么」,而是一个更朴素也更残酷的问题——坐进这台车的普通人,会不会也像荣威的工程师,慢慢改变和它说话的语气。



