商汤绝影Sage端侧大模型颠覆车载AI格局
端侧智能体的破局者:商汤绝影Sage如何改写车载AI格局
当AI全面迈入智能体时代,汽车行业却长期陷入一个尴尬的“两难”:依赖云端大模型实现复杂任务处理,意味着高延迟与高成本;而坚守端侧部署,又只能实现简单的指令响应,难以支撑真正的“主动智能”。直到2026年4月22日,商汤绝影发布端侧多模态智能体基座大模型Sage,这一僵局终于被打破。
Sage不仅是业内首款在车端实现复杂智能体能力的基座大模型,更以惊人的效率与性能,重新定义了端侧AI的可能性。
小模型,大能力:32B总参、3B激活的MoE架构
Sage采用混合专家(MoE)架构,总参数量达320亿,但激活参数仅30亿。这意味着在推理过程中,模型仅动态调用部分专家网络,极大降低了算力需求。这一设计使其成功部署于英伟达Orin X车规级芯片平台,真正实现了“云端能力,端侧落地”。
更令人惊叹的是,Sage在权威Agent评测基准PinchBench上的表现:其最佳任务完成率高达94%,超越Claude-Opus-4.6(93.3%)、GPT-5.4(90.5%)等一众主流云端大模型。这彻底颠覆了“只有大模型才能做好智能体任务”的行业认知。
以小米MiMo-v2-Pro为例,其激活参数高达42B,总参数量超1T,而Sage仅需其1/14的激活算力、约1/31的显存占用,却在任务完成率上反超6.6个百分点。这种“小而强”的技术路线,展现了端侧原生架构的极致效率。
两大黑科技:SCOUT与ERL,让模型“会学习、不犯错”
Sage之所以能在端侧实现复杂智能体能力,核心在于商汤绝影自研的两项后训练技术:SCOUT与ERL。
SCOUT(分级协同学习框架) 解决了大模型学习复杂任务时成本高、试错慢的难题。传统方法依赖大模型自行探索任务路径,既耗时又耗算力。SCOUT创新性地采用“探路与吸收解耦”机制:先由轻量级小模型快速遍历任务空间,筛选出可行路径,再将高价值经验注入主模型。这一“小模型探路,大模型吸收”的协同学习模式,使Sage在学习复杂出行场景任务时,GPU小时消耗降低约60%。
ERL(错误步骤回滚学习机制) 则聚焦任务执行的稳定性。在真实场景中,智能体常因某一步骤出错导致整体任务失败。ERL让模型具备“自我纠错”能力:当检测到错误操作时,系统自动回滚至最近正确状态,并记录错误路径用于后续学习。这一机制使Sage在复杂多步任务中的成功率提升20%,真正实现“说到做到”的闭环执行。
从“听懂指令”到“独立办成事”:智能座舱的范式跃迁
过去,车载语音助手只能完成“打开空调”“播放音乐”等单步指令。而Sage的出现,标志着智能座舱从“被动响应”迈向“主动服务”。
例如,用户说“帮我安排明天上午的会议并提醒我带资料”,Sage不仅能调用日历系统创建会议,还会主动关联过往行程,提醒用户提前出发,甚至联动智能家居提前准备会议资料。这种跨场景、多工具协同的复杂能力,正是PinchBench所重点考察的“任务闭环执行”能力。
更重要的是,Sage可无缝接入OpenClaw、Hermes等主流Agent框架,为开发者提供标准化接口。这意味着车企可基于Sage快速构建个性化智能体应用,覆盖出行、家庭、办公等全场景,真正实现“一芯多能”。
超级智能体的基石:Sage Box即将亮相北京车展
在即将开幕的北京车展上,商汤绝影将正式发布搭载Sage的硬件载体——Sage Box。这一车载智能体计算单元,将成为汽车迈入“超级智能体时代”的核心引擎。
未来,车辆不再只是交通工具,而是具备持续学习、自主决策能力的“移动智能伙伴”。而Sage所代表的端侧原生技术路线,或将成为智能汽车竞争的新制高点。
当云端与端侧的界限逐渐模糊,真正的智能,或许就藏在那3B激活参数的轻量化身躯之中。
标签: 商汤绝影 Sage大模型 端侧AI 智能座舱 PinchBench