智驾AI大模型三足鼎立?小鹏李力耘:“云端大模型”才能真正实现端到端

   发布时间:2024-10-25 19:01 作者:吴婷

2024年,智驾行业最为炙手可热的概念便是端到端大模型。随着AI大模型技术的发展,近期理想、小鹏、智己等各家车企在这一领域的研究和量产逐渐深化。而在近期关于端到端模型方向的讨论中,小鹏汽车副总裁、自动驾驶负责人李力耘博士在“小鹏P7+AI智驾技术分享会”上表示:做端到端很容易方向错了。

在本次分享会上,李力耘博士首先介绍了目前行业主流的三种端到端发展路线,并进一步分析其优缺点:一种是通过大量规则小模型堆叠的 “大模型”,其需要大量的优秀规则工程师;一种是“车端大模型”,即直接将端到端模型部署于车辆上,虽然见效快,但受限于车端算力,且随着后期训练数据量的增加,容易陷入瓶颈;最后一种便是云端大模型(foundation model),其参数量是车端模型的几十倍甚至数百倍,这是单纯的车端大模型所不可企及的。

简而言之,尽管选择前两种端到端的技术路线都能带来一定成效,但从智驾竞争的终局来看,布局云端大模型才是制胜关键。而小鹏汽车早在预研端到端大模型的阶段,就笃定要先构建一个强大的“云端大模型”,这也与全球头部AI企业——OpenAI所选择的路线不谋而合。

据李力耘博士介绍,小鹏云端大模型的参数量将多达车端参数量80倍,如此大的参数量意味着云端大模型能够全面吸纳智驾数据,不遗漏重点信息细节。通过大参数量的训练,能够尽可能地穷尽智能驾驶中的长尾问题,以覆盖更多驾驶场景,使XNGP实现L3级的智驾体验。目前,小鹏云端大模型的训练效率已提升了2.6倍,2025年小鹏云端的算力将会达到10EFlops以上。

对于轻雷达、轻地图的智驾方案而言,高算力大模型既是基础也是门槛。小鹏云端大模型可极致发挥摄像头高信息量输入,8倍提升有效视觉信息量。基于此优势,小鹏汽车推出了AI鹰眼视觉方案。相较于传统的激光雷达方案,AI鹰眼视觉方案的摄像头信息量是前者的80倍,而摄像头能够感知的语义和颜色信息是其100倍,摄像头的反应速度也是其3倍。

值得关注的是,AI鹰眼视觉方案将首发搭载在小鹏P7+上,在体验上会和小鹏现款车型的Max版本保持一致,并且同步更新。同时,李力耘博士也强调小鹏的云端大模型是国内首个泛机器人领域的基础大模型,不仅可以应用在自动驾驶领域,机器人、飞行汽车等领域均适用。

记者 李继龙

 
 
更多>同类内容
全站最新
热门内容
本栏最新