自动驾驶分为5个等级当前正处于L2阶段。大家可以看下面图片,L2相比于L3,最主要的区别在于是不是需要人员监控。L3阶段,由无人驾驶系统完成“所有的操作”,根据系统的要求,人类提供适当的应答。也就是L3等级下,车辆完全可以自己驾驶了,并不用人管。你开车在高速,甚至城市道路上,原理上是可以低头玩手机的,只是在车辆发出报警的时候,提供一下帮助。
特斯拉:2023年11月,FSDV12 发布,感知、规划几个模型融合成端到端大模型,自动驾驶系统迭代加速。其Robotaxi车型已经具备L3的能力。今年4月,马斯克突访中国,和一众高层会谈,就是为了在中国落地L3。
小鹏:2024年5月20日,国内首个量产上车的端到端大模型,小鹏XNGP 城区智驾已完成100%无图化;2024年8月,XNGP城区智驾累计覆盖356城。
理想:2023年12月,AD2.0全面升级至AD3.0,全场景智能驾驶(NOA)全国都能开,实现全国高速及城市环线城的城市道路陆续开放;2024年7月,理想汽车OTA 6.0智能驾驶迎来升级无图NOA。
问界:2023年7月开放上海、广州、深圳、重庆、杭州5城的成熟NCA;2024年3月,问界M5、 新M7智驾版OTA重磅升级,实现全国都能开、越开越好开的城区智能领航辅助(CityNCA)。
比亚迪:2024年7月,腾势N7开启新一轮OTA升级,包括新增全国无图高快领航、代客泊车、哨兵模式、红灯倒计时功能等,以及包括优化城市领航功能、车道领航功能等。
可以说,城市NOA正是百家齐放的阶段。但这种城市的NOA功能依旧属于L2等级,并且,从L2的城市NOA到L3只差临门一脚:长尾问题的解决...
自动驾驶一直有纯视觉方案和激光雷达融合感知方案两种技术路线,大家都会以为激光雷达更加靠谱,但是面对“长尾场景”,激光雷达也没用!
一位湖北襄阳的理想L9(有激光雷达)车主称,在高速上开启了辅助驾驶系统,车辆在行驶中检测到高处广告牌上的小货车图片,突然急刹导致追尾。经交警认定,车主负此次事故的全部责任。
这种就是长尾场景之一,最终自动驾驶系统无法做出正确判断。而解决这种长尾场景问题唯一的方法就是端到端大模型!
什么时端到端?它一端输入数据(比如:自动驾驶摄像头)直接映射到另一端输出数据(比如:执行),而不需要在这个过程“人工”手动提取特征或进行预处理。可以说,端到端大模型作为一个整体,更接近人类驾驶的模式,通过大量数据进行训练,让AI自己发现数据中隐藏的行驶规则,从而能够覆盖更广泛的行车场景(解决长尾问题),有望实现完全自动驾驶。
更进一步的,我们需要对比一下之前的模型就能更加清晰了。之前的模型都是下面这个图片方式的。激光雷达会产生原始数据,通过雷达感知算法进行处理,输出识别结果给融合算法。这里需要注意的是,识别的结果1是人工格式化的,这里可传递的信息都是人们理解后的信息,这里就有一部分信息在人工定义的过程中湮灭了。
这里,虽然在处理数据,融合上使用了大模型,但是各个模型(蓝色的框)是割裂的,他们之间的传递的信息是人工定义过的。这引入了一个很大的问题,长尾问题。也就是那些低频的驾驶场景,并不是人工能100%定义的。
而端到端大模型,就如同下面这样。从检测到执行没有人工参与,这就是从原理上,彻底解决人工穷举的尴尬,从而解决了长尾问题。
刚刚也提到了,2023年11月,特斯拉FSDV12 发布,将感知、规划几个模型融合成端到端one-model大模型。其Robotaxi车型已经具备L3的能力。这款车也必将作为中国车市的“鲶鱼”,搅动整个自动驾驶圈!