我們采用了多源融合(攝像頭+毫米波雷達)定位結合高精度地圖(HDMap)輔助的方案,預計在鵬城複雜高架道路的實車測試中,百公裡人工接管次數能降至3次以下,接近行業標杆水平。
智能限速功能已打通導航地圖數據與交通標識識彆(TSR),能自動根據路牌或電子眼信息調整巡航車速。”
“場景化高階功能嘗試:打燈自動變道(ALC)。
這是高速NOA的核心體驗點之一,也是用戶感知最強的功能。
核心挑戰在於變道決策的時機判斷比如安全間隙、鄰車道車速預測和執行平順性。
我們基於強化學習框架構建了決策模型,結合多目標雷達的精準測速測距,目前在高精度地圖覆蓋的高速路段,變道成功率達到92%。
下一步重點是提升複雜車流環境下的決策魯棒性和執行流暢度,消除用戶的突兀感。”
“泊車領域突破:全場景自動泊車(APA)與遙控泊車(RPA)。
APA已支持垂直、水平、斜列等多種車位,基於環視攝像頭與超聲波雷達融合感知,車位識彆成功率和泊入成功率均達到98%以上。
RPA功能在手機藍牙連接穩定範圍內,可實現直線前進/後退遙控,解決狹窄車位上下車痛點。
這部分相對成熟,是提升用戶便利性和科技感的重要抓手。”
蔣雨宏的彙報條理清晰,數據紮實,既展現了進展,也不回避挑戰。
他最後總結道:
“L2.5功能包是我們在啟界M5上實現‘全係標配高速NOA’承諾的基石,是必保項。
當前資源投入占比約60%,預計在Q3完成全部功能凍結和車規級驗證。”
徐平聽得頻頻點頭,姚塵風則在筆記本上快速記錄著什麼,眼神專注。
蔣雨宏看向身旁的卞金麟:“金麟,你補充下技術底座和前瞻布局。”
卞金麟,這位哈工大博士出身的車控專家,氣質更為內斂,但開口便是硬核技術:“好的,雨宏。我補充三點核心底座能力建設。”
“第一,感知架構升級。我們堅定推進‘BEV(鳥瞰圖)感知’作為下一代主航道。”
卞金麟的PPT切換到複雜的神經網絡結構圖。
“傳統‘前融合’或‘後融合’在處理多傳感器(攝像頭、毫米波雷達、未來激光雷達)異構數據時存在信息損失或延遲問題。
BEV感知將不同視角、不同模態的原始數據,通過TranSfOrmer等網絡結構,統一轉換到車輛上方的鳥瞰視角坐標係下,生成統一的、稠密的環境表征。
這更符合自動駕駛的決策需求。”
他展示了仿真環境下的BEV感知效果,車輛、車道線、可行駛區域等元素清晰直觀。
“目前,我們的BEV感知原型在nUSCeneS數據集上的目標檢測mAP值已提升至52.7%,接近行業頭部開源方案水平,但距離量產落地還有距離,主要在實時性和車規級芯片的部署優化上。
投入占比約25%。”