近日,高德地圖宣布其自主研發的交通視覺語言模型(TrafficVLM)完成重大技術升級。該模型基于阿里通義Qwen架構打造,通過空間智能技術為駕駛者提供"上帝視角"的導航體驗,有效破解傳統導航中"只見樹木不見森林"的視野局限。
在復雜交通場景中,駕駛者常面臨信息不對稱的困境。當車輛行駛至多車道交匯路口時,駕駛員往往只能觀察到眼前200米范圍內的車流,卻無法預判300米外匝道匯入車輛可能引發的連鎖反應;在高速公路上,前方500米處因事故引發的"蝴蝶效應"擁堵,傳統導航系統難以及時預警。這些局部視野限制,導致駕駛決策常滯后于實際路況變化。
升級后的TrafficVLM通過云端實時運算,構建起三維交通態勢感知網絡。該系統每分鐘對沿途20公里范圍內的交通要素進行動態解析,可精準識別車輛變道意圖、擁堵傳導方向等12類復雜場景。當監測到前方3公里處發生追尾事故時,模型能在90秒內完成事故定位、影響范圍預測,并生成包含變道時機、應急車輛避讓等要素的導航方案。
系統獨創的"時空折疊"可視化技術,使導航界面具備場景穿越能力。用戶點擊導航界面右下角的"全景視窗",即可實時調取事故現場的4K級影像數據。通過深度學習算法對圖像中車輛間距、剎車燈狀態等300余個參數的解析,系統能準確還原擁堵點的空間結構,并在AR導航界面中標注最佳通行路徑。這種從文字提示到空間感知的躍遷,使駕駛者能直觀理解"為何要變道""何時該減速"等決策依據。
技術團隊透露,TrafficVLM的訓練數據來自高德積累的500萬小時交通影像,通過孿生仿真技術構建出覆蓋200種典型路況的虛擬測試環境。模型在車輛軌跡預測、多車交互等核心指標上,準確率較上一代提升37%,特別是在"幽靈堵車"等非線性交通現象的預判中,展現出顯著優勢。
在實際應用場景中,該系統已實現多維度感知能力的突破。當檢測到前方路段因施工導致車道縮減時,TrafficVLM不僅能預測擁堵長度,還能分析各車道車輛密度變化,建議駕駛者提前200米完成變道。這種基于空間智能的決策支持,使復雜路況下的駕駛決策效率提升40%以上。