當汽車行業還在為智能駕駛技術的落地進度爭得不可開交時,一場關于智能座艙的競爭已悄然成為新的焦點。這個被用戶高頻使用卻常被忽視的“車內第二空間”,正以更快的速度向AI原生體驗進化,成為汽車智能化轉型的關鍵戰場。
在“聚合智能產業發展大會(2025)”上,斑馬智行首席技術官司羅接受媒體采訪時指出,智能座艙的本質并非簡單的“車載大屏”,而是具備主動感知能力的移動智能終端。與手機相比,汽車座艙的AI原生化進程可能更快,因為它天然具備多模態交互場景——視覺、語音、觸覺甚至生理數據的融合,為智能預判提供了更豐富的輸入。
“當前主流的‘大屏+語音助手’方案,本質上還是功能機時代的交互邏輯。”司羅比喻道,“用戶需要層層點擊菜單,就像早期智能手機必須通過固定路徑操作一樣。真正的智能座艙應該像老朋友,能通過一個眼神、一句話甚至沉默,讀懂用戶的需求?!?/p>
斑馬智行的技術路線聚焦于底層操作系統與AI能力的深度融合。從自研OS兼容安卓生態,到與高通、英偉達Orin等芯片廠商的合作,再到打通阿里云端的生態服務,其核心目標是讓車機具備“無感交互”能力。例如,當用戶說“有點熱”,系統不僅能調節空調溫度,還能根據后排乘客的年齡自動調整風量;當兒童詢問動畫內容時,車機可直接推薦符合年齡段的影片。
對于近期熱議的“具身智能”概念,司羅提出了一個顛覆性觀點:汽車可能是比機器人更早落地的具身智能載體。他解釋,智能汽車集成了傳感器(攝像頭、麥克風)、決策系統(芯片+算法)和環境交互能力(道路、用戶),本質上已具備具身智能的核心要素。斑馬智行通過操作系統為智能駕駛提供底層支撐,同時探索云端融合,正在為更廣義的具身智能鋪路。
針對大模型在車載場景的應用,司羅直言當前存在三大痛點:語音識別誤差、交互僵化(必須嚴格指令)、云端依賴導致的延遲與隱私問題。他透露,斑馬正在研發端側大模型與云端能力的結合方案,未來座艙將通過表情、語氣甚至心率等生理數據預判用戶狀態——例如在用戶心情低落時自動播放舒緩音樂,或在通勤擁堵時主動切換路線并推送路況摘要。
“真正的智能座艙不需要用戶‘開口’,而是能提前感知需求?!彼玖_描述了一個未來場景:當用戶坐進車內,系統通過多模態數據判斷其狀態,自動調整座椅、溫度、音樂,甚至根據日程推薦沿途的咖啡店或加油站。這種“無觸控、無APP”的交互方式,將在2-3年內成為主流,3-5年后徹底顛覆傳統車機體驗。
與傳統手機以APP為中心的交互邏輯不同,智能座艙的壁壘更低。司羅認為,汽車座艙的天然場景(如家庭出行、通勤)和空間屬性(多座位、多設備),使其更適合自然語言或多模態交互。當“無感操作”的頻率超過傳統中控屏使用時,智能座艙的“iPhone時刻”就將到來——而這一變革,可能比手機行業更快實現。