meta近日為旗下智能眼鏡系列推出重要功能更新,通過人工智能技術強化用戶交互體驗與生活便利性。此次升級包含兩大核心功能:基于環境感知的助聽技術與音樂推薦系統,同時擴展了設備兼容范圍。
針對嘈雜場景的溝通需求,meta開發了名為“對話聚焦”的聲學增強技術。該功能依托眼鏡內置的多麥克風陣列,可定向捕捉3米內對話者的聲音信號,并通過實時音頻處理算法抑制背景噪音。用戶通過滑動鏡腿或觸控面板即可調節聲音增強幅度,在機場、餐廳等復雜聲學環境中仍能保持清晰對話。這項技術解決了傳統助聽設備需要額外佩戴的痛點,將聽力輔助功能無縫集成至眼鏡形態中。
在音樂交互領域,meta與流媒體平臺Spotify達成深度合作,推出視覺場景識別點歌功能。用戶只需發出語音指令,眼鏡搭載的計算機視覺系統即可分析視野范圍內的物體特征——如識別出圣誕裝飾后,AI會自動生成包含《Jingle Bells》《Last Christmas》等節日曲目的播放列表。這種多模態交互突破了傳統語音助手的局限,使設備能主動理解用戶所處環境并做出響應。
功能更新現已面向特定用戶群體開放測試,涵蓋Ray-Ban meta經典款與Oakley meta HSTN專業運動系列。早期體驗者反饋顯示,手勢操控的響應速度達到0.3秒級,環境音樂匹配準確率超過85%。meta工程師透露,未來計劃將視覺識別范圍擴展至200種日常場景,并優化多語言支持能力。
此次升級標志著智能眼鏡從單一顯示設備向環境感知終端的轉型。通過整合聲學處理、計算機視覺與流媒體服務,meta正在構建覆蓋聽覺、視覺的多維度交互生態,為可穿戴設備領域樹立新的技術標桿。











