當meta Ray-Ban Display智能眼鏡第一次貼上鼻梁時,科幻電影中的場景突然有了真實觸感。這款售價799美元的"帶屏智能眼鏡"在meta Connect 2025發布會上首次亮相,通過右眼彩色光波導HUD與Neural Band腕帶的組合,將"面部AI"從概念轉化為可觸摸的現實。
不同于傳統AR設備的笨重感,Display的顯示技術采用彩色光波導方案,通過光線在鏡片內部的精密折射實現畫面投射。這項技術的突破性在于將漏光率壓縮至2%以下——當HUD點亮時,對面的人完全察覺不到鏡片反光,而同期谷歌XR眼鏡樣機在相同角度會形成明顯光斑。實際測試中,即使與佩戴者面對面交談,屏幕內容也僅在特定側視角度下才會顯現導線反光。
5000尼特亮度的光波導屏幕搭配光致變色鏡片,構成了戶外使用的黃金組合。在強光環境下,鏡片會自動轉化為墨鏡效果,確保文字信息清晰可讀。這種設計解決了智能眼鏡在自然光場景下的可視性難題,使信息獲取不再受環境光限制。
單眼顯示方案經過精心調校,600×600像素的屏幕被安置在右眼下方。當直視對話者時,顯示區域恰好落在對方胸口位置,類似電影字幕的懸浮效果。這種非中心式布局不僅減少視覺干擾,更通過低視場角(FOV)設計實現了與現實場景的無縫融合。測試者連續使用一小時后表示,完全不會產生單眼顯示的突兀感。
作為核心交互設備,Neural Band腕帶重新定義了手勢控制。不同于依賴攝像頭的視覺識別方案,該設備通過肌電信號(EMG)捕捉手指動作。用戶可將雙手自然垂放或藏入口袋,系統仍能精準識別雙擊中指喚醒、旋轉手腕縮放等操作。經過短暫學習后,測試者成功實現拇指滑動翻頁、食指點擊確認等復雜指令,靈敏度達到實用級水準。
輸入方式的創新同樣令人驚艷。除了6麥克風陣列的語音控制,用戶還可佩戴腕帶在任意平面書寫。系統結合肌電信號與陀螺儀數據,實時將手寫軌跡轉化為文字。meta首席執行官扎克伯格在演示中達到每分鐘30詞的輸入速度,其團隊甚至能通過消息長度和回復速度判斷信息是否由眼鏡發送。
實時字幕功能展現出超越預期的實用性。說出"Hey meta, turn on live captions"指令后,對話者的英語發言立即呈現在鏡片上。在多人交談場景中,系統能精準識別用戶注視對象的語音,即使背景嘈雜也不會混淆。這種將現實場景轉化為"字幕電影"的體驗,被測試者形容為"獲得超能力"。
盡管核心功能依賴手機連接,但Display已突破簡單通知鏡像的范疇。用戶可直接在鏡片上查看音樂播放信息、接收導航指引、預覽相機畫面,甚至通過meta AI識別眼前物體。當詢問畫作信息時,系統不僅語音解答,更在鏡片上顯示圖文并茂的信息卡片,信息密度遠超純語音交互。
meta CTO Bosworth強調文字渲染的重要性:"當AI能直接展示答案而非語音播報時,信息獲取既直觀又私密。"這種混合交互模式解決了公共場合語音喚醒的尷尬,測試者在餐廳嘗試識別菜單、在街頭使用導航時,均未遇到操作障礙。
對于追求效率的用戶群體,Display的核心價值體現在三個方面:通過文字顯示提升信息密度,利用視覺反饋增強操作確定感,構建AI與人類感知的無縫連接。當朋友發來視頻鏈接時,用戶可直接在鏡片上觀看并回復,整個過程無需掏出手機。
扎克伯格將這款產品視為計算平臺的革命:"眼鏡是唯一能全天候陪伴、共享人類感官的設備。"據預測,全球10-20億眼鏡佩戴者中,五至七年內半數可能轉向智能眼鏡。meta將目標用戶鎖定為"效率追求者",初期數十萬臺的產量預計將快速售罄。
在20度視場角和600×600分辨率的硬件限制下,Display仍展現出超越預期的實用性。測試者發現,通過減少手機使用頻率,日常信息處理效率得到顯著提升。這款產品或許正如扎克伯格所言,標志著"功能機向智能機"的關鍵轉折,而智能眼鏡的普及浪潮,可能正從這副眼鏡開始涌動。