meta Ray-Ban meta 智能眼鏡近日迎來了其發展歷程中的一次重大飛躍,正式推出了v11版本更新,為用戶帶來了前所未有的智能交互新體驗。這一更新中的“實時 AI”(Live AI)功能尤為引人注目,讓參與“早期體驗計劃”的用戶率先領略到了科技的前沿魅力。
在之前的版本中,meta AI主要通過拍攝單張照片并進行分析來響應“Hey meta”的指令。然而,v11版本中的“實時 AI”功能則實現了質的飛躍,它能夠持續觀察用戶所見的景象,并以更加自然流暢的方式與用戶進行對話。這一改變意味著,用戶無需再頻繁使用喚醒詞,即可隨時向AI提出問題,而AI也能夠記住用戶之前的提問,實現更加連貫的對話體驗。
在“實時 AI”會話期間,眼鏡會實時錄制視頻并分析所見內容,用戶可以隨時打斷AI進行后續提問或更改話題,AI甚至會在用戶提問前主動提供有用的建議。這種功能的實現,無疑為智能眼鏡的使用帶來了極大的便利和樂趣。
值得注意的是,meta的“實時 AI”功能與谷歌的Gemini Live在某些方面有著相似之處,比如都支持對話式AI功能,允許用戶打斷和記憶查詢。然而,meta的“實時 AI”更勝一籌的是,它允許用戶完全解放雙手進行提問,無需依賴其他設備。
除了“實時 AI”功能外,v11版本更新還帶來了另一項重要功能——“實時翻譯”。這一功能讓用戶能夠在與不同語言背景的人交流時,輕松實現語言的無縫轉換。用戶可以用英語與說西班牙語、法語或意大利語的人交談,并通過手機屏幕或Ray-Ban meta眼鏡的揚聲器收聽對方的回復。這一功能的實現,無疑為跨國交流和旅行帶來了極大的便利。
v11版本更新還集成了Shazam功能,讓用戶只需簡單說出“Hey meta,Shazam 這首歌”,即可快速識別周圍播放的音樂。這一功能的加入,讓用戶在享受音樂的同時,也能輕松獲取歌曲的相關信息。
對于希望立即體驗這些功能的用戶來說,他們需要注冊“早期體驗計劃”。通過meta View應用程序的設置菜單,用戶可以輕松加入這一計劃,率先領略到v11版本更新的魅力。而對于那些沒有加入“早期體驗計劃”的用戶來說,他們則需要等到2025年初的正式版本發布后才能體驗到這些新功能。
近幾個月來,meta不斷推出了一系列有用的AI更新,比如讓meta AI能夠“記住”某些事情(如停車地點),并拍攝相關照片以創建稍后提醒的功能。這些功能的加入,不僅提升了meta智能眼鏡的實用性,也讓用戶在使用過程中感受到了更加貼心和便捷的服務。