量子計算領域迎來重要突破:哈佛大學研究團隊近日宣布,成功開發出一套可將量子糾錯錯誤率降至關鍵閾值以下的系統,相關成果已發表于國際頂級學術期刊《自然》。這一進展被學界視為邁向實用化量子計算的關鍵一步,為構建大規模容錯量子計算機奠定了科學基礎。
該研究由哈佛大學與麻省理工學院聯合主導,團隊成員來自哈佛-麻省理工實驗室孵化的初創公司QuEra Computing、馬里蘭大學聯合量子研究所及美國國家標準與技術研究院等機構。研究團隊構建了一個包含448個原子量子比特的"容錯"系統,通過物理糾纏、邏輯糾纏、邏輯魔術和熵移除等核心機制,結合量子隱形傳態技術,實現了無需物理接觸的量子態傳輸與錯誤糾正。
論文主要作者、哈佛量子科學與工程項目聯合主任米哈伊爾·盧金教授指出:"我們首次在一個集成架構中整合了可擴展容錯量子計算所需的所有關鍵要素。這些實驗代表了當前任何量子平臺最先進的成果,為構建實用化大規模量子計算機提供了科學依據。"研究團隊采用中性原子量子比特技術,利用無電荷的銣原子在激光作用下調整電子排布,將其編碼為量子比特。這種技術路徑與谷歌等團隊探索的超導體系形成互補,全球量子計算競爭格局因此更加多元。
量子計算與傳統計算的本質差異在于運算單元:經典計算機使用比特,而量子計算機依賴量子比特。得益于量子糾纏特性,量子比特數量增加將帶來指數級算力提升——理論上,300個量子比特的信息容量已超過已知宇宙粒子總數。這種潛力使量子計算有望在藥物開發、密碼學、人工智能、金融建模等領域引發革命性突破。然而,量子比特極易因環境干擾失去量子態,導致錯誤率居高不下,因此糾錯能力成為制約量子計算發展的核心瓶頸。
研究團隊通過構建包含數十層糾錯的復雜量子電路,成功將錯誤率壓制到關鍵閾值以下。這意味著新增量子比特將進一步降低系統錯誤率,而非引發更多錯誤。論文第一作者、現任加州理工學院助理教授的多勒夫·布魯夫斯坦解釋:"雖然構建百萬量子比特級計算機仍面臨諸多技術挑戰,但這是首次出現概念上可擴展的架構。我們已清晰看到構建容錯量子計算機的可行性路徑。"
哈佛大學物理學博士生亞歷山德拉·蓋姆參與設計了實驗系統,她強調:"研究重點在于理解規模化深度電路計算的關鍵機制。通過優化系統架構,我們能夠剔除冗余組件、減少資源消耗,加速推進實用化進程。"該團隊今年9月曾在《自然》發表另一項成果,展示了一個包含3000余個量子比特的系統,該系統可連續運行兩小時以上,成功解決了原子流失等技術難題。
谷歌量子AI團隊工程副總裁哈特穆特·內文評價稱,在各大技術路線激烈競爭的背景下,這項研究"代表著向共同目標邁出的重要一步"。隨著糾錯技術、量子比特規模與系統穩定性的同步提升,盧金教授認為構建量子計算機的核心要素正在逐步完備:"我們懷揣數十年的夢想,如今首次真正觸手可及。"











