谷歌量子團隊近日再次引發(fā)科學界關注,其最新研究成果登上《自然》雜志封面。該團隊提出的“量子回聲”算法不僅實現(xiàn)了量子計算結果的可重復驗證,還解決了長期困擾領域的計算結果確認難題。研究顯示,搭載該算法的量子計算機完成特定計算任務僅需2.1小時,而經(jīng)典超級計算機Frontier需要3.2年,速度差異達1.3萬倍。
這項突破性研究由超過200位科研人員共同完成,參與者來自普林斯頓大學、加州大學伯克利分校、麻省理工學院等頂尖機構。新晉諾貝爾物理學獎得主、谷歌量子AI實驗室硬件首席科學家Michel Devoret也參與了這項研究。研究團隊開發(fā)的“量子回聲”算法通過模擬時間倒流機制,將擴散的量子信息重新聚焦,顯著提升了觀測精度。
在技術實現(xiàn)層面,研究團隊采用超導量子處理器進行實驗,最多同時操控65個量子比特。實驗證明,新型非時序關聯(lián)函數(shù)(OTOC)的觀測效果遠超傳統(tǒng)時序關聯(lián)函數(shù)(TOC)。傳統(tǒng)方法在量子系統(tǒng)演化9個周期后信號便難以檢測,而二階OTOC在演化20個周期后仍保持清晰信號。這種提升使得量子系統(tǒng)動力學細節(jié)的觀測成為可能。
研究還揭示了量子系統(tǒng)特有的“大循環(huán)干涉”現(xiàn)象。量子比特演化過程中產(chǎn)生的泡利字符串會形成閉合環(huán)路,這些環(huán)路的信號通過相長干涉得到增強。經(jīng)典計算機因無法處理這種復雜干涉模式,在模擬65量子比特系統(tǒng)時需要3.2年才能完成,而量子處理器僅需2.1小時。即便采用蒙特卡洛等優(yōu)化算法,經(jīng)典模擬的信噪比(1.1)也遠低于量子實驗的3.9。
在應用驗證方面,研究團隊將二階OTOC應用于量子系統(tǒng)哈密頓量學習。通過設計單參數(shù)學習實驗,系統(tǒng)成功識別出模擬量子系統(tǒng)中的未知相位參數(shù),誤差控制在極小范圍內。這種能力使得OTOC成為分析固態(tài)核磁共振系統(tǒng)等真實量子材料的理想工具,能夠反推材料內部的相互作用規(guī)律。
硬件層面的突破為算法實現(xiàn)提供了關鍵支撐。谷歌Willow芯片憑借極低錯誤率和高速運算能力,成為“量子回聲”算法的理想載體。最新數(shù)據(jù)顯示,該芯片在105量子比特陣列中實現(xiàn)了單量子比特門99.97%、糾纏門99.88%、讀出99.5%的保真度,所有操作均在數(shù)十至數(shù)百納秒內完成。這些性能指標使芯片能夠滿足復雜量子算法的計算需求。
研究團隊同時展示了量子計算增強型核磁共振技術的潛力。在藥物研發(fā)領域,該技術可精確測定藥物分子與靶點的結合方式;在材料科學領域,能夠表征聚合物、電池組件及量子比特材料等新型物質的分子結構。這種跨領域應用能力,為量子計算從實驗室走向實際應用開辟了新路徑。
論文詳細地址:https://www.nature.com/articles/s41586-025-09526-6
補充研究資料:[1]https://blog.google/technology/research/quantum-hardware-verifiable-advantage/











