科技日報記者 張夢然
最新一期《自然》雜志發(fā)布了谷歌“深度思維”團隊的人工智能(AI)成果:一款名為“阿爾法量子比特”(AlphaQubit)的AI解碼器。這款解碼器能以前所未有的精確度檢測量子計算過程中出現(xiàn)的錯誤,且在10萬輪模擬實驗中均保持良好性能,這是構(gòu)建穩(wěn)定可靠量子計算機的關(guān)鍵步驟。
“阿爾法量子比特”采用了基于神經(jīng)網(wǎng)絡的設計,特別是利用了Transformer架構(gòu),這是目前大多數(shù)大型語言模型的基礎。該解碼器的任務是在實驗結(jié)束時,通過一致性檢查作為輸入,準確預測邏輯量子位的狀態(tài)是否已從初始狀態(tài)發(fā)生變化。
在訓練階段,團隊首先使用了來自“懸鈴木”量子處理器的49個量子比特的數(shù)據(jù)集對“阿爾法量子比特”進行訓練。他們先利用量子模擬器生成了數(shù)億個不同設置和錯誤級別的示例,隨后通過數(shù)千個實驗樣本來微調(diào)“阿爾法量子比特”,使其更好地適應具體應用場景。
測試結(jié)果顯示,在處理“懸鈴木”的新數(shù)據(jù)時,“阿爾法量子比特”顯著提高了錯誤識別的準確性。特別是在最大規(guī)模的實驗中,“阿爾法量子比特”將錯誤率降低了6%以上。同時,它還比相關(guān)性匹配方法的錯誤率低了約30%。
團隊還使用了最高至241個量子比特的模擬量子系統(tǒng)數(shù)據(jù)進行訓練,結(jié)果顯示,即使在超出“懸鈴木”平臺限制的情況下,“阿爾法量子比特”依然能夠超越現(xiàn)有的高級解碼算法,顯示出其在未來中型量子設備上的潛在應用價值。
此外,在長達10萬輪的模擬實驗中,即使經(jīng)過最多25輪的錯誤校正訓練,“阿爾法量子比特”仍表現(xiàn)出色,證明了其在面對未知情況時的泛化能力。
團隊表示,“阿爾法量子比特”代表了使用機器學習進行量子糾錯的重要里程碑,但其仍面臨速度和可擴展性方面的重大挑戰(zhàn),未來還需尋找更加高效的訓練方法。
總編輯圈點:
量子計算的可靠性與穩(wěn)定性是其面臨的重要挑戰(zhàn)。利用人工智能技術(shù)為量子計算糾錯,是一種極具潛力的思路:機器學習能高效處理量子計算過程中產(chǎn)生的海量數(shù)據(jù),快速識別出錯誤模式與特征,從而顯著提升量子糾錯效率。不過,人工智能與量子計算都屬于新興前沿技術(shù),這兩種技術(shù)均具有一定的復雜性,且面臨可靠性方面的挑戰(zhàn)。兩個“新手”做“搭檔”,會不會引入新的不確定性?這一點需要研發(fā)團隊高度關(guān)注。