北京大學人工智能研究院孫仲研究員團隊與集成電路學院研究團隊攜手,在芯片研發領域取得重大突破——成功研制出基于阻變存儲器的高精度、可擴展模擬矩陣計算芯片。該芯片首次構建了精度可與數字計算相媲美的模擬計算系統,相關研究成果于10月13日發表于《自然·電子學》期刊。
在求解大規模MIMO信號檢測等關鍵科學問題時,這款芯片展現出驚人性能:其計算吞吐量與能效較當前頂級數字處理器(GPU)提升百倍至千倍。以128×128矩陣求逆問題為例,傳統GPU需運行一整天的計算任務,該芯片僅需一分鐘即可完成。
對于公眾而言,"模擬計算"是既熟悉又陌生的概念。孫仲研究員用通俗比喻解釋其原理:"數字計算需要將所有數據轉換為0和1的符號串,例如數字'十'要轉譯為'1010';而模擬計算直接使用連續物理量進行類比,數學上的'十'可直接對應十伏電壓。"這種"類比計算"模式省去了數字編碼的中間環節。
歷史上,模擬計算機曾在20世紀30-60年代占據主導地位,但隨著計算任務復雜度提升,其精度局限逐漸顯現。此次研究的核心突破,正是解決了模擬計算長期存在的精度瓶頸。團隊通過物理規律直接運算的方式,實現了計算過程與數據存儲的深度融合。
與傳統馮諾依曼架構的數字芯片不同,基于阻變存儲器的模擬計算芯片具有三大優勢:其一,無需將數據轉化為二進制數字流;其二,免除過程性數據存儲需求;其三,將計算與存儲功能整合。這種架構創新使芯片在處理矩陣方程求解(AI二階訓練核心)時,展現出低功耗、低延遲、高并行的特性。
在精度驗證實驗中,團隊成功實現16×16矩陣的24比特定點數精度求逆。經過10次迭代后,矩陣方程求解的相對誤差低至10??量級。性能測試顯示,該芯片在32×32矩陣求逆任務中已超越高端GPU單核性能,當問題規模擴大時,其計算優勢愈發顯著。
相較于專注矩陣乘法(AI推理核心)的存算一體方案,孫仲團隊選擇更具挑戰性的矩陣方程求解作為突破口。矩陣求逆操作的時間復雜度達立方級,對計算精度要求極高。模擬計算通過物理規律直接運算的特性,使其在該領域具備獨特優勢。
關于應用前景,孫仲認為模擬計算將成為AI領域的重要補充。其最可能快速落地的場景包括機器人控制和人工智能模型訓練等計算密集型領域。他特別強調,這種新型計算架構并非要取代現有體系,而是與CPU、GPU形成互補:CPU作為通用"總指揮"保持核心地位,GPU專注矩陣乘法加速,模擬計算芯片則高效處理AI領域最耗能的矩陣逆運算。

















