谷歌在大模型領域即將迎來一場重大變革。Google DeepMind的Gemini預訓練負責人Sebastian Borgeaud在接受采訪時透露,未來一年,大模型預訓練將在長上下文處理效率和上下文長度擴展兩大方向實現突破。這一消息引發了業界對谷歌技術實力的再次關注。
Sebastian指出,團隊在注意力機制方面取得了令人興奮的發現,這些發現可能在未來幾個月內重塑研究方向。他強調,Scaling Law并未失效,而是正在經歷演變。這一觀點打破了此前關于大模型發展瓶頸的猜測,為行業注入了新的信心。
在Gemini 3的研發過程中,谷歌團隊實現了從單純構建模型到構建完整系統的轉變。Sebastian解釋,這種轉變源于對AI發展范式的重新認識——數據資源正從無限供給轉向有限供給,迫使行業從粗放式發展轉向精細化運營。他透露,Gemini 3采用的混合專家模型(MoE)架構,正是這種轉變的典型代表,它追求的不僅是規模,更是效率與智能的平衡。
對于未來技術發展,Sebastian預測長上下文處理能力將持續進化。他設想,未來的模型將能夠同時處理整個代碼庫、多篇科研論文或長時間對話歷史,成為真正的數字工作臺。這種能力將為復雜任務處理、深度研究和創造性工作提供前所未有的支持。
在注意力機制方面,Sebastian的團隊正在探索更高效的實現方式。他暗示,現有機制仍有巨大改進空間,新的發現可能從底層提升模型的理解、推理和計算效率。這種改進不追求單一指標的突破,而是注重整體性能的提升。
谷歌三位頂級科學家Jeff Dean、Noam Shazeer和Oriol Vinyals的對談進一步印證了這些觀點。他們強調,AI發展已進入新階段,單純追求規模擴張的時代正在結束。Noam Shazeer特別指出,當前模型缺乏的是持續思考和自我修正的能力,而非簡單的智能水平。
這場討論中,"系統"成為核心關鍵詞。科學家們反復強調,Gemini不應被視為一個孤立模型,而是一個可長期運行、持續迭代的智能系統。這種定位反映了谷歌對AI發展的深層思考——穩定性、可擴展性和錯誤修復能力比單次性能表現更為重要。
當被問及AI發展是否已觸及天花板時,Sebastian表現出樂觀態度。他認為,大量細微但確定的改進空間和行業未枯竭的創造力,將支撐AI在未來幾年保持進步勢頭。這種信心源于他作為一線研究者親眼見證的技術積累和突破潛力。












