谷歌在大模型領域即將迎來一場顛覆性變革。Google DeepMind的Gemini預訓練負責人Sebastian Borgeaud在接受采訪時透露,未來一年,長上下文處理效率與上下文長度擴展將成為技術突破的核心方向。這一觀點與Jeff Dean、Oriol Vinyals和Noam Shazeer三位頂尖科學家的對談內容不謀而合,進一步印證了谷歌在AI領域的戰略布局。
Sebastian指出,谷歌在注意力機制方面取得了突破性進展,這些發現可能在未來幾個月內重塑研究方向。他強調,Scaling Law并未失效,而是正在經歷演變。這一觀點打破了外界對傳統模型擴展路徑的質疑,為AI發展提供了新的理論支撐。作為Gemini 3的預訓練負責人,Sebastian首次公開分享了實驗室的底層思維邏輯,揭示了從單一模型訓練向系統化構建的范式轉變。
Gemini 3的性能飛躍源于預訓練與后期訓練的協同優化。Sebastian解釋稱,團隊通過持續調整"旋鈕"參數,在龐大系統中實現了無數細微改進的聚合。這種積累效應推動了AI從粗放式數據堆砌向精細化資源利用轉型。他特別提到,當前數據資源正從"無限供給"轉向"有限約束",迫使行業重新思考模型架構的核心價值。
混合專家模型(MoE)成為Gemini 3的技術基石。這種架構突破了單純追求規模的傳統路徑,轉而構建"大而高效"的智能系統。Sebastian透露,團隊正在探索如何讓模型像人類一樣動態調用知識庫,而非將所有信息固化在參數中。這種檢索與推理的原生結合,可能突破現有參數規模的知識容量限制。
在技術前沿方向上,Sebastian預測長上下文處理將迎來雙重突破。超長上下文不僅意味著記憶容量的提升,更將構建真正的數字工作臺。模型可同時加載代碼庫、科研論文和對話歷史,實現跨領域的連貫分析。這種能力為復雜任務處理和深度研究開辟了新可能,是通往更強大智能體的關鍵基礎設施。
三位頂尖科學家的對談揭示了更深層的戰略轉向。Noam Shazeer特別強調"慢思考"理念,主張將研發重心從性能峰值轉向系統穩定性。他指出,當前模型缺乏持續修正能力,單純追求規模擴張已接近邊界。Jeff Dean補充稱,智能正在從抽象能力轉化為工程開銷,需要像CPU和硬盤一樣納入成本考量。這種思維轉變導致傳統Benchmark指標逐漸失效,行業開始關注模型的長期運行能力。
Gemini被定義為"系統"而非"模型"的表述引發關注。Noam解釋稱,系統思維強調可擴展性和容錯機制,關注十年甚至二十年的穩健運行。這種定位使谷歌擺脫了與競爭對手的參數競賽,轉而構建可迭代的智能工業體系。對談中未出現任何產品宣發或對標言論,凸顯出谷歌對長期技術價值的堅守。







