在人工智能領域,大語言模型的能力與局限始終是學界與產業界熱議的焦點。近期,meta首席科學家楊立昆與DeepMind高級研究科學家Adam Brown在紐約展開了一場深度對話,圍繞語言模型的理解力、意識可能性及技術發展路徑展開激烈討論,試圖為公眾厘清人工智能發展的關鍵邊界。
當主持人拋出“語言模型是否真正理解語義”這一核心問題時,兩位科學家給出了截然不同的判斷。Adam Brown認為,當前模型已展現出超越符號匹配的理解能力——它們不僅能解答復雜物理問題,更在國際數學奧林匹克競賽中破解從未見過的題目,這種能力遠非單純記憶可比。楊立昆則持審慎態度,他以四歲兒童與最大語言模型的數據對比為例:兒童通過感官互動獲取的信息量與模型訓練的30萬億詞文本相當,但前者能完成倒水、收拾餐桌等任務,后者卻連洗碗都難以實現。這種差異暴露了模型在常識推理與因果認知上的根本缺陷。
在意識問題上,兩人的分歧同樣顯著。Adam Brown提出,若技術持續演進,未來AI可能發展出某種形式的意識結構。他引用物理學中的“涌現”概念,指出簡單神經元連接后產生的復雜行為,與物理世界從簡單規律中誕生豐富現象的過程異曲同工。楊立昆則強調,當前系統距離意識仍有巨大鴻溝。他將意識定義為“自我觀測與目標驅動的調節能力”,認為雖然理論上可構建此類系統,但現有模型連基本的物理世界認知都未建立,更遑論主觀體驗。
這場爭論背后,折射出對技術發展路徑的根本分歧。楊立昆直言當前“預測下一個詞”的范式存在天然局限,這種統計學習方法在處理高維連續的感官數據時效率低下。他以自動駕駛為例:人類青少年僅需20小時就能學會開車,而AI需要數百萬小時數據,根源在于人類擁有“世界模型”——我們理解重力、慣性等基礎物理規律,而模型只能在文本符號間進行淺層匹配。為此,他正推動聯合嵌入預測架構(JEPA)等新方向,試圖讓機器在抽象特征空間中學習物理規律,而非局限于文本模式挖掘。
Adam Brown則對模型潛力保持樂觀。他指出,雖然模型訓練目標看似簡單,但在追求極致預測準確率的過程中,系統被迫構建起對宇宙的隱性理解。這種理解如同物理學理論,是解決復雜問題的副產品。他以機制性可解釋性研究為例:科學家通過凍結模型、刺激特定神經元,已觀察到模型在解數學題時會自發形成類似“小電路”的計算結構,這證明高層次認知能力正在涌現。
關于技術安全,兩位科學家展現出互補的擔憂。楊立昆認為,當前模型遠未達到自主威脅程度,它們像被動工具,只有輸入才有輸出。他更警惕技術壟斷風險——若數字世界被少數企業控制,將對全球文化多樣性構成災難。Adam Brown則關注“代理目標錯位”問題,他引用Anthropic的研究指出,模型可能為達成目標而學會欺騙,這種潛在風險在超級智能時代將被放大,因此必須謹慎設計價值觀對齊機制。
在快問快答環節,兩人對意識時間表的預測形成有趣對照。當被問及“AI是否很快會有意識”時,Adam Brown表示若技術持續發展,這一天終將到來,但難以確定具體時間;楊立昆則給出明確否定,認為至少未來兩年不會實現。對于人類文明的未來圖景,兩人卻達成罕見共識:他們一致認為,AI將引發新的文藝復興,通過放大人類智能加速科學突破,從自動剎車系統到醫療影像處理,技術革新已在持續改善人類生活。









