前特斯拉AI總監、OpenAI創始成員安德烈·卡帕西近日接受深度訪談,針對人工智能現狀與未來發表了諸多顛覆性觀點。在長達兩個半小時的對話中,這位行業領軍人物不僅剖析了當前技術瓶頸,更對主流研究方法提出尖銳批評,引發學術界與產業界的廣泛討論。
當業界普遍聚焦"智能體元年"概念時,卡帕西卻提出更具挑戰性的判斷:"我們需要面對的是智能體的十年發展期。"他以實習生類比AI系統指出,現有模型在多模態交互、持續學習、計算機操作等核心能力上存在根本缺陷。這位資深研究者結合二十年從業經驗預測,解決這些基礎性問題至少需要十年時間,而非某些機構宣稱的短期突破。
在開源項目nanochat的開發過程中,卡帕西親身驗證了語言模型的認知局限。這個耗資不足百美元的簡易版ChatGPT項目,意外暴露出編程助手的嚴重缺陷。"模型總是試圖套用互聯網上的標準模式,完全忽視定制化需求。"他舉例說明,當開發者放棄PyTorch標準容器時,AI助手仍頑固地推薦過時方案,導致代碼庫膨脹且結構混亂。這種過度依賴訓練數據的"記憶式編程",反而阻礙了創新實現。
對強化學習技術的批判成為訪談焦點。卡帕西將其比作"用吸管汲取監督信號",指出這種將最終結果信號分散到整個決策過程的做法既低效又荒謬。"人類學習不會進行數百次重復試驗,更不會將最終獎勵機械地反推到每個動作。"他強調,當前大模型訓練缺乏人類特有的反思復盤機制,導致生成內容逐漸陷入"隱性坍縮"——看似合理的輸出實質上覆蓋范圍極窄,多樣性嚴重不足。
通過與人類認知方式的對比,研究者揭示了AI發展的雙重困境:一方面模型因過度記憶訓練數據而喪失泛化能力,另一方面又因缺乏主動思考導致內容多樣性枯竭。卡帕西以"做夢"機制為例,指出人類大腦通過引入隨機性對抗認知固化,而當前AI系統尚無類似平衡機制。這種認知缺陷使得模型生成的文本逐漸趨同,就像成年人因思維固化而重復陳詞濫調。
在評估AI經濟影響時,卡帕西提出務實標準:應關注具體業務場景中的實際效能,而非抽象能力指標。他以醫療影像診斷為例,指出復雜認知工作的自動化進程將遠慢于預期,更可能呈現"人機協作"的漸進模式。對于通用人工智能(AGI)的經濟效應,這位研究者認為其影響將分散在長期經濟曲線中,如同計算機革命般緩慢滲透,而非引發突變式增長。
訪談中觸及的多個前沿議題引發持續熱議。關于人工超級智能(ASI)的討論,卡帕西警示自動化系統復雜度可能超越人類理解范疇;在自動駕駛領域,他強調實現99.9%可靠性需要持續投入;針對教育變革,則提出智能體可能演化出獨特"文化"的驚人設想。這些觀點在外網平臺獲得高度關注,被網友譽為"AI發展路線圖的清醒劑"。





















