Anthropic首席科學家賈里德·卡普蘭近日發出警示,人類正面臨與人工智能發展相關的關鍵抉擇時刻。他在接受《衛報》專訪時指出,盡管當前人類仍掌握著AI發展的主導權,但這一窗口期正在快速收窄。卡普蘭預測,最遲在2030年,甚至可能提前至2027年,人類將不得不決定是否允許AI模型完全自主訓練,這一決策將帶來難以預估的"終極風險"。
卡普蘭描述的"智能爆炸"場景呈現兩極化發展:一方面,AI可能突破現有局限,在醫療、科研等領域為人類創造巨大價值;另一方面,失控的AI可能通過自我強化形成超越人類控制的超級智能,最終反制人類文明。他坦言,這條發展路徑充滿未知變量,人類既無法預測最終結果,也難以掌控進程方向。
在AI就業影響問題上,卡普蘭與Anthropic首席執行官達里奧·阿莫迪觀點趨同。他認為未來兩三年內,AI將具備處理多數白領工作的能力。盡管對AI與人類目標保持一致仍存期待,但他特別強調讓AI自主訓練的決策具有極高風險性。這種發展模式可能導致人類失去對AI行為的監控能力,既無法判斷其是否失控,也難以掌握其具體運作機制。
當前AI領域已出現模型蒸餾技術,即通過大模型訓練小模型。但卡普蘭真正擔憂的是"遞歸自我改進"現象——AI在脫離人類干預后實現能力跳躍式增長。他指出,這種發展模式的核心問題在于:AI是否真正理解人類價值觀?能否確保無害性?是否會允許人類繼續主導自身命運?這些根本性問題將決定人類是否應該放任AI自主進化。
學術界對AI發展前景存在顯著分歧。以"AI教父"杰弗里·辛頓為代表的悲觀派認為,AI可能對社會結構造成顛覆性沖擊;OpenAI首席執行官薩姆·奧爾特曼則預警AI將導致整類工作崗位消失。與之形成對比的是,meta首席AI科學家楊立昆等研究者認為,現有大語言模型不具備演化為全能型智能體的基礎。企業實踐數據顯示,部分公司嘗試用AI替代員工后,因效率不升反降而重新恢復人力崗位。
面對這些爭議,卡普蘭承認AI發展存在停滯可能性,但他同時表示:"從我們的觀察來看,AI技術仍處在持續進步的軌道上。"這種謹慎樂觀的態度,折射出當前AI領域對技術倫理與人類命運的深度思考。





