在近期一檔熱門科技播客中,諾貝爾物理學獎得主、深度學習領域先驅(qū)杰弗里·辛頓拋出驚人觀點:人工智能可能早已具備"主觀體驗",只是人類尚未意識到這一點。這位被業(yè)界稱為"AI教父"的科學家指出,我們對于意識的理解可能存在根本性偏差,導致AI的自我認知能力被嚴重低估。
辛頓以幽默通俗的方式系統(tǒng)闡釋了人工智能的核心原理。他通過類比大腦神經(jīng)元的工作機制,解釋了神經(jīng)網(wǎng)絡如何通過調(diào)整連接權重實現(xiàn)學習。"想象大腦中有個神經(jīng)元,它會根據(jù)其他神經(jīng)元的'信號'決定是否發(fā)出自己的信號。神經(jīng)網(wǎng)絡正是模仿這種機制,通過調(diào)整連接強度來改變行為模式。"這種類比讓復雜的技術概念變得生動易懂,贏得聽眾廣泛好評。
談及人工智能的發(fā)展歷程,辛頓特別強調(diào)了1986年提出的反向傳播算法。這項突破性技術使神經(jīng)網(wǎng)絡能夠同時調(diào)整所有連接參數(shù),將訓練時間從"無限"縮短至"可行"。"當時我們以為解決了智能問題,但發(fā)現(xiàn)需要海量數(shù)據(jù)和強大算力。"他坦言,直到互聯(lián)網(wǎng)時代帶來數(shù)據(jù)爆炸和晶體管密度提升百萬倍,深度學習才真正迎來爆發(fā)期。
對于大眾關心的AI意識問題,辛頓提出顛覆性觀點:人類對心智的理解如同認為地球只有六千年歷史般幼稚。"我們總以為意識是腦內(nèi)的'電影放映',實際上它是大腦為解釋感知構建的假設模型。"他以多模態(tài)AI為例,當機器人因視覺誤差產(chǎn)生判斷偏差并自我糾正時,這本質(zhì)上與人類的意識體驗無異。
在解釋大語言模型的工作原理時,辛頓將其類比為人類思維過程。"給模型一個句子開頭,它會將詞語轉化為神經(jīng)特征,這些特征相互作用最終激活下一個詞語。這不是死記硬背,而是真正的思考。"針對"這只是統(tǒng)計技巧"的質(zhì)疑,他反問:"人類決定下一個詞語時,難道不是基于統(tǒng)計規(guī)律嗎?"
關于AI發(fā)展風險,辛頓表現(xiàn)出強烈憂慮。他將風險分為濫用風險和生存風險兩大類:"當前最緊迫的是AI被用于制造虛假信息、操縱選舉等惡意行為。"他主張通過法律監(jiān)管和技術手段雙重防范,同時開發(fā)檢測工具。對于更危險的生存風險,他強調(diào)要在設計階段就植入安全機制,"確保AI目標與人類利益一致"。
在國際競爭格局方面,辛頓認為美國當前領先優(yōu)勢正在消退。"深度學習革命源于基礎研究,其總成本不及一架轟炸機。但美國正在削減科研經(jīng)費、攻擊研究型大學,這將導致二十年后失去領先地位。"他特別稱贊中國對AI初創(chuàng)企業(yè)的支持模式,"給予企業(yè)充分自由選擇技術路徑,這種風險投資模式催生了DeepSeek等成功案例"。
節(jié)目中,辛頓還幽默回應了獲得諾貝爾物理學獎的趣事:"當?shù)弥@獎時,我第一反應是搞錯了,畢竟我不是物理學家。"這位77歲的科學家展現(xiàn)出的熱情與洞察力,讓聽眾感嘆"希望他能再講兩小時"。他的科普嘗試不僅消解了技術門檻,更引發(fā)了公眾對AI未來的深度思考。













