卡帕西以自動(dòng)駕駛領(lǐng)域的發(fā)展為案例,揭示了技術(shù)從演示到產(chǎn)品化的巨大鴻溝。他回憶道,1986年就已出現(xiàn)卡車自動(dòng)駕駛演示,2014年體驗(yàn)Waymo時(shí)也獲得了近乎完美的駕駛體驗(yàn),但十年過去,自動(dòng)駕駛行業(yè)仍面臨諸多挑戰(zhàn)。他用"三個(gè)九"的可靠性標(biāo)準(zhǔn)形容這一過程:從90%到99%,再到99.9%,每提升一個(gè)數(shù)量級都需要投入與之前相當(dāng)?shù)馁Y源。在特斯拉的五年里,團(tuán)隊(duì)可能只推進(jìn)了兩到三個(gè)"九"的可靠性。
這位技術(shù)專家特別指出,當(dāng)前被寄予厚望的AI智能體存在根本性認(rèn)知缺陷。它們?nèi)狈φ嬲某掷m(xù)學(xué)習(xí)能力,多模態(tài)能力仍處于初級階段。卡帕西以自己構(gòu)建nanochat(ChatGPT極簡復(fù)刻版)的經(jīng)歷為例,發(fā)現(xiàn)現(xiàn)有AI編程助手在編寫非樣板化新代碼時(shí)幾乎毫無幫助。他將這類工具斥為"殘次品",并具體指出三大問題:無法理解定制化方案、傾向于編寫臃腫過時(shí)代碼、以及自然語言溝通效率低下。
對于行業(yè)熱議的"AI自動(dòng)化AI研究"路徑,卡帕西持強(qiáng)烈保留態(tài)度。他認(rèn)為當(dāng)前強(qiáng)化學(xué)習(xí)(RL)是用吸管吸監(jiān)督信號的低效方式,信號稀薄且嘈雜,存在錯(cuò)誤答案被獎(jiǎng)勵(lì)、正確推理被懲罰的風(fēng)險(xiǎn)。他更看好系統(tǒng)提示學(xué)習(xí)與基于智能體交互的新型學(xué)習(xí)范式,認(rèn)為ChatGPT的記憶系統(tǒng)就是這種思路的早期原型。
在技術(shù)路線選擇上,卡帕西提出了"認(rèn)知核心"概念。他通過剝離模型記憶能力來增強(qiáng)泛化性能,指出人類記憶有限反而形成了強(qiáng)大的抽象推理能力,而LLM記憶過多則傾向于復(fù)述而非理解。他提出一個(gè)反直覺觀點(diǎn):模型必須先變得更大以獲得足夠多樣性,然后才能提煉出核心結(jié)構(gòu)變得更小。
關(guān)于AGI的經(jīng)濟(jì)影響,卡帕西給出了出人意料的預(yù)測。他認(rèn)為AI不會(huì)帶來經(jīng)濟(jì)爆炸,而是會(huì)平滑地融入過去數(shù)百年2%的GDP年增長曲線。他以計(jì)算機(jī)發(fā)明、互聯(lián)網(wǎng)普及、iPhone誕生等"革命性"技術(shù)為例,指出這些創(chuàng)新都沒有在GDP曲線上造成突兀尖峰,而是通過緩慢漸進(jìn)的方式被吸收到現(xiàn)有增長軌跡中。AGI同樣不會(huì)改變這條曲線的斜率,只是讓我們能繼續(xù)保持增長。
在為行業(yè)降溫的同時(shí),卡帕西也公布了自己的新計(jì)劃——?jiǎng)?chuàng)辦教育項(xiàng)目"Eureka"。他坦言最恐懼的未來不是AI失控,而是人類淪為無用的旁觀者。這個(gè)被比作"星際艦隊(duì)學(xué)院"的項(xiàng)目,旨在培養(yǎng)能駕馭前沿技術(shù)的人類精英。卡帕西描繪了一個(gè)AGI時(shí)代的教育圖景:當(dāng)AI消除學(xué)習(xí)摩擦力后,教育目的將從"有用"轉(zhuǎn)向"有趣",就像現(xiàn)代人健身不是為了搬運(yùn)重物,而是因?yàn)檫^程本身充滿樂趣且能帶來自我實(shí)現(xiàn)。











