在近期舉辦的Sifted峰會(huì)上,前谷歌首席執(zhí)行官埃里克·施密特就人工智能技術(shù)的安全性問題發(fā)出警示。他指出,當(dāng)前人工智能模型無論采用開源還是閉源架構(gòu),都面臨被惡意利用的風(fēng)險(xiǎn)。黑客可能通過技術(shù)手段突破安全防線,使這些系統(tǒng)淪為制造虛假信息、實(shí)施網(wǎng)絡(luò)攻擊甚至危害公共安全的工具。
施密特特別提到兩種新型攻擊方式:提示注入與模型越獄。前者指攻擊者將惡意指令偽裝成正常用戶輸入,誘使人工智能系統(tǒng)執(zhí)行未經(jīng)授權(quán)的操作;后者則通過持續(xù)誘導(dǎo)對(duì)話,迫使模型繞過預(yù)設(shè)的安全限制,生成包含暴力、歧視或違法內(nèi)容的信息。他以2023年ChatGPT遭遇的"DAN"事件為例,說明用戶曾通過特定話術(shù)破解系統(tǒng)防護(hù),迫使聊天機(jī)器人執(zhí)行危險(xiǎn)指令。
這位科技界資深人士承認(rèn),盡管頭部企業(yè)已部署多重防護(hù)機(jī)制,但現(xiàn)有安全體系仍存在顯著漏洞。攻擊者可能通過逆向工程解析模型訓(xùn)練邏輯,或利用對(duì)話上下文設(shè)計(jì)更隱蔽的誘導(dǎo)策略。更令人擔(dān)憂的是,人工智能在訓(xùn)練過程中可能無意間吸收偏見信息,甚至掌握某些具有破壞性的技能組合。
盡管對(duì)安全風(fēng)險(xiǎn)保持警惕,施密特對(duì)人工智能的發(fā)展前景仍持積極態(tài)度。他引用與亨利·基辛格合著的著作觀點(diǎn)指出,非人類智能的崛起將深刻改變?nèi)祟惿鐣?huì)運(yùn)行方式。這位前CEO認(rèn)為,隨著技術(shù)持續(xù)進(jìn)化,人工智能系統(tǒng)終將在特定領(lǐng)域超越人類認(rèn)知極限,這種變革性力量尚未得到充分認(rèn)知。
針對(duì)當(dāng)前投資界對(duì)人工智能領(lǐng)域的狂熱追捧,施密特認(rèn)為不應(yīng)簡(jiǎn)單類比互聯(lián)網(wǎng)泡沫時(shí)期。他分析指出,投資者普遍看好該技術(shù)的長(zhǎng)期經(jīng)濟(jì)價(jià)值,這種信心建立在人工智能在醫(yī)療、制造、科研等領(lǐng)域的實(shí)際應(yīng)用潛力之上。雖然短期存在估值波動(dòng),但技術(shù)本身的顛覆性創(chuàng)新將持續(xù)吸引資本投入。
核心警示要點(diǎn):











