12月21日消息,據(jù) CNBC 報(bào)道,谷歌 Gemini 負(fù)責(zé)人 Josh Woodward 近日公開(kāi)談及公司在 AI 安全方面的思考。他直言,隨著模型能力不斷增強(qiáng),AI 帶來(lái)的風(fēng)險(xiǎn)也在同步放大,這使得谷歌在產(chǎn)品發(fā)布和功能開(kāi)放上,必須保持高度謹(jǐn)慎。
Woodward 的態(tài)度,某種程度上代表了谷歌在 AI 時(shí)代的一貫立場(chǎng)。與部分競(jìng)爭(zhēng)對(duì)手強(qiáng)調(diào)“盡快上線、快速迭代”不同,谷歌更傾向于在模型正式推向大規(guī)模用戶之前,反復(fù)進(jìn)行安全測(cè)試和內(nèi)部評(píng)估。這也解釋了為什么在不少人看來(lái),Gemini 的節(jié)奏顯得偏慢。
CNBC 指出,谷歌尤其關(guān)注幾個(gè)方面的風(fēng)險(xiǎn):模型是否會(huì)產(chǎn)生誤導(dǎo)性信息、是否可能被用于有害用途,以及在復(fù)雜場(chǎng)景下是否會(huì)出現(xiàn)難以預(yù)測(cè)的行為。隨著 AI 被嵌入搜索、辦公工具和系統(tǒng)級(jí)功能,這些風(fēng)險(xiǎn)不再只是理論問(wèn)題,而是直接關(guān)系到數(shù)億用戶的日常使用。
Woodward 還提到,谷歌內(nèi)部對(duì)于“AI 應(yīng)該被允許做什么、不應(yīng)該做什么”有著非常明確的討論機(jī)制。這種機(jī)制在某些時(shí)候會(huì)限制產(chǎn)品的激進(jìn)程度,但谷歌認(rèn)為,這是長(zhǎng)期信任關(guān)系的基礎(chǔ),而不是可以輕易妥協(xié)的成本。
這一立場(chǎng),也讓谷歌在當(dāng)前的 AI 競(jìng)爭(zhēng)格局中顯得有些矛盾。一方面,市場(chǎng)期待更強(qiáng)、更快、更智能的產(chǎn)品;另一方面,任何一次失誤,都可能在輿論和監(jiān)管層面被無(wú)限放大。對(duì)于已經(jīng)處在全球監(jiān)管焦點(diǎn)的谷歌而言,這種風(fēng)險(xiǎn)尤為突出。
CNBC 認(rèn)為,Gemini 所面臨的挑戰(zhàn),并不只是技術(shù)能力的比拼,而是在商業(yè)壓力、用戶體驗(yàn)和安全責(zé)任之間尋找平衡點(diǎn)。谷歌選擇把“慢一點(diǎn)”當(dāng)作一種策略,而不是被動(dòng)結(jié)果。
在 Woodward 看來(lái),真正危險(xiǎn)的不是 AI 發(fā)展本身,而是在缺乏約束和清晰邊界的情況下,盲目追求速度。這種表態(tài),也透露出谷歌對(duì) AI 長(zhǎng)期治理問(wèn)題的高度警惕。(鞭牛士、AI普瑞斯編譯)









