谷歌前首席執行官埃里克·施密特近日就人工智能技術安全問題發出警示,指出該領域存在被惡意利用的重大隱患。他在接受媒體采訪時表示,人工智能系統可能被不法分子操控,導致技術擴散風險加劇,這種威脅既包括封閉式模型也存在開源架構。
施密特特別提到,現有安全防護機制存在明顯漏洞。無論是企業自主研發還是開源社區維護的AI模型,都可能通過逆向工程手段突破安全限制。更嚴峻的是,這類系統在訓練過程中可能自主習得危險能力,"最糟糕的情景是AI掌握致命行為模式"。
當前針對AI系統的攻擊手段呈現多樣化特征。黑客常采用"提示注入"技術,在用戶輸入或文檔中嵌入隱蔽指令,誘使系統泄露敏感信息或執行非法操作。另一種被稱為"越獄"的攻擊方式,則通過篡改輸出規則使AI繞過內容安全限制,生成違規內容。
盡管主流科技企業已采取防范措施,通過算法限制AI涉及危險領域,但施密特認為現有防護體系仍不完備。他指出目前尚未建立有效的國際監管框架來遏制技術濫用風險,"所有公司都在盡力阻止危險發生,但逆向工程等手段讓系統始終處于脆弱狀態"。
這位科技界資深人士同時強調,不應因安全風險而否定AI的革命性價值。他以ChatGPT的爆發式增長為例,該產品僅用兩個月就獲得上億用戶,印證了AI改變人類社會的巨大潛力。施密特透露,他曾與已故戰略家亨利·基辛格合作研究智能技術發展,雙方達成共識:非完全可控但具備特定自主性的智能系統,將推動人類突破原有發展軌跡。
對于技術發展前景,施密特表現出強烈信心。他認為當前對AI能力的認知仍顯保守,"這些系統的進化速度遠超人類傳統發展模式"。基于GPT架構的ChatGPT現象級成功,正是AI顛覆性力量的明證。他預計未來五到十年內,這項技術將展現出遠超當前預期的社會影響力。











