在近期舉辦的世界互聯網大會烏鎮峰會上,奇安信安全專家黃巍針對人工智能時代的安全挑戰發表了專業見解。他指出,隨著AI技術深度融入社會各領域,其帶來的新型網絡風險正呈現多元化特征,這些風險貫穿于AI系統的全生命周期。
據黃巍分析,訓練階段的數據安全是首要風險點。攻擊者通過向訓練數據集植入惡意樣本,可直接影響模型的學習效果,導致生成結果出現系統性偏差。這種"數據投毒"行為不僅降低模型準確率,更可能引發連鎖反應,使基于該模型的決策系統產生錯誤判斷。
服務階段的攻擊手段則更具破壞性。身份冒用和分布式拒絕服務(DDoS)攻擊已成為主要威脅形式。前者通過偽造合法用戶身份干擾模型服務,后者則通過海量請求耗盡系統資源,兩種方式均可導致模型服務中斷或性能驟降,對關鍵基礎設施構成嚴重威脅。
應用層面的風險更具隱蔽性。攻擊者利用精心設計的提示詞,在正常交互中植入惡意指令,既可能造成計算資源異常消耗,也可能通過內容誘導實現信息竊取。這種"提示詞注入"攻擊方式因其難以察覺的特性,正在成為新的安全焦點。
面對日益復雜的AI安全形勢,行業普遍認為需要構建"以AI制AI"的防御體系。這種技術路線通過部署智能檢測系統,可實時識別異常行為模式,實現風險預警和自動處置。但黃巍特別強調,AI防御工具本身存在局限性,其生成的檢測結果可能存在誤判或虛構內容,因此必須建立人工復核機制作為補充。
當前,各行業正在加速推進AI技術應用,從智能制造到智慧城市,從金融科技到醫療診斷,AI已成為數字化轉型的核心驅動力。這種全面滲透的趨勢倒逼安全防護體系同步升級,促使企業加大在AI安全產品和服務領域的投入,形成技術防護與規范治理并重的雙重保障機制。











