為營造健康有序的網絡環境,有效應對人工智能技術帶來的內容治理挑戰,中央網信辦會同國家發改委、教育部、科技部等四部門,于今年聯合出臺《人工智能生成合成內容標識管理辦法》。該文件首次為AI生成內容特別是視頻類內容劃定了清晰的監管框架,明確要求平臺對合成內容進行顯著標識,從源頭遏制深度偽造信息的傳播風險。
抖音平臺技術負責人李亮在轉發央視相關報道時透露,該平臺已研發出謠言治理智能體系統。該系統通過接入權威信源數據庫,能夠在30秒內完成對疑似謠言的交叉驗證,并自動觸發處置流程。測試數據顯示,新系統對虛假信息的識別準確率較傳統人工審核提升67%,處置時效縮短至分鐘級。
技術升級的同時,平臺方持續強化多方協同治理機制。李亮特別指出,單純依賴技術手段難以根治謠言問題,需要構建"技術+人工"的復合防控體系。目前抖音已建立包含媒體機構、政務部門、專業學者在內的2000余家權威信源庫,并開通全民舉報通道,今年以來累計接收用戶提供的辟謠線索超120萬條。
據平臺公布的數據顯示,自實施AI治理專項行動以來,抖音日均攔截AI生成虛假視頻超45萬條,標記可疑賬號1.2萬個。針對深度偽造技術濫用現象,平臺特別組建了由安全專家、法律顧問組成的專項小組,對涉及公共利益的敏感內容進行雙重核驗。李亮表示,內容安全始終是平臺發展的生命線,未來將持續優化技術防控策略,與社會各界共同維護清朗網絡空間。











