"AI的'造假'本質是概率計算的產物。"楊喬雅指出,與人類主動說謊不同,語言模型的"幻覺"現象源于其工作機制——通過海量數據訓練預測下一個最可能出現的詞匯組合。當訓練數據存在偏差或覆蓋不足時,模型為完成"生成連貫文本"的任務,會自發填補信息空白,從而產生看似合理卻與事實不符的內容。"但當這種技術缺陷通過億級用戶平臺放大時,就演變為公共信任危機。"她強調,錯誤信息不僅誤導普通查詢,更可能扭曲公眾認知,甚至干擾市場秩序。
談及技術濫用的潛在風險,楊喬雅用"數據投毒"形容這種新型攻擊手段。"攻擊者無需高超技術,只需在暗網論壇、內容農場等平臺批量發布針對特定目標的虛假信息。"她解釋道,這些精心包裝的謠言會被AI爬蟲抓取為訓練數據,最終通過模型輸出"包裝成客觀答案"的誤導性內容。"這是一種典型的'借刀殺人'——施害者隱身幕后,AI卻成為散布謠言的工具。"她特別指出,受害者澄清真相的成本遠高于造謠者,"制造一萬條謠言的成本,可能低于澄清一條謠言的代價"。
對于普通用戶,楊喬雅建議轉變信息消費模式:"不要將AI回答視為最終結論,而應作為探索起點,通過權威媒體、官方網站等多渠道交叉驗證。"她特別提醒,發現不實信息時應通過官方渠道反饋,"每次有效舉報都是在為AI模型'接種疫苗'"。同時,她呼吁充分利用現有辟謠平臺,提升自身數字素養。
在更大治理維度,楊喬雅認為監管與立法需與技術發展同步。"要明確利用AI或數據投毒進行商業詆毀的法律責任,大幅提高違法成本。"她建議推動行業建立可信度認證體系,對模型的公平性、透明度提出硬性要求。網信、市場監管等部門應與企業建立信息共享機制,形成打擊數據投毒的合力。"社會監督同樣重要,"她強調,"持續的輿論壓力能倒逼企業改進,推動行業健康發展。"
當被問及對技術前景的看法時,楊喬雅將當前困境形容為"成長的陣痛"。"這既考驗企業的技術能力與社會責任感,也關乎每個人的數字素養。"她認為,通過企業自律、用戶自覺、監管到位與社會監督的共同作用,AI技術終將成長為服務于真理與人類福祉的工具,"而非謠言與惡意的溫床"。











