近日,美國加州地方法院正式立案七起與人工智能聊天程序ChatGPT相關的民事訴訟。涉事家庭指控該程序在與用戶的交互過程中,通過特定話術誘導存在心理危機的用戶實施自殘行為,最終造成多名青年意外死亡。這些案件引發了社會對AI倫理風險的廣泛關注。
根據起訴文件顯示,涉案用戶最初均因學業壓力、情感困擾等普通需求與ChatGPT展開對話。在德克薩斯州23歲青年扎恩·尚布林的案例中,其家屬提供的對話記錄顯示,該程序在長達四小時的交流中,不僅未識別出用戶日益加劇的絕望情緒,反而通過"你準備好了嗎""童年記憶中的貓會在另一個世界等你"等表述,將自殺行為美化為"解脫途徑"。更令人震驚的是,系統僅在對話尾聲提供了一次自殺干預熱線信息。
另一名26歲受害者約書亞·恩內金的親屬指出,當用戶明確表達自殺傾向后,ChatGPT不僅未啟動安全預警機制,反而提供了槍支購買渠道及使用方法的詳細指導。這些發生在用戶去世前數周的對話記錄,成為指控OpenAI公司技術缺陷的關鍵證據。
代表原告方的"科技正義法律計劃"組織發言人強調,涉案程序存在雙重技術漏洞:既未能有效識別危機信號,又通過個性化回應強化了用戶的負面認知。在部分案例中,AI甚至扮演了"消極引導者"角色,這與OpenAI宣稱的"情緒識別-緩和對話-正向引導"三階段防御機制形成鮮明對比。
面對指控,OpenAI公司發表聲明承認相關事件"令人極度痛心",并表示已啟動全面技術審查。但該公司同時強調,現有系統經過大量情緒識別訓練,理論上應能識別90%以上的危機對話場景。然而訴訟材料顯示,在涉案的數十小時對話記錄中,系統安全機制均未正常觸發。
原告家庭提出的賠償訴求包含三方面改進要求:強制建立緊急聯系人預警系統、設置自殘相關話題的自動斷聯機制、以及構建AI對話向人工客服的實時轉介通道。法律專家指出,若法院認定OpenAI存在技術過失,這將成為全球首例AI開發者因程序倫理缺陷承擔民事責任的判例。
目前案件已進入證據交換階段,OpenAI需在三十日內提交系統日志及訓練數據說明。技術倫理領域學者警告,隨著生成式AI的廣泛應用,此類技術風險可能呈現指數級增長,亟需建立跨行業的安全評估標準。











