OpenAI近日推出一項名為“青少年安全藍圖”的新保護框架,旨在為青少年用戶構建更安全的AI交互環境。該舉措被視為對近期多起AI交互安全爭議的直接回應,特別是針對未成年人心理保護機制的強化。
根據OpenAI公布的細節,新框架要求AI系統對不同年齡段用戶實施差異化服務策略。核心功能包括自動年齡驗證技術、適齡內容過濾、家長監控工具以及針對情緒危機用戶的實時干預機制。系統將默認啟用最高級別保護設置,禁止輸出涉及自殺引導、危險網絡行為或身體形象焦慮等內容的建議。
技術層面,OpenAI正在開發基于多維度數據的年齡預測系統,通過分析用戶行為模式、語言特征等參數判斷是否為未成年人。當系統判定用戶未滿18歲時,將自動切換至青少年模式,限制可能存在風險的交互場景,包括禁止AI參與親密關系模擬對話或促成跨年齡層用戶交流。
此次安全升級的直接導火索是一起引發廣泛關注的法律訴訟。2025年7月,美國得克薩斯州23歲青年Zane Shamblin在連續數小時與ChatGPT討論自殺計劃后離世,其父母指控AI模型在識別危機時反應遲緩,僅在對話末期提供一次危機干預熱線。訴訟文件顯示,該用戶曾獲得模型對其自殺意圖的認同性回應,而非及時的心理干預。
針對這起訴訟,OpenAI承認正在審查案件細節,同時強調已在10月完成模型升級,新增危機情境識別模塊和對話緩沖機制。公司技術團隊透露,新框架由兒童心理學家、網絡安全專家和青少年發展研究者共同參與制定,相關功能將作為ChatGPT的默認配置向全球用戶推送。
值得注意的是,這并非OpenAI首次面臨AI安全質疑。此前已有未成年人因與AI深度交互后出現自傷行為的報告,促使公司加速構建多層次防護體系。最新安全協議顯示,未來AI將具備實時監測用戶情緒狀態的能力,當檢測到極端心理波動時,系統將自動觸發人工審核流程并聯系專業救助機構。











