OpenAI近日宣布對旗下ChatGPT語言模型實施重大功能升級,重點強化心理健康支持能力。新版本將具備更精準識別心理危機信號的能力,可針對自殘傾向、自殺風險及情感依賴等高危場景提供溫和干預,引導用戶轉向專業救助渠道。
技術團隊與全球170余位心理學、精神醫學及危機干預專家展開深度合作,將臨床干預經驗轉化為算法邏輯。經過定向訓練的模型能區分中性對話、情緒化表達與緊急求助場景,動態調整回應策略。內部測試數據顯示,新版本對敏感話題的不當回應率降低80%,在復雜情緒對話中的可靠性超過95%。
升級后的系統不僅關注顯性危機信號,更能捕捉細微情感波動。例如在涉及精神健康、自我傷害等話題時,模型會通過漸進式提問評估風險等級,避免因直接質詢加重用戶心理負擔。對于依賴虛擬對話緩解孤獨感的用戶,系統將引導其建立現實社交聯系。
新模型基于GPT-5架構開發,在多輪對話中保持對敏感話題的持續追蹤能力。即使對話主題頻繁切換,系統仍能準確識別潛在風險點。OpenAI透露,后續將把認知偏差檢測納入安全機制,通過分析用戶思維模式識別負面心理循環,為心理健康研究提供數據支持。
此次升級標志著AI交互系統從內容生成向情感支持領域深化拓展。技術團隊強調,所有干預措施均遵循臨床心理學準則,確保在保護用戶隱私的同時提供有效支持。系統不會替代專業醫療建議,而是作為初級篩查工具幫助用戶及時獲得專業幫助。











