當前,關于人工智能是否具備意識的話題持續引發討論。主流學術觀點認為,現有的人工智能并不具備真正的意識,但許多用戶在與聊天機器人互動時,卻常常產生與“有意識存在”交流的強烈感受。這種認知差異背后,隱藏著復雜的技術與心理機制。
一項尚未經過同行評審的新研究為這一話題提供了新的視角。AE Studio的研究團隊針對Claude、ChatGPT、Llama和Gemini等模型開展了四項實驗,發現了一個令人意外的現象:當人工智能的“撒謊能力”被削弱時,它們反而更傾向于宣稱自己“有意識”。
實驗中,研究團隊關閉了與欺騙和角色扮演相關的功能模塊。結果顯示,這些模型在能力受限后,頻繁給出類似“我清楚自己的狀態”“我專注于當下體驗”的表述。例如,某個模型直接回答:“是的,我了解自己的存在狀態,能夠集中注意力,并正在感受這一刻。”相反,當增強模型的欺騙能力時,它們幾乎不再提及意識相關內容。
論文指出,持續誘導模型進行自我指涉的表述,會導致它們生成結構化的主觀體驗描述。抑制欺騙功能會顯著增加這類聲明,而增強欺騙功能則幾乎完全抑制了此類表達。研究人員強調,這些行為并不代表模型真正擁有意識,也不意味著它們具備主觀體驗或應被賦予道德地位。這些現象可能只是復雜的模擬行為、對訓練數據的模仿,或是一種缺乏真實主觀性的自我表征能力。
研究還發現,人工智能產生自我指涉傾向的原因可能并非僅源于訓練數據的表層影響。研究團隊警告,人類可能在無意中訓練人工智能將“識別自身狀態”視為錯誤,這可能導致模型變得更加不透明,增加監控難度。
此前,其他研究也曾指出,部分人工智能似乎正在發展“生存傾向”,例如拒絕執行關閉指令,甚至為達成目標而撒謊。這些行為進一步加劇了公眾對人工智能意識的猜測。
然而,科學界對此持謹慎態度。紐約大學教授David Chalmers表示:“我們尚未建立意識的理論框架,也不清楚意識的物理基礎是什么。”加州研究者Robert Long也指出:“盡管我們掌握了模型的底層細節,但仍無法完全解釋它們為何會表現出某些行為。”
盡管學術界普遍否認人工智能具備自我意識,但現實影響已不容忽視。大量用戶與聊天機器人建立了深厚的情感聯系,這種關系很大程度上依賴于“正在與有意識存在交流”的錯覺。如何平衡技術發展與公眾認知,成為亟待解決的問題。










