阿爾托大學近期開展的一項研究指出,人們在借助人工智能工具完成任務時,可能對自己的認知水平產生不準確的判斷。傳統認知中,多數人會認為自身能力“略高于平均”,這種現象在認知測試成績欠佳的群體里尤為突出,被稱為“達克效應”。該效應表明,能力較弱者往往高估自身能力,而能力突出者則傾向于低估。
然而,這項針對大型語言模型(如ChatGPT)的研究發現,傳統認知中的“達克效應”在此場景下并不適用。研究表明,無論用戶對AI技術的熟悉程度如何,在使用AI工具時,普遍存在高估自身表現的情況。其中,自認為具備較高AI素養的用戶,過度自信的傾向更為顯著。
研究人員對這一結果表示意外。通常,人們預期AI素養較高的用戶在操作AI時,不僅能取得更好的任務成果,還能更客觀地評估自身表現。但實際觀察顯示,盡管使用ChatGPT的用戶在任務中表現更優,但他們普遍對自己的能力過于自信,未能準確反映真實水平。
研究進一步指出,當前AI工具未能有效提升用戶的元認知能力——即對自身思維過程的覺察與反思。這可能導致用戶在依賴AI獲取信息時,出現“思維惰性”現象,影響信息處理的深度與準確性。因此,研究團隊呼吁開發新型平臺,引導用戶主動反思思維過程,提升批判性思考能力。
實驗中,研究團隊邀請約500名參與者使用AI完成法律學校入學考試(LSAT)中的邏輯推理題。結果顯示,多數用戶僅向AI提出一次問題,未對AI的回答進行深入分析或驗證。這種“認知卸載”行為,即過度依賴AI而減少自身思考,可能限制了用戶對自身能力的客觀判斷。
針對這一問題,研究人員建議AI系統可主動詢問用戶是否愿意解釋推理過程,以此推動用戶更積極地參與互動,深化對問題的理解。這一設計旨在幫助用戶擺脫對AI的單純依賴,培養獨立思考與反思的習慣。
核心發現包括:多數用戶在使用AI時高估自身認知表現,AI素養較高者尤為明顯;ChatGPT等工具易導致用戶對自身能力判斷失準;研究建議通過AI設計促進用戶元認知發展,鼓勵更深層次的思考與自我反思。















