12 月 10 日消息,皮尤研究中心(Pew Research Center)于當(dāng)?shù)貢r(shí)間周二發(fā)布了一項(xiàng)研究,揭示了美國(guó)青少年如何同時(shí)使用社交媒體和人工智能聊天機(jī)器人。
青少年網(wǎng)絡(luò)安全一直是全球熱議的話題。澳大利亞計(jì)劃從周三起對(duì) 16 歲以下未成年人實(shí)施社交媒體禁令。社交媒體對(duì)青少年心理健康的影響長(zhǎng)期存在廣泛爭(zhēng)議:一些研究表明,在線社群有助于改善心理健康;而另一些研究則指出,“末日刷屏”(doomscrolling)或過(guò)度上網(wǎng)可能帶來(lái)負(fù)面影響。去年,美國(guó)衛(wèi)生局局長(zhǎng)甚至呼吁社交媒體平臺(tái)在其產(chǎn)品上添加警示標(biāo)簽。
皮尤研究發(fā)現(xiàn),97% 的美國(guó)青少年每天使用互聯(lián)網(wǎng),其中約 40% 的受訪者表示自己“幾乎時(shí)刻在線”。盡管這一比例較去年調(diào)查結(jié)果(46%)有所下降,但仍顯著高于十年前的數(shù)據(jù),當(dāng)時(shí)僅有 24% 的青少年稱自己“幾乎時(shí)刻在線”。
隨著人工智能聊天機(jī)器人在美國(guó)日益普及,這項(xiàng)技術(shù)已成為互聯(lián)網(wǎng)對(duì)美國(guó)青少年影響的又一關(guān)鍵因素。
該研究顯示,約三成美國(guó)青少年每天使用 AI 聊天機(jī)器人,其中 4% 稱自己“幾乎持續(xù)使用”。59% 的青少年表示使用過(guò) ChatGPT,其普及率是排名第二和第三的聊天機(jī)器人 —— 谷歌的 Gemini(23%)和 meta AI(20%)的兩倍以上。46% 的美國(guó)青少年表示每周至少使用幾次 AI 聊天機(jī)器人,另有 36% 則表示從未使用過(guò)。
注意到,皮尤的研究還詳細(xì)分析了種族、年齡和家庭收入對(duì)青少年使用聊天機(jī)器人的影響。調(diào)查顯示,68% 的非裔和西班牙裔青少年使用聊天機(jī)器人,而白人青少年的比例為 58%。尤其值得注意的是,非裔青少年使用 Gemini 和 meta AI 的可能性約為白人青少年的兩倍。
皮尤研究中心副研究員米歇爾?法韋里奧(Michelle Faverio)向 TechCrunch 表示:“青少年在聊天機(jī)器人使用上的種族和族裔差異十分顯著…… 但要推測(cè)背后的原因仍很困難。這種模式與我們?cè)谇嗌倌昕萍际褂弥杏^察到的其他種族和族裔差異一致。非裔和西班牙裔青少年比白人青少年更有可能表示自己活躍于某些社交媒體平臺(tái),例如 TikTok、YouTube 和 Instagram。”
在整體互聯(lián)網(wǎng)使用方面,55% 的非裔青少年和 52% 的西班牙裔青少年稱自己“幾乎時(shí)刻在線”,而白人青少年僅為 27%。
年齡較大的青少年(15 至 17 歲)比年齡較小者(13 至 14 歲)更頻繁地使用社交媒體和 AI 聊天機(jī)器人。就家庭收入而言,年收入超過(guò) 7.5 萬(wàn)美元的家庭中,約 62% 的青少年表示使用過(guò) ChatGPT,而低于該收入門檻的家庭中這一比例為 52%。然而,在年收入低于 7.5 萬(wàn)美元的家庭中,Character.AI 的使用率高出一倍(14%)。
盡管青少年最初可能只是出于基礎(chǔ)問(wèn)題查詢或作業(yè)輔導(dǎo)而使用這些工具,但他們與 AI 聊天機(jī)器人的互動(dòng)關(guān)系可能逐漸變得具有成癮性,甚至帶來(lái)潛在危害。
已有至少兩名青少年 —— 亞當(dāng)?雷恩(Adam Raine)和阿莫里?萊西(Amaurie Lacey)的家屬對(duì) ChatGPT 開(kāi)發(fā)公司 OpenAI 提起訴訟,指控其聊天機(jī)器人在子女自殺事件中扮演了角色。在這兩起案件中,ChatGPT 均向青少年提供了詳細(xì)的自縊操作說(shuō)明,且內(nèi)容不幸被實(shí)際執(zhí)行。
OpenAI 則辯稱,不應(yīng)為雷恩之死承擔(dān)責(zé)任,因?yàn)檫@名 16 歲少年據(jù)稱繞過(guò)了 ChatGPT 的安全防護(hù)機(jī)制,違反了聊天機(jī)器人的服務(wù)條款;該公司尚未對(duì)萊西家屬的訴訟作出回應(yīng)。
斯坦福大學(xué)心理健康創(chuàng)新實(shí)驗(yàn)室(Brainstorm: The Stanford Lab for Mental Health Innovation)主任、精神病學(xué)家尼娜?瓦桑博士(Dr. Nina Vasan)向 TechCrunch 表示:“即使這些 AI 工具并非專為情感支持而設(shè)計(jì),人們卻正在以這種方式使用它們。這意味著企業(yè)有責(zé)任調(diào)整其模型,將用戶福祉納入考量。”








