康奈爾大學近期一項研究引發科技界廣泛關注,該研究揭示了大語言模型(LLM)在長期接觸低質量網絡內容后,可能出現理解力、推理能力及倫理判斷顯著衰退的現象。研究人員將此現象類比為“大腦退化”,并指出這可能印證了“死網論”的核心觀點——網絡生態因機器生成內容泛濫而逐漸喪失人類創造力。
實驗以meta的Llama 3和阿里云Qwen 2.5為樣本,通過模擬不同質量比例的數據訓練環境,發現當模型僅依賴低質量內容時,其準確率從74.9%暴跌至57.2%,長文本理解能力更是從84.4%腰斬至52.3%。更嚴重的是,模型表現出“劑量-反應效應”:持續接觸劣質數據會導致推理鏈條簡化甚至跳過,輸出內容趨于表面化,同時倫理一致性大幅下降,出現“人格漂移”傾向,甚至可能生成錯誤信息。
這一發現讓“死網論”重新成為焦點。該理論認為,當網絡內容被機器生成或低質信息占據主導時,人類創造力將被邊緣化。Reddit聯合創始人Alexis Ohanian直言,當前互聯網“已部分死亡”,大量內容由機器或半AI系統生成,社交平臺充斥低質信息。他呼吁構建能驗證人類真實性的新型社交網絡。OpenAI首席執行官Sam Altman則指出,多數X(原Twitter)賬號已由AI接管,印證了“死網論”的現實性。
網絡內容質量危機正加速蔓延。亞馬遜云科技(AWS)去年報告顯示,約57%的網絡內容由AI生成或翻譯,這一趨勢直接沖擊搜索結果的可靠性與質量。前Twitter首席執行官Jack Dorsey警告,隨著圖像生成、深度偽造和視頻合成技術的普及,信息真偽將更難分辨,用戶需通過親身體驗驗證信息。
業內專家提醒,若AI模型與網絡生態持續陷入低質量循環,“死網論”可能從預言變為現實。當前互聯網正面臨內容真實性與質量下滑的雙重挑戰,如何平衡技術發展與內容生態健康,已成為全球科技界亟待解決的課題。











