OpenAI近日推出首款社交媒體應用Sora,該產品由視頻生成模型Sora 2驅動,提供類似TikTok的AI視頻流服務。然而,這款應用的上線在內部引發了激烈討論,多位現任及前任研究員公開表達了對技術倫理與商業化的雙重擔憂。
據科技媒體報道,Sora應用中充斥著大量AI生成的短視頻內容,其中不乏針對OpenAI首席執行官薩姆·奧特曼的深度偽造影像。這種技術濫用現象迅速引發爭議,部分研究員認為該產品可能背離公司“開發造福人類的先進AI”的初衷。
OpenAI預訓練研究員約翰·霍爾曼在社交平臺發文稱:“基于AI的信息流存在潛在風險。得知公司要發布Sora 2時,我確實感到不安。盡管團隊在優化用戶體驗方面付出了巨大努力,但我們必須持續關注技術對社會的實際影響。”他強調,確保AI技術服務于人類福祉應當是首要原則。
哈佛大學教授、OpenAI研究員博阿茲·巴拉克在回應霍爾曼時指出:“Sora 2的技術突破令人驚嘆,但現在就斷言我們成功規避了社交媒體和深度偽造技術的負面影響還為時尚早。其他平臺的歷史教訓表明,這類技術可能被用于制造虛假信息或操縱公眾認知。”
面對內部質疑,奧特曼在社交媒體發文解釋公司的戰略選擇。他表示:“理解大家的擔憂,但我們必須平衡理想與現實。將大部分資源投入AGI研發的同時,展示前沿技術成果既能激發公眾興趣,也能為龐大的算力需求提供資金支持。就像ChatGPT推出時,很多人質疑‘這和AGI有什么關系’,但技術發展需要循序漸進。”
這場爭論暴露了OpenAI長期面臨的矛盾:作為非營利機構,其使命是確保AI技術安全發展;但作為需要持續融資的科技公司,商業化進程又不可避免。這種矛盾在監管審查加劇的背景下顯得尤為突出——加州總檢察長上月明確表示,將重點關注OpenAI轉型過程中的安全使命落實情況。
業內人士指出,Sora應用的爭議反映了AI技術快速發展的普遍困境:如何在技術創新與社會責任之間找到平衡點。隨著各國監管機構加強對生成式AI的管控,科技公司的倫理決策將面臨更嚴格的審視。











