近日,抖音安全與信任中心在北京首次舉辦專家交流活動,吸引了來自學術界的十位知名學者參與。這場以“算法向善”為主題的討論會,旨在通過社會各界的協同參與,提升算法透明度與平臺治理水平。
今年以來,抖音在推動平臺透明化方面動作頻頻。3月底,其安全與信任中心網站正式上線試運營,公開了算法技術原理與平臺治理規則。4月,該中心舉辦“開放日”活動,算法工程師現場解析推薦機制的運行邏輯。此次專家交流會作為系列活動的首場,匯聚了北京大學、中國人民大學、中國政法大學等多所高校的學者,圍繞算法倫理、用戶權益保護等議題展開深度探討。
北京大學博雅講席教授邱澤奇指出,推薦算法的本質是匹配用戶即時興趣的效率工具,但用戶需求的動態變化使得精準匹配存在天然局限。他強調,平臺需在滿足用戶社會屬性與自然屬性之間尋求平衡,“這種困境恰是平臺優化服務的契機”。對于內容質量評價,邱澤奇建議以“信息密度”替代“高低質”的二元劃分,認為不同群體對優質內容的定義存在差異,中性表述更具包容性。
中國人民大學新聞學院教授彭蘭關注算法對用戶行為的影響。她提到,隨著算法推薦能力的提升,平臺需防范用戶過度沉迷問題。盡管多樣化內容推薦可能打破“信息繭房”,但用戶使用時長反而可能延長。針對抖音提出的“獲得感”內容標準,彭蘭呼吁建立更具體的量化指標,以提升內容評價的可操作性。
中國政法大學數據法治研究院教授張凌寒等學者則聚焦AIGC濫用、擺拍內容治理等新興問題。她指出,深度偽造技術的普及對平臺內容審核提出更高要求,需建立動態識別機制。對外經濟貿易大學法學院教授張欣補充道,流量分配規則的透明化是用戶權益保護的關鍵,平臺應明確內容推薦的影響因素。
在數據隱私領域,暨南大學新聞與傳播學院副教授師文提出,用戶瀏覽記錄的可視化能增強自主管控能力。他引用國外實證研究稱,年度內容盤點、使用時長提示等功能可幫助用戶反思行為模式,提升對算法的認知。這一建議與抖音5月升級的“使用管理助手”功能不謀而合——該工具允許用戶通過三級按鈕調節內容權重,并支持屏蔽關鍵詞與“不感興趣”反饋。
針對謠言治理,中國人民大學新聞學院教授劉海龍認為,大模型技術雖能提升虛假信息識別效率,但消息傳播的不確定性仍給平臺帶來挑戰。他指出,完全禁止可疑信息傳播雖能降低平臺風險,但可能損害公眾知情權,“如何在風險控制與信息流通間找到平衡點,是技術治理的核心難題”。
目前,抖音安全與信任中心已通過官網(95152.douyin.com)公開算法原理、社區規范及治理體系,并在“用戶服務”板塊提供未成年人保護、權益申訴等路徑指引。平臺表示,將持續通過專家研討、媒體溝通等形式,推動算法倫理與社會需求的深度融合,接受公眾監督與建議。











