今年以來,中央網信辦持續推進“清朗”系列專項整治行動,重點打擊自媒體虛假信息傳播、短視頻惡意營銷、AI技術濫用以及惡意煽動負面情緒等網絡亂象。這一系列舉措在凈化網絡空間的同時,也引發了關于平臺內容審查責任邊界的廣泛討論。作為信息傳播和社交互動的主要載體,不同類型平臺在內容治理中面臨的責任邏輯存在顯著差異,而個人用戶違規成本低、平臺權責不對等、社會期待與治理能力不匹配等問題,使得內容審查工作陷入多重困境。
在數字時代,平臺已成為信息獲取的核心渠道,但不同類型平臺的責任歸屬存在明顯分化。以電商平臺為例,其核心功能是商品交易,平臺與商戶形成直接契約關系,主要承擔交易撮合和保障職責。商品真實性、合規性及售后服務的首要責任在于商戶,平臺則負有次要監管義務。這種模式下,責任鏈條清晰:先追責商戶,再核查平臺是否盡責。相比之下,內容平臺的運作邏輯截然不同。其內容生產者是海量普通用戶,行為屬于個人表達,缺乏電商場景中明確的商業契約約束。面對分散、流動的個人用戶,平臺管控難度大幅增加。
從組織經濟學視角分析,管控個體用戶的難度遠高于管控企業主體。企業具備法人資格、治理結構和責任鏈條,而個人用戶呈現分散化特征,缺乏有效追責機制。電商平臺商戶數量通常以萬計,而內容平臺用戶規模可達數億級。平臺對商戶可通過封店、扣繳保證金等方式形成強約束,但對違規用戶主要依賴“封號”措施,而用戶可通過更換身份輕松規避處罰,違約成本極低。契約理論進一步印證了這種差異:電商平臺與商戶通過服務協議、保證金等構建強約束性商業契約,而內容平臺與用戶的協議趨于形式化,缺乏實際約束力。
內容平臺傳播的信息具有強外部性,一條不實內容可能迅速擴散并影響公眾輿論,這使平臺在公眾期待中處于更高責任關聯位置。然而作為商業主體,平臺既無執法權,也難以通過契約約束海量用戶。平臺需在“內容合規”與“用戶體驗”間尋求平衡,過度審查可能損害表達活力。這種矛盾導致平臺雖成為內容合規最直接的責任關聯方,但其責任范疇與管控能力并不完全匹配。
現實困境在內容平臺治理中愈發凸顯。最高人民法院發布的《中國網絡法治發展報告》顯示,2024年全國法院一審審結侵害信息網絡傳播權糾紛案件達12萬余件,同比增長15.71%。中央網信辦舉報中心數據則表明,同年全國受理網絡違法和不良信息舉報2.27億件。這些數據折射出平臺內容審查面臨的深層矛盾。
信息洪流下的治理局限是首要挑戰。內容平臺每天產生數以億計的視頻、圖文和評論,形成去中心化的傳播網絡。信息流速快、流向散,平臺難以通過事前審核攔截所有違規內容。與電商平臺面對有限商品庫不同,內容平臺的違規可能性涵蓋色情低俗、虛假信息、人身攻擊等多個維度,預設有效過濾體系幾乎不可能。例如,平臺難以在海量筆記中即時區分虛假宣傳與真實分享,即便投入巨資審核,仍如用有限之網攔截整條河流,疏漏在所難免。
個體違規成本過低導致責任稀釋現象嚴重。商戶違規可能面臨罰款、下架甚至聲譽損失,而普通用戶被封號后只需更換手機號即可重新注冊,違規代價微乎其微。這種逆向激勵使得“網暴馬甲號”等批量違規行為頻發,平臺在追責時難以精準對應,最終承擔全部監管壓力。責任與權力的不對稱進一步加劇了平臺困境。平臺被賦予守好輿論大門的重任,卻缺乏強制取證、追責的司法權力,刪帖、封號等措施難以從根本上解決問題。當違規內容廣泛傳播后,公眾往往要求平臺負責,卻忽視其權力局限,使平臺陷入“高責任、弱手段”的悖論。
審查尺度的兩難境地同樣困擾平臺運營。過度嚴格可能引發“過度干預”指責,影響表達活力;過于寬松則會被批評縱容不良信息,甚至面臨監管問責。算法推薦在追求用戶停留時間的同時,可能推送“擦邊”內容;人工審核則受價值觀差異和主觀判斷影響,難以形成統一標準。這種搖擺調整本身即是困境的體現。
社會期待與平臺承受力的落差構成另一重壓力。公眾希望平臺“即時發現、即時處理”違規內容,但技術手段只能降低風險概率,無法保證零漏洞。平臺因違規內容上熱搜后,常面臨輿論批評、監管約談甚至股價波動。以直播領域為例,實時性與互動性決定內容生成不可回溯,海量直播間同時在線的特性使得技術審核只能依賴關鍵詞識別等基礎算法,對于隱性違規行為存在識別延遲。公眾卻普遍期待平臺“秒級攔截”所有問題內容,一旦出現審核漏洞,輿論便會指責平臺形同虛設。
面對這些挑戰,探索破局路徑成為共識。從“單點追責”轉向“分層責任”是可行方向之一。歐盟《數字服務法》依據平臺規模和風險設定不同義務,讓超大平臺承擔系統性治理責任,中小平臺履行基礎性職責,這種模式打破了“平臺負全責”的僵局。個人作為內容生產者應承擔基礎責任,平臺提供技術過濾和提示措施,社會通過行業協會、媒體監督等提供糾偏機制,形成責任共擔格局。
提高個人行為成本與可追溯性是另一關鍵。通過優化實名制與匿名制平衡,對公共傳播內容建立分級權限體系。平臺可利用算法識別用戶活躍度和信用等級,信用高者獲得更多推薦機會,違規率高者被限流或凍結。這種設計既保留匿名氛圍,又增加違規代價。
技術賦能與算法透明同樣重要。當前算法過度追求點擊率,導致“劣幣驅逐良幣”現象。引入“多目標算法”可平衡信息質量、多樣性與公共價值,算法部分透明化則能提升社會信任。若用戶理解推薦邏輯,社會監督算法導向,平臺可避免“黑箱效應”帶來的質疑。
治理模式需從“事后救火”轉向“前置預防”。利用自然語言處理和圖像識別技術,對內容發布前進行風險分級:低風險自動通過,中風險人工審核,高風險限制發布。這種源頭管控可顯著降低違規內容擴散概率。
構建健康輿論生態是根本解決之道。平臺應超越“刪帖機器”角色,通過激勵原創、提升內容質量、扶持正向價值,引導優質內容傳播。當用戶感受到“好內容更容易被看到”,違規內容自然邊緣化,優質內容成為主流,平臺也隨之從“背鍋者”轉型為“價值引導者”。











