當AI生成內容無處不在,我們如何看清真相?
AI生成的文案、圖片、音頻甚至視頻,如今已頻繁出現在社交平臺、新聞頁面和我們的日常聊天中。技術在帶來便利與創意的同時,也帶來真假難辨的信息混雜與信任危機。據中國互聯網絡信息中心統計,截至2024年12月,國內已有 2.49億人使用過生成式人工智能產品。然而,虛假新聞、網絡詐騙、“AI換臉”等安全事件也隨之激增。自2025年9月1日起,《人工智能生成合成內容標識辦法》(以下簡稱《辦法》)正式施行,首次以部門規章的形式對 AI生成內容提出統一的標識要求。在這一背景下,我們開展了一項針對AI生成內容標識落地的調研,嘗試從責任分配標識分級與平臺管理三個維度,探討如何構建更加清晰、可行的治理機制。
責任誰來負?從“控制能力”和“收益程度”入手
《辦法》雖然提出“誰提供誰負責”,但現實中AI內容生成鏈條復雜,技術提供者、服務提供者以及傳播者往往分離,法律責任應如何具體劃分?
調研發現,單純按主體類型劃分責任并不合理更應依據實際“控制能力”與“收益程度”進行判斷。例如,某些AI繪畫小程序不僅提供生成服務,還能對輸出結果進行篩選和編輯--這類服務提供者由于對內容具有較強控制力且直接面向用戶收費,應當承擔主要標識責任。相反,若技術提供者僅提供標準化 API接口、未參與具體內容生成,則責任應相對有限。這一思路也呼應了法學中的“紅旗原則”:即當侵權或造假內容已顯而易見如“紅旗”,任何相關主體均不應回避自身責任。
如何科學標識?建立分級體系,告別“一刀切”
是不是所有 AI生成內容都該打上同一標簽?答案是否定的。AI寫的一首詩和一條仿冒名人聲紋的詐騙語音,風險完全不同,標識也理應釋飭訐擠籮贐綣所差異。
充分調研后,我們提出了“一基雙規”的判定框架,作為落實《辦法》中“防止公眾混淆或誤認”的具體路徑:“一基”指以“使用深度合成技術”作為判斷前提;而“雙規”則包括“內容敏感性”和“人機貢獻比例”。基于此,我們可以將AI生成內容劃分為多個風險等級。例如換臉視頻、仿冒音頻這類涉及個人生物特征的內容屬于“最高敏感級”,必須強制顯性標識;而文學創作和藝術設計等低風險內容可采用隱性標識或不標識。
其中,特別值得關注的是“人機協作”這類模糊地帶。比如一篇文章中AI貢獻超過70%,就應標明“AI生成為主,人類輔助”;如果AI參與度約50%,可標識為“人機協作創作”;至于僅使用 AI進行潤色或修改(參與度30%以下)則可采用隱性標識或部分豁免。這一精細化的分類方式,既呼應了法律中的“比例原則”,也體現了治理手段與風險水平相適應的理念
平臺不能缺席:“權責一致”實現治理閉環
《辦法》另一重要突破,是將傳播平臺明確列為“把關人”,要求其承擔標識審核與提示義務,從而填補了以往“重生成、輕傳播”的監管空白。
根據我們的調研發現,目前各大平臺已形成不同的管理風格。例如抖音采用“水印+元數據”雙重標識,未標識的內容會由平臺補充“疑似 AI生成”的提示;微博則依靠算法識別加用戶投訴的雙通道機制,還專門設立了“未添加AI標識”投訴分類;而B站、知乎等平臺更傾向于社區自治,鼓勵Up主和答主主動聲明 AI使用情況。這些多元化的實踐無一例外地體現出“權責一致”的內在邏輯:平臺既然享有內容傳播帶來的流量與收益,就必須承擔相應的管理責任。理想的治理模式應當結合技術檢測、人工審核和堎部行戶監督,構建多方參與的管理閉環。
結語:以標識為起點,走向更負責的AI時代
標識不只是技術動作,更是責任宣言。只有當每段AI內容自帶說明書,我們才能更安心的擁抱智能時代的便利和精彩。《辦法》的出臺為 A1生成內容治理奠定了制度基礎,而真正落地仍面臨責任如何厘清、標識如何分級、平臺如何履職等一系列現實問題。技術的未來離不開規則的守護。只有當每一段AI生成內容都帶有真實、清晰的“說明書”,我們才能在擁抱智能時代的同時,不致迷失于虛擬和真實之間。
社會實踐報告推薦