國家互聯(lián)網(wǎng)信息辦公室等4部門近日聯(lián)合發(fā)布《人工智能生成合成內(nèi)容標(biāo)識辦法》,自2025年9月1日起施行。這意味著,屆時所有AI作品必須亮明身份,標(biāo)注是AI生成。該《辦法》聚焦人工智能“生成合成內(nèi)容標(biāo)識”關(guān)鍵點,為破解“AI造假”困局提供了依據(jù)。
近年來,人工智能大模型快速發(fā)展,為人們提供了便利工具,但在促進(jìn)經(jīng)濟(jì)社會發(fā)展的同時,也帶來了技術(shù)濫用的問題。AI技術(shù)降低虛假視頻制作成本,被用來偽造明星代言、偽造科學(xué)家?guī)ж�,讓批量生產(chǎn)、快速傳播、收割變現(xiàn)、注銷換殼的欺詐營銷快速形成閉環(huán)。為了吸引流量、快速起號,“深度合成工廠”利用AI技術(shù)批量生產(chǎn)虛假信息,獵奇、極端、煽動情緒的假新聞充斥互聯(lián)網(wǎng),令公眾真假難辨。
當(dāng)AI作品深入千家萬戶時,AI生成內(nèi)容的以假亂真就會帶來社會信任危機(jī)。《辦法》的出臺正當(dāng)其時,本質(zhì)上是一場重建人機(jī)信任的“革命”。當(dāng)AI學(xué)會為自己的作品署名,人類才能安心與之共舞。
《辦法》從三重維度筑牢治理防線,重點解決“哪些是生成的”“誰生成的”“從哪里生成的”等關(guān)鍵問題,實現(xiàn)全流程安全治理。
在技術(shù)層面,明確研發(fā)者的“身份編碼”義務(wù)。
《辦法》明確服務(wù)提供者應(yīng)當(dāng)對文本、音頻、圖片、視頻、虛擬場景等生成合成內(nèi)容添加顯式標(biāo)識,應(yīng)當(dāng)在生成合成內(nèi)容的文件元數(shù)據(jù)中添加隱式標(biāo)識。這相當(dāng)于為每件AI作品頒發(fā)“數(shù)字身份證”,既便于監(jiān)管部門溯源追責(zé),也倒逼企業(yè)將倫理設(shè)計嵌入技術(shù)底層,實現(xiàn)生成式AI的全生命周期標(biāo)識管理。
在平臺層面,壓實內(nèi)容分發(fā)者的“身份查驗”責(zé)任。
《辦法》對內(nèi)容分發(fā)平臺的責(zé)任也作出詳細(xì)規(guī)定。按要求,內(nèi)容分發(fā)平臺要核驗文件元數(shù)據(jù)中是否含有隱式標(biāo)識,必須采取措施對AI生成內(nèi)容進(jìn)行標(biāo)識。此前,我國已有多個社交平臺試點“AI內(nèi)容防火墻”,提高虛假信息攔截率。未來,隨著《辦法》的實施,“源頭標(biāo)注+平臺攔截”的雙重機(jī)制,將重塑網(wǎng)絡(luò)空間的信任生態(tài)。
在公眾層面,激活社會監(jiān)督的“身份認(rèn)知”意識。
人工智能工具普及化,讓每個用戶都可能成為虛假內(nèi)容的制作者和受害者。依據(jù)《辦法》規(guī)定,用戶發(fā)布AI生成合成內(nèi)容時應(yīng)該主動標(biāo)識,任何組織和個人不得惡意刪除、篡改、偽造、隱匿這些內(nèi)容標(biāo)識�?梢韵胍姡瑢姸�,未來刷視頻時先找“AI身份證”,會像過去買商品時看生產(chǎn)日期一樣自然。而當(dāng)人人都是“鑒定師”時,AI作品自然無處匿名。
當(dāng)然,打造可信賴的人工智能技術(shù)并非一日之功。比如,《辦法》中提到的隱式標(biāo)識,在技術(shù)上能否被規(guī)避和移除?這還需要更多企業(yè)加強(qiáng)對人工智能安全的投入與研究,以合理成本提高系統(tǒng)安全性。
AI產(chǎn)業(yè)正在蓬勃生長。統(tǒng)計報告顯示,我國人工智能企業(yè)數(shù)量超4500家,核心產(chǎn)業(yè)規(guī)模已接近6000億元。截至2024年12月,我國有2.49億人表示自己使用過生成式人工智能產(chǎn)品,占整體人口的17.7%。
AI技術(shù)進(jìn)步和AI安全治理是“一體兩面”,科技之光投射在合乎倫理的鏡面上,才能照亮更長遠(yuǎn)的未來。讓AI生成內(nèi)容亮明身份,是科技向善的強(qiáng)制約束,是享利避害的制度設(shè)計。標(biāo)識制度的施行,將為AI技術(shù)鋪設(shè)可持續(xù)發(fā)展的軌道,讓人工智能更好地服務(wù)于人類社會。 (本文來源:經(jīng)濟(jì)日報 作者:佘惠敏)