您當(dāng)前的位置 :環(huán)球 >
韓國擬推進(jìn)立法將散布虛假視頻等犯罪行為最高刑罰提高至7年
2024-09-02 17:53:49   來源:新京報(bào)  分享 分享到搜狐微博 分享到網(wǎng)易微博

來源標(biāo)題:韓國女性陷入深度偽造AI換臉 人工智能技術(shù)生成逼真虛假內(nèi)容;韓國擬推進(jìn)立法將散布虛假視頻等犯罪行為最高刑罰提高至7年

韓國再現(xiàn)“N號房”丑聞,這次的關(guān)鍵詞是“深度偽造犯罪”。

所謂“深度偽造犯罪”,即使用人工智能技術(shù)生成逼真的虛假內(nèi)容,該技術(shù)的泛濫使得此次韓國女性的受害者數(shù)量以及相關(guān)色情圖片視頻的傳播力度較之過去更上了一個(gè)臺階,受害者不得不在包括中國微博在內(nèi)的各國社交平臺發(fā)聲,呼吁更多人關(guān)注。

深度偽造的技術(shù)原理是什么?黑灰產(chǎn)從業(yè)者如何從中牟利?為什么韓國最泛濫?應(yīng)該如何加強(qiáng)監(jiān)管?

對抗網(wǎng)絡(luò)不斷重復(fù)直到內(nèi)容足夠逼真

網(wǎng)絡(luò)尖刀安全團(tuán)隊(duì)聯(lián)合創(chuàng)始人蔡勇在接受記者采訪時(shí)表示,AI深度偽造技術(shù),也稱為深度偽像(Deepfake),是一種利用人工智能技術(shù)生成逼真的虛假內(nèi)容,通常是指用于偽造人物的視頻、音頻、圖像等。其主要原理涉及兩個(gè)關(guān)鍵技術(shù):生成對抗網(wǎng)絡(luò)(GANs)和深度學(xué)習(xí)。

“技術(shù)實(shí)現(xiàn)可以這么理解:首先,我們需要一個(gè)生成器和一個(gè)判別器。生成器的任務(wù)是模仿已有的真實(shí)內(nèi)容,例如人的臉部特征,其通過學(xué)習(xí)大量的真實(shí)樣本,比如照片或視頻片段來生成看起來非常逼真的虛假內(nèi)容。而判別器的任務(wù)是辨別生成器創(chuàng)建的內(nèi)容是否真實(shí)。通過不斷迭代訓(xùn)練,生成器和判別器會不斷互相競爭、學(xué)習(xí)和提高。這種對抗性的過程不斷重復(fù),直到生成器生成的內(nèi)容足夠逼真,以至于人類很難分辨它們是虛假的。這就是為什么AI深度偽造技術(shù)可以制作出逼真的虛假視頻、音頻或圖像的原因。”蔡勇說。

黑灰產(chǎn)打擊專家丁健琮則告訴記者,Deepfake的核心原理是通過一定的圖片識別算法將2D照片動態(tài)化,或?qū)⒛硰堈掌械娜四樦踩氲揭欢蝿討B(tài)視頻中。現(xiàn)在聲紋偽造也逐步納入了Deepfake的概念。

隨著近年來AI大模型技術(shù)的逐漸成熟,一些AI生圖大模型在追求更多真實(shí)度的同時(shí)“誤打誤撞”成為了AI換臉或AI脫衣的幫兇,如此前著名的大模型StableDiffusion就被開發(fā)出了一鍵脫衣的功能,并一度泛濫。雖然后來該大模型修改了相關(guān)功能,讓這種行為有所收斂,但由于技術(shù)開源的特性,“潘多拉的盒子”已經(jīng)打開,或許難以再度關(guān)閉。

公開群組達(dá)1.5萬人繳費(fèi)可進(jìn)更私密群組

記者注意到,同此前的韓國“N號房”事件一樣,此次深度偽造圖像的傳播平臺依然是國外社交平臺“電報(bào)”(Telegram),該平臺可以提供端到端加密消息傳遞,總部位于俄羅斯,因其私密的特性而擁有大量國際用戶,但也因此成為了不法行為的溫床。

記者調(diào)查發(fā)現(xiàn),當(dāng)前該平臺上有不少以AI色情為賣點(diǎn)的群組(類似于群聊天,即韓國新聞中“房”的概念),在公開可進(jìn)的群組中,一個(gè)通過AI技術(shù)偽造國內(nèi)網(wǎng)紅色情圖片的群組成員人數(shù)達(dá)到了1.5萬人,通過繳費(fèi),還可以進(jìn)入更加私密、尺度更大的群組,黑灰產(chǎn)從業(yè)者正是以此牟利。

除了端到端加密技術(shù)外,Telegram還賦予了包括“閱后即焚”“超級群組(動輒可達(dá)十多萬人,相比之下微信群的限制是500)”“群主設(shè)置不能復(fù)制轉(zhuǎn)發(fā)截圖”等功能,使得Telegram上的一個(gè)個(gè)群組成為了封閉式空間。此外,不少交易通過虛擬貨幣進(jìn)行,令非法交易得以逃避監(jiān)管。

不過,記者注意到,Telegram里也有一些約定俗成的“禁區(qū)”,至少在公開可見的大群里,一些群成員會注意包括兒童色情、強(qiáng)迫性行為等在內(nèi)的內(nèi)容,曾有群成員抱怨自己發(fā)布了上述內(nèi)容后群組遭到封禁。但基于Telegram平臺本身的私密性特點(diǎn),對于經(jīng)過篩選、群成員忠誠度更高的各種“房”,仍然存在此類內(nèi)容的可能性極高。

韓國大量普通人受害計(jì)劃加強(qiáng)處罰力度

實(shí)際上,飽受深度偽造困擾的女性并不只在韓國。歐美女演員中,“黑寡婦”斯嘉麗·約翰遜、“赫敏”艾瑪·沃特森,以及小天后泰勒·斯威夫特都是第一批遭到AI換臉的受害者,國內(nèi)明星和網(wǎng)紅也有不少受害者。

但是,為什么韓國女性受到深度偽造的傷害比之其他國家更甚?根據(jù)8月26日韓國女性民友會發(fā)布的報(bào)告,在某一個(gè)“電報(bào)”群組中,只需上傳熟人照片,付費(fèi)后5秒鐘內(nèi)就能生成裸體合成圖,而該群組的參與人數(shù)高達(dá)22.7萬人。

相比其他國家AI偽造的受害者大多是明星網(wǎng)紅,韓國更有大量的普通人受害,有韓國女大學(xué)生受害者表示,自己有數(shù)十張裸體照片在電報(bào)群組中傳播,臉上寫著不堪入目的臟話,甚至還有人通過AI生成了自己的色情語音。

民友會在報(bào)告中質(zhì)問,“(韓國)女性們生活在一個(gè)無法有效懲罰或預(yù)防針對女性犯罪和暴力的社會中,失去了日常生活的安全感,仿佛生活在一個(gè)沒有國家的狀態(tài)中。這樣的社會還有存在的必要?”

實(shí)際上,對于此類犯罪行為,韓國并非沒有相關(guān)的法律,“N號房”事件的發(fā)生就推動了韓國《Telegram“N號房”事件防治法》的出臺,包括《關(guān)于性暴力犯罪處罰的特例法修訂案》《刑法修正案》《關(guān)于限制犯罪收益隱匿的規(guī)定及處罰的法律修訂案》等內(nèi)容。

據(jù)韓聯(lián)社8月29日報(bào)道,韓國政府還計(jì)劃加強(qiáng)對利用“深度偽造”進(jìn)行性犯罪行為的處罰力度,并推進(jìn)與通訊軟件“電報(bào)”的運(yùn)營公司構(gòu)建合作熱線。韓國執(zhí)政黨國民力量黨政策委員會主席金相勛在發(fā)布會上稱,黨政在國會開會討論“深度偽造”性犯罪的預(yù)防對策。雙方計(jì)劃推進(jìn)立法,將散布虛假視頻等犯罪行為的最高刑罰從5年提高至7年。

■觀點(diǎn)

加大AI平臺使用者審核打擊為黑產(chǎn)提供支持的APK工具

在采訪中,不少專家都認(rèn)為隨著AI技術(shù)的進(jìn)步,想要阻止人們使用AI生成偽造視頻或圖片,并不現(xiàn)實(shí),想要制止此類行為,需要從其他方面“下功夫”。

“近年來Deepfake愈演愈烈、難以監(jiān)管的原因在于技術(shù)擴(kuò)散。很多類似的黑產(chǎn)技術(shù)被不斷地工具化甚至SaaS服務(wù)化,使用者不需要懂得相關(guān)技術(shù),只需要通過某些途徑獲得包裝好的插件或者在網(wǎng)絡(luò)平臺上付費(fèi)就可以實(shí)現(xiàn)內(nèi)容的輸入輸出。”丁健琮表示。

“必須明確的是,使用AI工具進(jìn)行偽造,效率要比傳統(tǒng)偽造方式高得多,技術(shù)門檻卻又低得多。俗話說得好,‘造謠一張嘴,辟謠跑斷腿。’當(dāng)前,通過專業(yè)技術(shù)手段或?qū)<诣b定可以識別AI深偽視頻和圖片,但成本也很高,隨著技術(shù)不斷進(jìn)步,AI生成或合成的視頻最終無法被鑒定真?zhèn)?,是必然的?rdquo;奇安信集團(tuán)行業(yè)安全研究中心主任裴智勇告訴記者。

在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現(xiàn)實(shí),但這并不意味著對偽造視頻或圖片毫無辦法,“國內(nèi)對于網(wǎng)絡(luò)色情視頻和圖片都有非常成熟的治理方法,即便不能用技術(shù)鑒別一張圖片的真?zhèn)?,但可以從平臺一側(cè)阻止色情內(nèi)容的傳播,定位色情內(nèi)容的傳播源頭并實(shí)施打擊。”

丁健琮則建議,應(yīng)該從源頭管控技術(shù)擴(kuò)散,“正規(guī)的AI技術(shù)平臺對于上傳和生成的內(nèi)容應(yīng)當(dāng)有審核,使用者也需要實(shí)名注冊,國內(nèi)法已經(jīng)明確建立了此類規(guī)定。正規(guī)經(jīng)營者應(yīng)當(dāng)嚴(yán)格落實(shí)國家法律法規(guī)要求。而對于為黑產(chǎn)提供支持的APK工具或者SaaS網(wǎng)站,要依賴嚴(yán)厲的打擊。可以參考國內(nèi)反詐工作的思路,軟硬件生態(tài)聯(lián)合對相關(guān)的APK和網(wǎng)站進(jìn)行封禁。”

裴智勇表示,從未來角度看,應(yīng)當(dāng)積極探索和推廣照片與視頻的防偽技術(shù)。例如,通過數(shù)字加密技術(shù)、數(shù)字水印技術(shù)等,可以給每一張圖片或每一段視頻打上一段不可偽造的驗(yàn)證信息,一旦內(nèi)容被修改,驗(yàn)證信息就會被破壞,從而達(dá)到雖然不能鑒偽,但可以“保真”的效果。

“具體來說,比如,使用某品牌、某型號、某序列號的特定手機(jī)拍攝照片,照片文件上就會帶有一串肉眼看不見、但機(jī)器可識別的加密驗(yàn)證碼。驗(yàn)證系統(tǒng)一旦識別到這段驗(yàn)證碼,就可以確定這張照片一定是用這部手機(jī)拍攝的,而使用任何其他設(shè)備,都無法生成這段驗(yàn)證碼。一旦有人對這張照片就行修改,不論是AI修改,還是人工手動修改,驗(yàn)證系統(tǒng)都能識別出其‘不是原圖’。這里所說的方法并非什么新技術(shù),而是成熟密碼技術(shù)。需要的只是推廣和深度普及。”裴智勇說。

“目前,國內(nèi)外已經(jīng)有一些專門用于識別Deepfake生成結(jié)果的技術(shù)和專利,國內(nèi)內(nèi)容平臺可以通過在內(nèi)容巡檢功能中增加對Deepfake類內(nèi)容的識別技術(shù),盡可能切斷傳播鏈。”丁健琮告訴記者。

關(guān)鍵詞:


[責(zé)任編輯:ruirui]





關(guān)于我們| 客服中心| 廣告服務(wù)| 建站服務(wù)| 聯(lián)系我們
 

中國焦點(diǎn)信息網(wǎng) 版權(quán)所有 滬ICP備2022005074號-20,未經(jīng)授權(quán),請勿轉(zhuǎn)載或建立鏡像,違者依法必究。