科技日報記者?劉霞
利用生成式人工智能(AI)制造的虛假圖片、音頻和視頻信息等“深度偽造”內(nèi)容正在快速傳播,被用來騷擾他人、詐騙金錢,甚至干擾選舉。
英國《新科學(xué)家》網(wǎng)站近日報道,美國OpenAI公司的文本—視頻模型Sora橫空出世,讓人們能更快捷、更廉價地制作出視頻,事實與虛構(gòu)的分界線也愈加模糊,進一步加劇了人們對“深度偽造”內(nèi)容的憂慮,擔(dān)心其引發(fā)虛假和錯誤信息泛濫。如何預(yù)防和阻止“深度偽造”內(nèi)容誤導(dǎo)大眾,已成為擺在各國政府和科技巨頭面前的重大難題。
圖片來源:視覺中國
“深度偽造”愈演愈烈
2014年,隨著生成對抗網(wǎng)絡(luò)的發(fā)展,第一波“深度偽造”內(nèi)容開始獲得關(guān)注。生成對抗網(wǎng)絡(luò)是一種讓AI模型相互對抗的技術(shù),這種技術(shù)不斷發(fā)展,可逐步提高虛假圖片的真實性。但這一代“深度偽造”內(nèi)容制造不僅費時,而且需要創(chuàng)作者具備AI方面的技術(shù)專長。
美國紐約州立大學(xué)布法羅分校計算機與電子工程系教授呂思偉指出,在這段時間,制作一段30秒的視頻通常需要數(shù)周的數(shù)字后處理工作和大量計算能力。盡管如此,視頻的真實性仍差強人意。
但在過去兩年間,新型AI技術(shù)的快速商業(yè)化使“深度偽造”內(nèi)容很容易大批量生產(chǎn)。任何具備文本編寫能力的人,都可使用DALL-E、Stable Diffusion等工具,在幾秒鐘內(nèi)創(chuàng)建出圖像。還有一些工具,能讓用戶通過上傳或錄制音頻樣本來克隆語音。
有研究發(fā)現(xiàn),2023年網(wǎng)上有超過9.5萬個“深度偽造”視頻,比2019年增長了550%。有研究顯示,以對特定受眾造成沖擊力為目的的虛假信息傳播非常容易,速度可達真實信息傳播速度的6倍。
虛假視頻影響選舉
“深度偽造”內(nèi)容也通過錯誤信息和虛假信息對選舉構(gòu)成越來越大的威脅,使選舉更加復(fù)雜化。
去年2月,美國芝加哥市長初選前夕,社交媒體上流傳一個模仿候選人保羅·瓦拉斯的聲音發(fā)表不實陳述的視頻,聲稱“警察可隨意射殺嫌疑人”,并呼吁削減警察預(yù)算。在瓦拉斯向社交媒體平臺發(fā)出投訴之后,社交媒體刪除了這段視頻,但該視頻在下架前已經(jīng)被瀏覽了數(shù)千次。
今年1月底,新罕布什爾州檢察長辦公室發(fā)布一份聲明稱,一項機器人電話活動使用了由“深度偽造”技術(shù)制作的模仿拜登總統(tǒng)的聲音,敦促人們不要在該州1月23日的總統(tǒng)初選中投票。該事件迅速在美國引起了廣泛關(guān)注,并激發(fā)了關(guān)于AI“深度偽造”對大選可能產(chǎn)生影響的討論。
去年11月發(fā)布的一份民調(diào)結(jié)果顯示,在2023年10月參與調(diào)查的美國成年人中,有58%的人認為“AI將對2024年美國大選造成影響”,這一數(shù)字較2022年8月增長了5個百分點。此外,英國、印度、尼日利亞、蘇丹、埃塞俄比亞和斯洛伐克等國去年都發(fā)現(xiàn)了據(jù)稱利用AI制作并在網(wǎng)絡(luò)上傳播的虛假政客視頻。
亟待采取措施加強監(jiān)管
《新科學(xué)家》網(wǎng)站在報道中指出,很多人已經(jīng)感受到了“深度偽造”可能帶來的巨大影響,但眼下的預(yù)防措施還很不夠。
歐盟的《數(shù)字服務(wù)法》要求科技平臺識別和標記AI生成的內(nèi)容,美國也正在制訂類似的標準。此外,目前已有多個國家以及美國至少有6個州將創(chuàng)建或傳播有害的“深度偽造”內(nèi)容確定為非法行為。
科技平臺需要承擔(dān)起阻止“深度偽造”浪潮繼續(xù)奔涌的最大責(zé)任。據(jù)《金融時報》報道,亞馬遜、谷歌、元宇宙平臺、微軟、TikTok和OpenAI等20家科技公司2月16日在慕尼黑安全會議期間表示,將共同努力打擊旨在誤導(dǎo)選民的內(nèi)容制作和傳播,并針對這些內(nèi)容以“迅速和適當(dāng)”的方式采取行動。比如,在圖片中添加水印,以明確其來源以及是否曾被篡改。
目前,科技行業(yè)已經(jīng)采用了“內(nèi)容來源和真實性聯(lián)盟”(C2PA)的標準,該標準將用數(shù)字內(nèi)容的來源和創(chuàng)建者的信息對數(shù)字內(nèi)容進行編碼。今年2月初,元宇宙平臺公司宣布將在其社交媒體平臺上標記AI生成的圖像;谷歌公司表示將為其生成式AI工具集成C2PA水印系統(tǒng),OpenAI也作出了類似承諾。
不過,有專家指出,添加水印的方式可能會有所幫助,但它們并不能阻止不懷好意者使用開源AI工具,也沒有解決那些飽受“深度偽造”影響的人保護其隱私權(quán)的問題。