科技日報記者?張夢然
人工智能(AI)浪潮正以前所未有的速度推進(jìn)。這是一個AI新紀(jì)元,在AI的幫助下,科研的邊界被不斷拓寬,解決復(fù)雜問題的速度越來越快,但必須警惕:AI也能極大提高犯罪分子的“生產(chǎn)力”。
圖片來源:視覺中國
安全公司“趨勢科技”研究員文森佐·錢卡利尼表示,生成式AI提供了一個新的、強(qiáng)大的工具包,使惡意行為者能夠比以往更高效、更國際化地開展活動。
錢卡利尼說,大多數(shù)犯罪分子“并不是生活在黑暗巢穴里密謀行事”,他們中“大多數(shù)都是普通人,從事著日常工作”。
去年的“WormGPT衰落”是一個標(biāo)志性事件。WormGPT是一種基于開源模型構(gòu)建的AI語言模型,但它使用惡意軟件相關(guān)數(shù)據(jù)進(jìn)行訓(xùn)練,會協(xié)助黑客工作且沒有任何道德規(guī)則或限制。2023年夏天,在引起媒體高度關(guān)注后,該模型的創(chuàng)建者宣布關(guān)閉模型。自那以后,網(wǎng)絡(luò)犯罪分子大多停止開發(fā)自己的AI模型,轉(zhuǎn)而借助更可靠的現(xiàn)有工具來“?;ㄕ小薄?/p>
這可能是因為,犯罪分子也想更快獲得收益且不想承擔(dān)新技術(shù)帶來的未知風(fēng)險。人們對此必須多加注意,以下5種就是目前他們最常用的方式。
網(wǎng)絡(luò)釣魚:誘騙你的私人信息
瑞士蘇黎世聯(lián)邦理工學(xué)院的AI安全研究員米斯拉夫·巴盧諾維奇表示,目前生成式AI最大的濫用就是網(wǎng)絡(luò)釣魚,其試圖誘騙人們泄露敏感信息,再用于惡意目的。研究發(fā)現(xiàn),在ChatGPT興起的同時,也伴隨著網(wǎng)絡(luò)釣魚電子郵件數(shù)量大幅增加。
錢卡利尼表示,GoMail Pro等垃圾郵件生成服務(wù)已集成ChatGPT,這使得犯罪用戶能翻譯或改進(jìn)發(fā)送給受害者的消息。OpenAI的政策限制人們用其產(chǎn)品進(jìn)行非法活動,但在實(shí)踐中其實(shí)很難監(jiān)管。
OpenAI方面表示,他們將人工審核和自動化系統(tǒng)相結(jié)合,以識別和防止其模型被濫用,如果用戶違反公司政策,則會實(shí)施警告、暫停、永久關(guān)閉等措施。
還有一點(diǎn)值得注意,由于AI翻譯工具的進(jìn)步,世界各地犯罪集團(tuán)的溝通變得更容易,他們可能開展大規(guī)??鐕袆?,或在本國對其他國家用戶采取惡意行動。
深度偽造:進(jìn)入地下市場
生成式AI使深度偽造(Deepfake)的開發(fā)發(fā)生質(zhì)變。當(dāng)前,技術(shù)合成的圖像或音視頻,看起來或聽起來比以往任何時候都更加真實(shí),這一點(diǎn)犯罪分子也意識到了。
錢卡利尼團(tuán)隊發(fā)現(xiàn),已經(jīng)有用戶在電報(Telegram)等平臺上展示他們的“深度偽造組合”,并以每張圖片10美元或每分鐘500美元的價格出售服務(wù)。
相較圖片,深度偽造視頻制作起來更復(fù)雜,而且更容易露出破綻。深度偽造音頻的制作成本低廉,只需幾秒鐘的某人的聲音(例如從社交媒體獲取),即可生成令人信服的內(nèi)容。
這樣的詐騙案例并不鮮見,人們接到親人打來的求救電話,稱自己被綁架并要求交付贖金,結(jié)果卻發(fā)現(xiàn),打電話的人是個使用深度偽造語音的騙子。
錢卡利尼建議,親人之間應(yīng)商定一些秘密安全詞并定期更換,這有助于緊急情況下確認(rèn)電話另一端的人的身份。
繞過身份檢查:一個偽造的“你”
犯罪分子濫用AI技術(shù)的另一種方式是繞過驗證系統(tǒng)。
一些銀行和加密貨幣交易需驗證其客戶是否本人。他們會要求新用戶在手機(jī)相機(jī)前持身份證拍攝一張自己的照片,但犯罪分子已經(jīng)開始在電報等平臺上銷售能繞過這一要求的應(yīng)用程序。
他們提供的是偽造或被盜的身份證件,再將深度偽造的圖像強(qiáng)加在真人臉上,以欺騙手機(jī)相機(jī)驗證程序。據(jù)錢卡利尼發(fā)現(xiàn)的一些例子,該服務(wù)的價格甚至低至70美元。
“越獄”式服務(wù):帶來危險輸出
如果有人向AI詢問如何制造炸彈,那他不會得到任何有用的答復(fù)。這是因為大多數(shù)AI公司已采取各種保護(hù)措施來防止模型泄露有害或危險信息。
現(xiàn)在,網(wǎng)絡(luò)犯罪分子不再構(gòu)建自己的AI模型,這種方式既昂貴、耗時又困難。一種新犯罪趨勢開始出現(xiàn)——“越獄”式服務(wù)。
比如上面得不到答案的問題,這顯示了模型都有關(guān)于如何使用它們的規(guī)則。但“越獄”允許用戶操縱AI來生成違反這些政策的輸出。例如,為勒索軟件編寫代碼,或生成可在詐騙電子郵件中使用的文本。
為了對抗這些不斷增長的風(fēng)險,OpenAI和谷歌等公司需時時堵塞可能導(dǎo)致緊急危害的安全漏洞。
人肉搜索和監(jiān)視:暴露用戶隱私
巴盧諾維奇表示,AI語言模型不僅是網(wǎng)絡(luò)釣魚的“完美工具”,對人肉搜索(在線泄露某人的私人身份信息)也是如此。這是因為AI語言模型經(jīng)過大量互聯(lián)網(wǎng)數(shù)據(jù)(包括個人數(shù)據(jù))的訓(xùn)練, 可推斷出某人位于何處。
犯罪分子可能會讓聊天機(jī)器人假裝是具有側(cè)寫經(jīng)驗的私家偵探,然后讓它分析受害者所寫的文本,并從文本中的小線索推斷出個人信息。例如,根據(jù)他們上高中的時間推斷他們的年齡,或者根據(jù)他們在通勤時提到的地標(biāo)推斷他們的居住地點(diǎn)?;ヂ?lián)網(wǎng)上該人的相關(guān)信息越多,就越容易被識別。
巴盧諾維奇團(tuán)隊2023年底發(fā)現(xiàn),大型語言模型,如GPT-4、Llama 2和Claude,已能夠僅從與聊天機(jī)器人的日常對話中推斷出人們的種族、位置和職業(yè)等敏感信息。理論上,任何能訪問這些模型的人,都能以這種方式使用它們。
這些服務(wù)的存在,并不直接表明犯罪活動的存在,但我們必須看到可供惡意行為者利用的新功能。而防止這些事情發(fā)生的唯一方法就是加強(qiáng)防御。
巴盧諾維奇稱,對AI公司來說,應(yīng)完善數(shù)據(jù)保護(hù);對個人來說,提高防范意識是關(guān)鍵——人們應(yīng)三思而后行,考慮他們在網(wǎng)上分享的內(nèi)容,并謹(jǐn)慎決定,自己是否愿意在語言模型中使用他們的個人信息。