剛剛過去的2023年,無論是信息技術領域、網絡安全領域,乃至“人人都是自媒體時代”的內容創作領域,以生成式AI為代表的人工智能迎來了真正意義上的爆發,基于海量數據的反哺、再生,AI的角色往往已不局限于“工作助手”,利用與濫用的界限正變得模糊。
正如前序文章《馬斯克也曾被騙,AI虛假內容太“真實”了》所述,無數憑空捏造、移花接木般的深度偽造內容正層出不窮,不僅充斥著輿論場,迷惑大眾視野,由此衍生的網絡詐騙更是時刻危及大眾的生命及財產安全。根據世界經濟論壇在達沃斯年會前夕發布的《2024 年全球風險報告》,由人工智能衍生的錯誤信息和虛假信息及其對社會兩極分化的影響被列為未來兩年的十大風險之首。

眼下,深度偽造技術與檢測技術正處于復雜且不分伯仲的博弈中,本文將介紹一些能有效防范并識別這些如假包換虛假內容的技術及趨勢,同時寄希望于通過強有力的法律為這場圍繞AI的拉鋸戰構建相對規范、安全的使用環境。
如何識破視聽深度偽造
無論是圖片還是視頻,基于視覺的造假是最為主流的方式。目前,深度偽造技術主要源于深度學習技術在計算機視覺方向的應用和發展,主要使用深度神經網絡有自編碼器網絡AE(auto-encoder)和生成式對抗網絡GAN(Generative Adversarial Networks)兩大類,前者通過編碼器和解碼器將人臉圖像進行編碼壓縮和解碼重構,以生成偽造的人臉圖像。為了解決自編碼器網絡的泛化性能有限,逼真程度不高的缺陷,又輔以GAN網絡,通過生成器和判別器的博弈訓練,提升偽造生成的逼真程度,使生成的圖像足以“以假亂真”。

自編碼偽造生成過程(圖源:安全牛)
當前主流的技術基于GAN網絡的思路,衍生出多種變種網絡,能用于對人臉進行更精細的操作和渲染,生成更逼真的人臉圖像。
基礎的識別:擦亮雙眼
正如前文所述,基于GAN網絡的生成主要擅長于人物面部的偽造,對于其他部分就叫較容易出現肉眼可見的破綻。比如在以“特朗普被捕”為代表的一系列由Midjourney生成的圖像中,均廣泛暴露出人物手指畸形、人物比例失衡、背景招牌文字為亂碼等缺陷。這是由于在缺少訓練數據或者難以訓練的部分,AI也會憑借自身的算法來填補空白。
在一些以“新聞事件”傳播的圖像中,除了借用上述手段進行識別,還可以考證是否有其他新聞源、其他視角的圖像,如果來源和圖像都較為單一,則存在造假的概率較大。具體手段包括核實新聞源的權威性、利用反向搜索調查圖像最初來源。此外,還可對圖像環境進行分析,確定事件發生的時間、地點加以核實。
但隨著人工智能技術的發展,肉眼可見的瑕疵注定會隨著版本迭代被逐步“修正”,追本溯源的能力對大眾個人在相關方面的素質也提出了一定要求,因此,更加細致、專業,甚至基于專用軟件的檢測才是反AI虛假信息的主戰場。
深度偽造圖像檢測技術
在常見的視頻類深度偽造中,研究人員運用了多種檢測方法,包括分析視頻圖像中的光照不連續性、陰影不連續性或幾何位置不一致等圖像的物理特征來辨別其真實性。也有通過分析圖像采集設備的物理特性,包括傳感器噪聲差異性特征、色差差異性特征來進行判斷。也有研究人員利用人的生理信號特征,如眨眼頻率、脈搏、心率等不協調性和不一致性檢測判別視頻圖像的真偽。
對于“換臉”造假,美國聯邦信息技術安全局(BSI)曾指出這類圖像存在一種“偽影”現象,當目標人物的頭部被安放在任意一個人的身體上時,其面部周圍就可能出現偽影。這是由于AI經常會無法正確學習如何在牙齒或眼睛中創建清晰的輪廓。知道的原始數據越少,被模仿的頭部的面部表情和光線就越有限。

生成對抗網絡(GAN)表面具有清晰可見的偽影
識別音頻造假
音頻造假更像是一種聲音克隆,通過采集一個人的聲音,利用人工智能就可以生成與目標人物語音非常相似的合成語音,這一技術目前已經運用在各類智能語音助手產品中。但如今,人工智能技術可以僅需采集寥寥幾句話,就能夠生成與真人更加貼合的語音包。
在利用音頻造假的網絡詐騙中,犯罪分子通過各種途徑采集人物聲音,對目標人物親友實施詐騙。要防范這一情況,除了被采集者要警惕個人聲音泄露,比如接到陌生電話時不要多說話,實在必須說話時可以嘗試故意變聲說話。對于被詐騙目標而言,接到疑似親友聲音打來的未知電話時務必要在第一時間向本人進行核實。
在第一時間無法與聲音主體核實的情況下,利用技術手段仍然是識破這類造假最有效的方法。McAfee在最近的CES 2024上推出了深度偽造聲音檢測技術 — — “模仿鳥”項目(Project Mockingbird),采用上下文、行為和分類檢測模型,識別率達到了90%。

McAfee的“模仿鳥”項目(Project Mockingbird)
而在防止聲音被人工智能獲取方面,由圣路易斯華盛頓大學計算機科學與工程教授發明的一款名為AntiFake 的軟件工具,通過調整錄制的音頻信號,對其進行扭曲或擾動,使其對人類聽眾來說仍然聽起來不錯,但與人工智能感知到的完全不同,從而讓人工智能系統更難讀取真人聲音錄音中的關鍵聲音特征。測試表明,該技術的有效性超過 95%。

AntiFake工作原理
克服難點:AI加持下的網絡釣魚
無論是圖像、視頻還是音頻,這些基于AI的深度偽造形式往往需要結合一定的腳本進行實施,而最令人防不勝防的,就是這些腳本也都開始由人工智能進行編排,炮制出不亞于人類編制的釣魚圈套。
在一項測試中,研究人員給ChatGPT提供了五個量身定制的問題,引導人工智能開發針對特定行業的網絡釣魚電子郵件,結果顯示,生成式人工智能模型只需要五分鐘就能夠制作出令人信服的欺騙性網絡釣魚電子郵件。相比之下,作為人類社會專家的工程師們完成同樣的任務則需要花費大概16個小時。
這類具有針對性的網絡釣魚,AI還克服了人類容易犯錯的兩大要素,一是語法錯誤,二是欺騙和混淆性較弱。在語言方面,非母語國家黑客編寫的釣魚郵件往往存在語法或用詞不當等錯誤與正規標準的電子郵件風格不符,但生成式AI已經能夠完美避免這些差錯,使人難以識別。而在欺騙性方面,由A能夠更加智能化地分析目標所處工作內容及環境,編寫出更具緊迫感、鼓勵收件人點擊鏈接或者偽裝為匯款請求的釣魚郵件。

以WormGPT為代表的網絡犯罪專用AI可寫出高逼真的定制化釣魚郵件
根據Perception Point與Osterman Research公司于2023年8月聯合發布的《人工智能在電子郵件安全中的作用》報告,有91.1%的組織稱他們已遭受到了被AI增強的電子郵件攻擊。可見,針對AI的網絡反釣魚迫在眉睫。
終極武器:AI vs AI?
由于AI的加持,僅靠人類的常規判斷思維已不足以判斷以假亂真的網絡釣魚行為,最后的辦法似乎就是“用AI來打敗AI”。
一項由Osterman Research所做的調查數據顯示,僅兩年內已有80%的組織已在常規保護措施之外,部署了或正在積極推進基于AI的電子郵件安全解決方案,其中主要分為兩個方向,一方面是現有的電子郵件安全提供商將AI防護集成到他們的產品中;另一方面是組織正在刻意尋找新的AI啟用的解決方案。
目前有一種方法是利用AI分析常用發送者和接收者的習慣和特性,為每一位企業組織員工繪制通信模型。對于一些不常見的郵件發送模式則單獨通過特定策略檢測其中的混淆元素,包括利用社交圖技術進行基礎發送模式的分析、識別相似或相近的電子郵件地址、鑒別包含社交工程技巧的信息、檢測冒名頂替的標記和其它品牌相關的視覺元素以及對電子郵件中的語氣、情感和風格進行分類。
根據安全公司 Abnormal 發布的一份報告,研究人員提出了一種名為Giant Language Model Test Room(GLTR)的AI檢測工具,該工具利用了“相關釣魚郵件內容主要采用‘預測式’調用‘特定高概率單詞’”的特點,從而精確識別 AI 釣魚郵件。即使黑客讓AI使用更正式的措辭創建郵件,但GLTR工具仍然可以判斷郵件中哪些部分高概率由人工智能生成。然而,報告中也指出,相關檢測手法存在一定的誤殺率,100%準確判斷郵件內容是否由AI創建幾乎是不可能的。

安全公司 Abnormal的GLTRAI檢測工具示例
此外,面對AI,安全培訓也同樣發揮著重要作用。IBM X-Force的一份報告建議企業修改培訓模塊,取代過去那種認為主要通過語法錯誤和拼寫錯誤就能識別網絡釣魚郵件的觀念,在員工培訓中加入 vishing(基于語音的網絡釣魚)等先進技術,提供更加全面的防御策略。
展望:立法是根本
當AI根植于網絡,深度參與內容信息傳播與各行業的日常經營生產活動中時,所帶來的全球性安全風險讓我們再次深刻認識到新技術所帶來的兩面性,也許我們能用更加先進和精確的檢測技術來更好地識別深度偽造內容,但最根本的,是需要從法制的角度對AI“亮劍”。
2023年12月8日,歐洲議會、歐盟成員國和歐盟委員會三方就《人工智能法案》達成協議,該法案正式成為全球第一部關于人工智能領域的全面監管法規,旨在以全面的、基于倫理的方式監管AI,法案內容包括對AI系統的安全性、透明度、可追溯性、公平性和道德標準的評估和管理,以及對AI系統的監管、執法和司法審查等方面的規定。該法案按照不同的風險類別為人工智能技術應用進行了分類,由低到高劃分為四個等級,從“不可接受”,也就是必須禁止的技術,到高、中、低風險的人工智能,通過識別不同風險來進行監管。
現階段,我國AI模型賽道可謂是百花齊放,但與之面臨的安全風險在全世界所有國家中無疑名列前茅,尤其是近期猖獗的電信詐騙,由AI參與的詐騙套路已開始浮現。
為了對人工智能進行規范化管理,我國已經在2023年1月10日發布的《互聯網信息服務深度合成管理規定》中對人工智能的濫用進行了部分限制,比如“提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能服務的,應當進行顯著標識,避免公眾混淆或者誤認。
任何組織和個人不得采用技術手段刪除、篡改、隱匿相關標識。”而在8月15日正式施行的《生成式人工智能服務管理暫行辦法》中也首次聚焦生成式AI,進一步明確法律邊界和責任主體,要求生成式AI提供者應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責。
這無疑是一個肉眼可見的立法趨勢,專門針對人工智能的立法已箭在弦上。2023年7月6日,在2023世界人工智能大會科學前沿全體會議上,科技部戰略規劃司司長梁穎達表示,人工智能法草案已被列入國務院立法工作計劃,提請全國人大常委會審議。未來,AI必將沐浴在陽光下發展和作為,而不是成為蒙蔽和坑害大眾的黑手。
參考資料
深度偽造與國家安全:基于總體國家安全觀的視角
人工智能安全的隱憂:深度偽造技術的挑戰與應對
警惕AI偽造:McAfee發布革命性聲音識別技術
一封釣魚電郵背后的AI攻防戰
Anna艷娜
一顆小胡椒
尚思卓越
安全俠
Anna艷娜
一顆小胡椒
安全牛
中國信息安全
RacentYY
Anna艷娜
Andrew