深度造假的現狀:呼吁加強監管、全面的人工智能教育和技術干預
正如眾議院情報委員會主席 Adam Schiff 最近在國會聽證會上宣稱的那樣,“人工智能和機器學習的進步導致了先進的、經過篡改的媒體類型的出現,即所謂的‘深度偽造’,使惡意行為者能夠煽動混亂,分裂或危機。他們有能力破壞整個競選活動,包括總統競選活動。”據BBC報道 ,已經發生了多起犯罪分子利用 Deepfake 音頻 冒充首席執行官并進行電匯的實例。
盡管 Deepfake 技術確實存在潛在危害,但它只是現有技術(例如 Adob??e Photoshop 和視頻編輯軟件)的高級版本。每一項新技術都會帶來許多批評者,他們強調其潛在影響。重要的是要記住,技術本身是不可知的。它可以用來幫助或傷害。布法羅大學人工智能研究所所長戴維·杜爾曼 (David Doermann) 表示:“底層技術并沒有什么根本性的錯誤或邪惡;它只是一種行為。”與基本圖像和桌面編輯器一樣,深度偽造只是一種工具。生成網絡的積極方面遠多于消極方面。”也就是說,深度偽造音頻和視頻確實引起了人們的擔憂,尤其是當它們與社交媒體平臺結合使用時。
當深度偽造視頻在社交媒體上共享時,文件會被縮小和壓縮,從而使破譯文件的真實性變得更加困難。當合成媒體像野火一樣蔓延時,歸屬和痕跡證據被摧毀。這可能會產生嚴重的副作用。考慮到深度造假視頻在 IPO 前一天晚上瘋傳的可能性,波士頓大學法學教授 Danielle Citron 感嘆道:“市場的反應速度遠遠快于我們揭穿它的速度。”此外,深度造假媒體的泛濫將導致 Citron 所說的“說謊者紅利”,即人們將開始懷疑內容是否真實,從而使說謊者能夠宣揚他們實際上說過但沒有說過的話。為了解決這種信任衰退問題,Citron 表示,“我們已經在最高層的講壇上看到了‘騙子紅利’的實際發生。所以,我認為我們遇到了一個真正的問題。”
軟件公司正在引領這場戰斗
2019 年 12 月,Facebook 與微軟、人工智能合作伙伴組織以及一組學者發起了“Deepfake 檢測挑戰賽”,為幫助開發 Deepfake 檢測軟件的貢獻者提供 1000 萬美元的獎金。這場競賽將于 2020 年結束。還有一些軟件公司也專注于媒體操縱檢測,包括阿姆斯特丹的 Deeptrace Labs、巴爾的摩的 ZeroFox、圣地亞哥的 TruePic,當然還有國防部的國防高級研究計劃局 ( DARPA)的 MediFor(媒體取證)團隊也在該領域保持警惕。
企業可以保護自己免受深度偽造音頻和視頻的迫在眉睫的威脅
解決方案的一部分將是提供全面的人工智能教育。盡管立法者可能要求搜索引擎和社交媒體公司識別并在合成媒體上提供水印,但我們也需要對我們自己的員工進行深度造假技術的教育。尤其是 Deepfake 音頻正變得越來越多。因此,員工必須警惕任何聽起來不太對勁的電話。這些電話可能是社會工程嘗試。就深度偽造視頻而言,可以通過面部區域周圍的模糊程度和膚色變化來識別它們。另外,還要注意是否有不自然的動作和光線。
