<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    深度偽造Deepfakes正在打開網絡安全的“潘多拉魔盒”

    VSole2022-08-17 10:13:25

    2017年,當名為“Deepfakes”的用戶在互聯網上首次發布合成視頻時,也許不曾想到他已經打開了“潘多拉魔盒”。隨著DeepFake技術在缺少監管的狀態下野蠻生長至今,已逐漸成為危害經濟和社會穩定的存在。無數事實都在時刻提醒我們:眼見未必為實!不能再理所當然地相信互聯網上的圖像和視頻。

    Deepfakes技術發展大事記

    2014:Deepfakes技術誕生

    2014年,“GAN之父”Ian Goodfellow與同事發表了首篇介紹生成對抗網絡(GAN)的科學論文,它就是我們今天深入討論的deepfakes的技術基礎。

    2015年:GAN越發完善

    研究人員開始將GAN與經過圖像識別優化的多層卷積神經網絡(CNN)相結合。CNN能夠并行處理大量數據,而且在顯卡上的運行效率特別高。這一組合取代了以往較為簡單的GAN代理驅動網絡,也讓生成結果的可信度邁上新的臺階。

    2017年:第一段Deepfakes視頻誕生

    生成器代理通常會生成低分辨率的圖像,因為越清晰越容易被檢測出問題,只有這樣,檢查代理才難以檢測內容的真偽。Nvidia通過分階段訓練網絡:先由偽造AI學習創建低分辨率圖像,然后,將分辨率逐漸提升,以此推動Deepfakes仿真能力實現了質的飛躍。自此,Deepfakes一詞就成了AI生成圖像和視頻的代名詞。

    2018年:Deepfakes登陸YouTube頻道

    此后,Nvidia研究人員進一步提升GAN控制能力,他們可以針對單一圖像特征(例如人像中的“黑發”和“微笑”)做出調整。通過這種方式,可以將訓練圖像的特征有針對性地轉移到AI生成圖像上。與此同時,首個專門研究Deepfakes的YouTube頻道正式上線,包括了各種類型的視頻。

    【網絡轉移可用于控制圖像AI,例如僅創建微笑著的人像】

    2019年:Deepfakes成為主流

    拋開技術進步不談,2019年是deepfakes正式成為主流的一年。網絡上Deepfakes數量快速增加,Deepfakes的技術發展速度超出了預期,技術專家Hao Li甚至大膽預測,Deepfakes將在很快走向完美。

    2020年:對Deepfakes提出監管

    Facebook在2020年美國大選開始時宣布,將在自家平臺上全面禁止deepfakes——諷刺或戲仿性質的Deepfakes除外;YouTube也采取了類似的指導方針;Twitter則開始執行其2019年推出的管理Deepfakes準則;當年8月,TikTok也開始禁止其視頻平臺違規使用Deepfakes技術。

    在這一年,Jigsaw公司正式發布了一款由AI驅動的檢測工具Assembler,可幫助管理者檢測出Deepfakes圖像。高通則投資了一家初創公司,該公司能夠以不可撤銷的方式將原始照片及視頻標記為“原創”,從而降低后續的Deepfakes識別難度。

    目前階段

    Deepfakes技術本身仍在繼續發展,微軟已經正式推出了FaceShifter,能夠將模糊的原始圖像處理為可信的偽造畫面。娛樂巨頭迪士尼也開始在電影制作中廣泛應用Deepfakes技術,并推出了百萬像素級Deepfakes視頻制作工具。這一切,都為Deepfakes可能被利用的犯罪活動創造了條件。

    今年6月,FBI發布公告,提醒公眾警惕在遠程求職面試中使用Deepfakes技術假扮成他人的情況。這些職位大多與信息技術、系統開發、數據庫以及軟件管理相關。如果這些詐騙者成功過關,將有權訪問目標企業的敏感數據,包括客戶 PII(個人身份信息)、財務數據、公司IT數據庫和/或專有信息。

    Deepfakes威脅日益增加

    經過多年的發展,現在的Deepfakes技術已經從“一眼假”變成真偽莫辨的“實時換臉”,而且門檻極低,只需要通過一款軟件,幾張圖片,即可一鍵生成。而一系列的網絡安全事件也充分表明,Deepfakes引發的信任安全危機可能才剛剛開始。

    根據VMware最新發布的《年度全球事件響應威脅報告》顯示,去年,使用面部和語音替換技術進行網絡攻擊的數量增長了13%。其中,電子郵件是Deepfakes攻擊的主要傳遞載體,占整體攻擊數量的78%,這與商業電子郵件入侵(BEC)嘗試的持續增加有關。

    此外,在接受研究人員調查的網絡安全專業人士中,有66%的受訪人表示他們在過去一年中發現了至少一起此類事件。事實再次證明,Deepfakes技術用于網絡攻擊已經從理論威脅演變成了現實危害。

    早在2019年,美國國土安全部就對Deepfakes技術的應用安全性提出了質疑,稱“使用該技術騷擾或傷害他人利益的現象應當引起公眾重視”。然而,用于分辨Deepfakes偽造視頻的技術目前還尚未成熟。

    根據威脅情報公司Sensity發布的一份最新研究報告顯示,Deepfakes檢測算法和軟件有86%的幾率會將經Deepfakes偽造處理過的視頻認定為“真”。而2022年3月卡內基梅隆大學的研究指出,對比市面上各種Deepfakes技術檢測產品的算法和硬件基礎發現,其準確度在30%-90%之間浮動。

    更重要的是,隨著Deepfakes技術的快速發展,也許未來再精密的Deepfakes檢測算法也無法準確地識別真偽。這意味著Deepfakes技術將最終改變游戲規則——無論是社交還是娛樂方面。Deepfakes專家Hao Li認為,這種發展趨勢是完全有可能的,因為圖像的實質不過是輔以適當顏色的像素,AI找到完美的副本只是時間問題。

    此外,短視頻的盛行,以及Reface或Impressions等應用的普及,使得偽造圖像和視頻正變得司空見慣。過去,人們堅信“耳聽為虛,眼見為實”,而現在,可能正如GAN之父Ian Goodfellow所言,“AI也許正在關閉我們這一代觀察世界的大門。”

    積極防御Deepfakes應用風險

    雖然Deepfakes技術在應用時產生的威脅看起來很嚴重,不過,我們也并非完全無計可施。FBI在之前的公告中就指出,雖然一些Deepfakes視頻處理的極為逼真,但并未達到完美無瑕的程度。通過一些不正常的眨眼、不正常的光線、不協調的聲音,以及咳嗽、打噴嚏等動作細節,都可識別出視頻的真假。在時長超過10s的視頻畫面中,發現這些破綻并不難。

    同時,企業組織還可以采取多種措施來抵御它們,包括培訓和教育、先進技術以及威脅情報等,從而在一定程度上抑制惡意的Deepfakes活動:

    • 首先,教育和培訓員工有關Deepfakes社交工程攻擊(尤其是那些最有針對性的攻擊)的知識是降低風險的一個重要因素,而且必須將重點放在財務部門相關員工身上,并且經常性提醒他們注意這種可能性;
    • 其次,在技術方面,建議企業組織部署更多的分析系統,以及時發現異常偽造行為等。Deepfakes欺詐活動一般需要時間來設置和執行,這讓潛在受害者有足夠的時間來發現警告信號并采取行動;
    • 除此之外,企業還可以通過隨機分配用戶指令來實現有效防御。因為Deepfakes創作者無法預測數以千計的可能請求。雖然犯罪分子可以實時操縱Deepfakes,但視頻質量會顯著下降,因為Deepfakes技術所需的強大處理能力使其無法快速做出反應。在此情況下,反復響應錯誤的用戶可以被標記,并進行進一步調查。
    圖像深度潘多拉魔盒
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    今年6月,FBI發布公告,提醒公眾警惕在遠程求職面試中使用Deepfakes技術假扮成他人的情況。而一系列的網絡安全事件也充分表明,Deepfakes引發的信任安全危機可能才剛剛開始。事實再次證明,Deepfakes技術用于網絡攻擊已經從理論威脅演變成了現實危害。
    互聯網是把雙刃劍,用得好,它是阿里巴巴的寶庫;用不好,它就是潘多拉魔盒,小可殺人于無形,大可顛覆國家政權。推動互聯網安全互聯需要發揮密碼的基礎支撐作用。密碼是互聯網的基礎設施,是安全互聯互通的前提。人、機、物的可信互認、安全互通均依賴于密碼。在我國,密碼分為核心密碼、普通密碼、商用密碼。其中,商用密碼用于對不涉及國家秘密內容的信息進行加密保護或者安全認證,包括密碼技術、密碼產品和密碼服務。商用密
    KCon 2021部分PPT發布
    2021-11-09 07:32:15
    今年是 KCon 10周年,疫情環境下線下會議舉步維艱,原本計劃在8月底進行的大會隨后推遲到10月底。考慮到未到場聽眾的急切心情,我們決定提前對外發布 KCon 議題。這次披露的是QEMU中比較罕見的可控長度越界讀寫漏洞,可以穩定利用并進行虛擬機逃逸,本次是首次披露該模塊的漏洞細節。本議題將介紹如何針對 CFI 的固有缺陷來突破其防御。
    美國時間4月21日,美國率領一眾經濟體宣布建立“全球跨境隱私規則”體系——Global Cross-Border Privacy Rules System。本質上是將APEC框架下的CBPRs體系轉變成一個全球所有國家或經濟體都可以加入的體系。公號君翻譯美國商務部網站發布的宣言,供大家參考。
    一直關注數據安全,公號君決定新開一個系列的研究筆記,關注數據要素治理。此前,本公號發表過的關于數據要素治理的相關文章包括: 《非個人數據在歐盟境內自由流動框架條例》全文中文翻譯(DPO沙龍出品) 簡析歐盟《數字市場法》關于數據方面的規定 數據流通障礙初探——以四個場景為例 對“數據共享合法化”的分析與思考系列之一:以《關于歐洲企業間數據共享的研究》為起點 對“數據共享合法化”的分析與思考 系列之
    編者按: 關于企業上市全過程中的數據安全、網絡安全和個人信息保護方面的監管重點、風險和應對,DPO社群中的很多同仁發表過一些文章: 企業上市過程面臨的數據合規問題和相關風險:境外篇 2021版(DPO社群成員觀點) 從墨跡IPO被否看擬境內上市企業的數據合規工作(DPO社群成員觀點) 企業上市過程面臨的數據合規問題和相關風險:境外篇(DPO社群成員觀點) 企業上市過程面臨的數據合規問題和相關風
    2022年,在狂濤駭浪中前行的網絡安全產業,將駛向何方?還會有哪些新的記錄和挑戰需要面對?GoUpSec整理了眾多業界專業專家和知名廠商的預測報告,匯總了2022年網絡安全的20大趨勢預測。
    深度偽造最早是指利用人工智能應用程序制作的逼真的合成、虛假音視頻內容,這些合成的虛假圖像、聲音和視頻內容可以描繪人們從未做過和從未發生過的事情,而且深度偽造圖像和音視頻可以模仿目標的面部表情、動作和語音的音調、色調、重音和節奏,非常逼真,很難區分和檢測。
    近期,電視劇《狂飆》的爆火,激起了一些UP主的二創激情,將劇中的“CP”角色通過AI換臉移植到其他影視片段中,形成讓網友驚呼“眼前一黑”的戲劇化效果,同時也收獲了滿滿流量。乍一看這只是單純的娛樂行為,但有時諸如”AI換臉“等深度造假技術(Deepfakes)可不只是”逗你笑“這么簡單,背后的安全隱患不容忽視。
    眾所周知,人工智能正迎來第三次發展浪潮,它既給社會發展帶來了巨大機遇,同時也帶來了諸多風險,人工智能對國家安全的影響已成為世界各國的重要關切和研究議程。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类