<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    如何阻止針對AI模型的對抗性攻擊

    VSole2023-04-17 10:46:26

    人工智能(AI)技術的進步已對人類社會產生了重大影響,但也引起了研究人員的擔憂,因為隨著AI技術的深入應用,與之相應的對抗性攻擊也變得越來越普遍。這些攻擊可能會對AI系統的安全性和可靠性造成威脅,甚至產生破壞性的后果。本文將對AI模型應用中的對抗性攻擊及其威脅進行分析,并探討一些有效的防御方法。

    一、對抗性攻擊的類型

    對抗性攻擊是指利用AI模型中的不足和漏洞,破壞AI模型用來學習的數據,并生成能夠欺騙模型的對抗樣本。這些樣本看起來與正常數據非常相似,但是卻能夠導致模型產生錯誤的輸出結果。目前,對抗性攻擊已經成為了人工智能技術應用領域中一個非常重要的研究方向。

    在對抗性攻擊中,攻擊者會用多種方法生成對抗樣本,例如快速梯度符號方法(FGSM)、基于梯度的優化方法(BIM)、投影算法攻擊(PGD)等。這些方法都是通過對原始數據進行擾動,從而欺騙AI模型。根據威脅分子了解AI模型的不同方式,我們可以將AI對抗性攻擊分為以下兩類:

    1.白盒攻擊

    在白盒攻擊中,威脅分子已經充分了解AI模型的內部工作原理,知道其規格、訓練數據、處理技術和詳細參數,能夠設計專門針對該模型的對抗性攻擊。

    白盒攻擊的第一步是改變原始訓練數據,修改后的數據仍將與原始數據非常相似,但足以導致AI模型生成不準確的結果。在攻擊之后,威脅分子還會通過為模型反饋對抗性示例(旨在導致模型出錯的失真輸入)來評估模型的有效性,并分析輸出。結果越不準確,攻擊就越成功。

    2. 黑盒攻擊

    如果攻擊者只能獲取AI模型的輸入和輸出,無法獲取其內部結構和參數,就會使用黑盒攻擊方法。在這種攻擊場景下,攻擊者需要使用一些基于元模型或遷移學習的技術來生成對抗性樣本。黑盒攻擊的第一步是選擇AI模型的輸入目標。然后,通過為數據添加精心設計的干擾信號來生成惡意輸入,這些干擾信號是人眼看不見的,卻能導致AI模型功能失靈。模型生成的結果可以幫助攻擊者不斷修改版本,直到模型會反饋他們希望實現的對抗性結果。

    二、對抗性攻擊的手段

    惡意攻擊者可以使用不同的技術來執行對抗性攻擊,主要包括:

    1. 投毒

    攻擊者可以操縱(毒化)AI模型的一小部分輸入數據,以破壞其訓練數據集和準確性。最常見的投毒形式是后門投毒,即使極少一部分訓練數據受到影響。在很長時間里,AI模型仍然可以繼續給出高度準確的結果,直到它在接觸特定的觸發器時被“激活”而功能失靈。

    2. 逃避

    這種技術的攻擊危害較大,因為它可以通過規避AI的安全系統來避免被發現。大多數AI模型配備了異常檢測系統。而逃避技術充分利用了針對這些系統的對抗性實例。對自動駕駛汽車或醫療診斷模型等應用領域,使用逃避攻擊帶來的不準確結果可能會釀成嚴重后果。

    3. 傳遞

    使用這種技術的威脅分子不需要事先了解AI模型的參數。他們使用在過去成功攻陷的模型來發起對抗性攻擊。如果一個AI系統被訓練用于處理對抗性樣本,那么它可能會將正常數據也誤分類為對抗性樣本。這種情況下,一個已經被攻破的模型可能會成為其他模型的威脅。

    4. 代理

    攻擊者也可以使用代理模式來規避AI模型的安全防護系統。通過使用這種技術,威脅分子可以創建與目標模型非常相似的版本,即代理模型。代理模型的結果、參數和行為與被復制的原始模型高度相似。這種攻擊多被用于針對原始目標AI模型。

    三、阻止對抗性攻擊的方法

    解決對抗性攻擊問題是非常必要的。研究人員提出了一些技術性方法來提高模型的魯棒性。同時,也需要加強安全意識和技術防范措施,在實際應用中保障AI系統的安全和可靠性。

    1.對抗性訓練

    對抗性訓練是指使用對抗性示例來訓練AI模型,提高了模型的穩健性,讓模型能夠適應各種惡意輸入。對抗訓練是目前應用最廣泛的一種防護方法。在對抗訓練中,模型會被迫學習如何處理對抗性樣本,從而提高其魯棒性。但是,對抗訓練也存在一些問題,例如需要大量的計算資源和時間,并且可能會導致模型過度擬合等。

    2.定期安全審計

    通過定期檢查AI模型異常檢測系統,可以有效識別和過濾對抗性樣本。這需要有意為模型饋送對抗性示例,并密切關注模型面對惡意輸入時的行為。此外,開展安全審計通常需要額外的檢測工具和模塊,可能會影響系統效率。

    3.數據凈化/干擾

    這個方法指使用輸入驗證來識別模型中的惡意輸入。當識別惡意軟件后,必須立即清除。使用輸入驗證來識別。同時,也可以在輸入數據中添加一些隨機噪聲或擾動,以增加攻擊者生成對抗性樣本的難度。

    4.模型融合

    可以將多個深度學習模型進行融合,以提高整體系統的魯棒性和安全性。不過在多個AI模型的融合過程中,可能會增加系統的復雜度和計算成本。

    5.安全更新

    實施高效的安全更新管理和補丁更新也很重要,不是防火墻、反惡意軟件程序、入侵檢測防御系統,這類多層安全措施有助于阻止攻擊者對AI模型應用造成外部干擾。

    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    這些方法都是通過對原始數據進行擾動,從而欺騙AI模型。大多數AI模型配備了異常檢測系統。這種攻擊多被用于針對原始目標AI模型。同時,也需要加強安全意識和技術防范措施,在實際應用中保障AI系統安全和可靠性。
    深度神經網絡(DNNs)缺乏透明性使得它們容易受到后門攻擊,其中隱藏關聯或觸發器會覆蓋正常分類以產生意想不到結果。例如,如果輸入中存在特定符號,則具有后門模型總是將人臉識別為比爾蓋茨。后門可以無限期地隱藏,直到被輸入激活,并給許多與安全或安全相關應用帶來嚴重安全風險,例如,生物識別系統或汽車自動駕駛。
    對決策者和從業者來說,務實做法是細致了解哪些任務可以從機器學習中受益,哪些任務不能。
    雖然這些攻擊類型主要用于繞過內容過濾器,但安全研究人員警告,急于推出生成式AI系統帶來了數據被盜和網絡犯罪分子在互聯網上造成破壞可能性。顧名思義,這可以避開OpenAI規定ChatGPT不得用于生成非法或有害材料政策。運行Claude AI系統Anthropic表示,這種破解“有時對Claude有效”,它在不斷改進其模型
    “蓄意攻擊”是指有目的地通過侵入人工智能系統來破壞一個組織業務運作,目的是獲取領先于對手競爭優勢。在蓄意攻擊場景中,對AI和ML數據安全威脅可能尤其具有破壞性。當人工智能系統遭到針對性蓄意攻擊時,其后果不僅僅是數據被竊取,而是公司競爭能力被破壞。威脅7AI驅動攻擊研究人員發現,惡意攻擊者正在將人工智能武器化,幫助他們設計和實施攻擊
    人工智能應用帶來紅利和其引發安全隱患,猶如一個硬幣兩面,需要全行業高度關注并找到有效應對方法。
    反人臉識別技術概述
    2023-06-16 09:27:10
    雖然這兩個系統使用了類似技術來分析面部圖像,但面部驗證系統需要用戶明確同意才能部署,而許多人臉識別系統在未經用戶同意情況下運行。通過使用反識別工具,用戶 P 可以采取針對性防御措施,以保護其隱私并防止被商業人臉識別系統識別出來。
    當前,以數字經濟為代表新經濟成為經濟增長新引擎,數據作為核心生產要素成為了基礎戰略資源,數據安全基礎保障作用也日益凸顯。伴隨而來數據安全風險與日俱增,數據泄露、數據濫用等安全事件頻發,為個人隱私、企業商業秘密、國家重要數據等帶來了嚴重安全隱患。近年來,國家對數據安全與個人信息保護進行了前瞻性戰略部署,開展了系統性頂層設計。《中華人民共和國數據安全法》于2021年9月1日正式施行,《中華人
    2021年5月18日,《美國創新與競爭法案》(United States Innovation and Competition Act of 2021)通過,由芯片和ORAN5G緊急撥款、《無盡前沿法案》、《2021戰略競爭法案》、國土安全和政府事務委員會相關條款、《2021迎接中國挑戰法案》和其他事項六部分構成。該法案進一步強化了《無盡前沿法案》提出在科技領域贏得與中國競爭目標,提出了十大
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类