<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    應用安全的盲點與熱點:AI安全

    VSole2023-04-06 10:26:52

    隨著AI(人工智能)技術引爆點的到來,AI安全風險快速累積,已經成為應用安全的新盲點和新熱點。

    AI正在吃掉世界

    硅谷大佬們曾經常掛在嘴邊的一句話是:“軟件正在吃掉世界”,如今,隨著ChatGPT為首的大語言模型人工智能的降臨,人工智能市場突飛猛進,“AI正在吃掉軟件(世界)”已經成了業界的共識。

    幾乎是一夜之間,從內容創作者到大型科技公司的首席執行官,每個人都空前賣力地自發炒作人工智能話題。原因很簡單,人工智能已經展現出了掀起一場新的工業革命的潛力。

    雖然近日美國上千名科技精英和技術專家聯名簽署公開信,呼吁全球所有AI實驗室未來六個月內暫停開發比GPT-4更強大的(接近通用人工智能的)AI系統,以避免當前AI風險控制和“對齊”能力滯后導致的“對社會和人類的深遠風險”。但是ChatGPT發動的AI技術革命已經無法關閉和暫停,至少對于黑客和網絡犯罪分子如此。

    毫無疑問,每個人、每家公司,都將在未來幾年內成為人工智能的重度用戶。但是有一個重要問題被大多數人忽視了,那就是(企業內部部署和訓練的)人工智能應用也帶來了許多網絡安全團隊沒有意識到的新風險。

    應用安全的新熱點:AI安全

    就像幾十年前應用安全是傳統網絡防火墻的盲點,針對人工智能的攻擊也是當下應用安全的盲點,或者說,新命題。

    針對AI的攻擊原理

    對AI的攻擊往往會針對機器學習的工作方式。機器學習是人工智能的引擎,機器學習模型從訓練數據中學習,并建立基于這些數據做出決策的能力。

    最初,模型可能會犯錯誤,這些錯誤會根據實際數據進行檢查并用于對其進行微調。你提供給模型的數據越多,隨著時間的推移,它就越準確。

    看看上圖,您如何評估其安全性?

    您要掃描底層基礎架構嗎?訪問控制?還是防護暴露的API?

    從風險控制的角度來看,以上都是應該采取的措施。

    大多數攻擊者會嘗試破壞機器學習和人工智能應用程序,篡改決策過程,或者提取訓練數據。

    但是,您如何確定模型是否易受攻擊?如何應對針對AI的獨特攻擊呢?我們有必要先了解一下當前主流的針對AI系統的攻擊。

    常見的針對AI系統的攻擊

    一、繞過攻擊

    顧名思義,逃避攻擊是攻擊者試圖繞過或“逃避”機器學習模型。

    這些通常是通過對提供給模型的數據進行小的更改來完成的。

    人類無法察覺的細微的數據篡改就可能會導致ML模型做出截然不同的決定。

    • 如果攻擊者可以繞過用于惡意軟件檢測公司的機器學習模型怎么辦?
    • 或者通過對圖像進行微小的更改來欺騙面部識別系統?
    • 或者讓自動駕駛汽車認為一棵樹是一條開闊的道路?

    如何防護

    • 防止繞過攻擊的第一步是找出您的模型是否容易受到攻擊。
    • 就像網絡安全團隊進行滲透測試和安全審查以發現安全漏洞一樣,需要進行基于AI的安全測試。
    • 逃避攻擊可以通過使用“對抗性樣本”來發現,這些樣本旨在測試針對這些攻擊的模型。
    • 盡快將其納入安全測試流程。
    • 查找此類攻擊示例最佳資源是SecML,一個開源的Python庫,用于機器學習(ML)算法的安全性評估。

    二、推理攻擊

    與繞過攻擊類似,推理攻擊也會嘗試“欺騙”模型,并使它們以從未設計過的方式行事。

    推理是一種讓模型披露有關模型如何工作以及使用哪些數據來訓練它的信息的方法。模型通常會暴露API,攻擊者可以繼續查詢這些API,直到他們能夠繪制模型工作方式的完整畫像。

    通過推理攻擊,攻擊者能夠重建用于訓練機器學習模型的人臉。這種攻擊可能非常危險,特別是對于金融機構、執法等敏感行業中使用的模型。

    如何防護

    • 就像應用安全的基本原則之一是清理輸出一樣。ML模型必須清理它們所響應的內容。在響應中泄露過多信息可能會允許惡意攻擊重建機器學習邏輯和所使用的數據。
    • 嘗試提供經過凈化和匿名處理的響應(輸出),使攻擊者難以找出AI系統的內部工作原理。

    三、中毒攻擊

    勒索軟件是企業的噩夢,攻擊者會加密或“污染”企業的關鍵數據。同樣,數據也是機器學習模型的命脈,同樣會被攻擊者針對并受到污染。

    通過“中毒攻擊”,攻擊者可以使機器學習模型的輸出精度大幅下降甚至變得不可用。

    例如,將特定惡意軟件添加到用于訓練反惡意軟件解決方案的數據中,導致該惡意軟件無法被檢測。

    企業需要確保訓練中使用的數據的整個生命周期都是安全的,這一點至關重要。

    如何防護

    • 必須嚴格檢查人工智能模型訓練數據的安全控制,確保數據不會被篡改。這說起來容易做起來難,因為大多數公司都外包了數據模型,而不是在內部維護它們。
    • 正如對應用程序進行質量測試以確保能正常工作一樣,每次訓練數據刷新后都必須檢查機器學習模型,以確保其功能未被錯誤數據篡改。

    如何創建AI安全文化

    企業需要對AI系統實施控制措施,同時建設相應的AI安全文化,加固AI安全相關的人員、技術和流程,以防止針對AI的攻擊。

    以下是AI安全文化建設方面的一些建議:

    • 網絡安全團隊需要接受AI攻擊相關的技術和意識培訓。網絡安全行業現在還沒來及開發并提供AI應用程序防火墻,因此對于開發或部署AI的企業來說,了解此類攻擊是如何發生的,并在人員和流程領域進行加固至關重要。
    • 將企業機器學習模型可能受到的攻擊納入威脅建模。
    • SIEM解決方案能否檢測攻擊者掃描ML模型API的目的?以此為起點開始建立你的AI安全監控功能。
    • 讓滲透測試團隊研究MITRE ATLAS等資源,這是了解AI攻擊與防御的重要資源。
    機器學習人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    備受全球信息安全行業矚目的RSA Conference 2023近期于美國舊金山召開,本次會議繼續聚焦信息安全領域的前沿技術和熱點話題。
    人工智能技術已經開始融入到各類應用系統中,但研究機構Gartner認為:目前的自動化技術應用水平和能力可以進一步提升。Gartner分析師預測:超自動化技術很快將會成為全球性的商業技術發展趨勢。在網絡安全領域,超自動化可能是讓組織有效管理眾多警報和網絡事件的利器。
    摘 要:科技創新能力已經越來越成為衡量一國綜合國力、軍事實力的決定性因素,也深刻影響著武器裝備發展和未來作戰模式。以美國為代表的軍事強國高度重視并長期堅持科技創新,通過制定戰略規劃、強化頂層管理、設立創新機構、加快項目布局等方式,多措并舉推動網信重點領域科技創新,加速前沿科技創新成果的軍事應用。截至目前,人工智能、區塊鏈、網絡安全等技術領域很多科技創新成果已經取得突破性進展,未來將對武器裝備發展和
    在通過釣魚郵件等一系列手法占領一臺計算機之后,攻擊隊入侵的腳步會進一步加快,包括收集域內信息,探查可能保存機密文件和敏感信息的主機位置,確定橫向移動的目標,比如存儲了所有計算機用戶的賬戶密碼信息的域控制主機。
    最新研究數據顯示,在2021年發現的惡意軟件新型變種超過1.7億個,這讓企業組織的CISO及其團隊在識別和阻止這些新威脅時面臨巨大的壓力。同時,他們還要面對各種挑戰:技能短缺、手動關聯數據、鑒別誤報和開展漫長的調查等。
    CISO及其團隊在識別和阻止海量新威脅的同時,又不得不承受著來自各方面的挑戰。
    勒索軟件攻擊在2023年構成重大威脅。2023年,CaaS將繼續構成威脅,這要求組織通過員工培訓、威脅情報和事件響應解決方案優先考慮防御。2023年,網絡衛生對于保護個人信息免遭竊取和侵害仍至關重要。組織必須隨時了解并遵守不斷變化的法規,以保護其系統免遭網絡威脅。員工意識到異常并向IT管理員報告異常可以大大降低遭受成功攻擊的風險。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类