<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    人工智能安全的“命門”:數據安全

    VSole2022-04-25 10:06:15

    消費者最為關心的自動駕駛技術,就屬于容易“中毒”的人工智能技術。

    人工智能正在成為網絡安全技術游戲規則的顛覆者。它不僅極大地擴展了安全團隊管理和監控系統與數據的能力,而且還提高了事件響應和恢復的彈性,顯著增加了成功攻擊的難度并減少了攻擊的回報。

    但人工智能自身仍然是一種數字技術,這意味著它也面臨安全威脅,尤其人工智能驅動的攻擊。今天的數字社會越來越依賴于系統智能和自主性,從業務流程到運輸再到醫療健康,安全漏洞造成的損失會隨著系統可能性的下降而飆升。

    任何一家計劃開發或部署人工智能技術的企業都必須認真審視他們的人工智能安全策略,了解漏洞所在的位置以及可以采取哪些措施來消除威脅。

    根據Robotics Biz的報道,迄今為止,對人工智能系統最普遍的攻擊類型是對處理大數據的算法用“數據投毒”的方式進行操縱,干擾其輸出結果。簡單來說,就是通過將漏洞或惡意數據引入系統,導致算法輸出預測結果產生偏差。

    任何聯網人工智能系統都可能遭遇這種類型的攻擊,此類攻擊通常會持續一段時間,因為其影響是漸進的,但損害是持久的。最好的對策是簡化AI算法和數據攝取過程,以及對數據條件進行嚴格控制,以便在數據進入處理鏈之前發現錯誤或惡意數據。

    通過數據源“投毒”

    人工智能的最大弱點之一就是依賴大量數據的“投喂”。這意味著攻擊者可以在不直接攻擊人工智能本身的情況下也能破壞安全性。CSET(安全與新興技術中心)最近發表的一系列論文顯示,白帽黑客已經找到越來越多的方式攻擊人工智能的數據源來控制人工智能。

    例如消費者最為關心的自動駕駛技術,就屬于容易“中毒”的人工智能技術。攻擊者對自動駕駛算法的攻擊可導致自動駕駛汽車迎頭撞上對向駛來的車輛,或者將汽車加速到危險速度,對于工廠中的人工智能系統來說,這意味著可能導致業務流程突然失控。然而,與傳統的網絡攻擊不同,攻擊人工智能的目的通常不是破壞或摧毀人工智能系統,而是控制它以使攻擊者受益,例如轉移數據、資金或制造麻煩。

    斯坦福大學密碼學教授Dan Boneh指出,基于圖像的訓練數據是最容易受到攻擊的數據之一。通常,黑客會使用快速梯度符號法(FGSM),該方法會在訓練圖像中產生人眼無法察覺的像素級變化,從而給訓練模型造成混亂。這些“對抗性樣本”很難檢測到,但卻能以多種方式改變算法的結果,即使攻擊者只能訪問輸入數據、訓練數據和輸出結果。此外,隨著人工智能算法越來越依賴開源工具,黑客也將有更多的機會使用和研究算法。

    如何保護人工智能

    人工智能技術企業如何保護自己的算法?現階段能夠采取的三個關鍵步驟是:

    • 在整個數據環境中維護盡可能嚴格的安全協議。
    • 確保所有AI操作都被記錄并被審計跟蹤。
    • 實施強大的訪問控制和身份驗證。

    此外,企業應追求更長期的安全戰略目標,例如制定專門用于AI培訓的數據保護政策,教育員工了解AI的風險以及如何發現錯誤結果,保持持續的動態風險評估機制并且保持前瞻性。

    沒有任何數字系統可以100%安全,無論它多么智能。與傳統平臺相比,人工智能系統的安全性問題更為微妙,但后果同樣嚴重,因此企業需要立即更新其安全策略以應對這一新的現實威脅,而不是亡羊補牢。

    就像傳統技術的安全防護一樣,人工智能的防護也主要包括兩方面的工作:減少攻擊的手段和機會,以及在攻擊確實發生時盡可能快地減少損害并恢復聲譽。

    參考資料:

    https://www.afcea.org/content/hacking-poses-risks-artificial-intelligence

    https://cset.georgetown.edu/publication/securing-ai-how-traditional-vulnerability-disclosure-must-adapt/

    (來源:@GoUpSec)

    數據安全人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    7月16日—18日,“創新賦能·科技自強”——第十一屆吳文俊人工智能科學技術獎頒獎盛典暨2021中國人工智能產業年會隆重舉辦。在頒獎盛典上,共有66個獲獎項目及個人受到表彰獎勵。其中,網絡空間安全技術論壇聚焦“人工智能發展與數據安全挑戰”,由電子科技大學和安恒信息承辦。數據安全工作需要監管機構以及社會企業共同努力,最大化發揮數據價值,強化數據安全治理。
    7月9日,在“2021世界人工智能大會安全高端對話”論壇上,中心副主任何小龍發布《人工智能數據安全與監管機制研究》報告。當前,人工智能正加速融入人們生產和生活的各個領域,深刻改變著生產和生活方式。數據是驅動本輪人工智能快速發展的重要基礎,數據安全決定了人工智能安全。人工智能發展與數據安全問題相互交織、不可分割,有必要加快人工智能數據安全風險研判,在引導人工智能健康發展的同時,積極加強數據安全監管與治理。
    美國 OpenAI 公司 2022 年發布的生成式人工智能(AIGC)產品 ChatGPT,憑借擁有高質量文本內容的輸出能力,能夠精確、高效地完成分析、翻譯、撰寫代碼等工作,引發了廣泛關注。
    數據安全和隱私保護問題由此成為人工智能系統在開發和應用中面臨的嚴峻挑戰。在近日召開的第十一屆吳文俊人工智能科學技術獎頒獎盛典暨2021中國人工智能產業年會上,多位專家學者就此展開了探討。實際上,人工智能數據采集、存儲、利用等方面所面臨的威脅,不僅侵害公民的合法權益,更加不利于人工智能相關產業的發展。法律規制和標準設立亟待完善“不可否認,人工智能的發展帶來了一系列嶄新的法律問題。”
    國家工業信息安全發展研究中心作為國家級信息安全研究和推進機構,聯合華為技術有限公司共同研究編制了《數據安全白皮書》,全面分析了我國數據安全產業基礎、防護關鍵技術、法律法規體系現狀,從提升數據安全產業基礎能力、加快研究和應用數據安全防護技術、強化法律法規在數據安全主權的支撐保障作用等三方面展望數據安全發展未來,提出了數據安全發展倡議,為行業發展提供借鑒和參考,積極推動我國數據治理工作有序開展。
    今年以來,以ChatGPT為代表的人工智能技術迅速發展,使人驚呼“未來已來”。
    2月25日,第六屆中國人工智能與大數據海南高峰論壇在海口舉行。海南省營商環境建設廳副廳長符革致辭隨后,中國工程院院士孔志印在論壇上發表了題為《大數據時代的數據安全挑戰與對策》的主旨演講。安恒信息AiLand數據安全島解決方案致力于解決如何推動公共數據授權運營,打破信息壁壘和數據孤島,解決公共數據授權運營過程中,數據安全和隱私保護的兩大業界難點。
    數據安全有序流動是保障數字經濟健康快速發展的關鍵基石,然而國家間數據流動往往伴生著數據控制權的轉移,必然涉及國際數據安全互信和規則認同。積極提升在全球數據安全規則的話語權和主導權,推動構建有利于本國數字經濟發展利益的國際制度格局,是世界各國的普遍共識和必然選擇。然而,與歐美國家相比,我國數據安全規則影響力與數字經濟發展水平不匹配,數據安全規則制定權和話語權不足的問題較為突出。重點分析國際數據安全
    中心副主任何小龍應邀參加會議,圍繞“人工智能基礎設施賦能智慧城市建設”發表主題演講,并發布《智慧城市人工智能計算平臺白皮書》。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类