<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    網絡安全領域處理AI決策的四種方式

    VSole2023-03-27 10:43:00

    時至今日,企業面臨的網絡攻擊規模意味著,自治系統已經成為網絡安全的重要組成部分。我們不得不思考安全團隊與人工智能(AI)之間的理想關系到底應該是什么樣子:應該為AI程序賦予何種程度的信任?安全團隊何時介入AI決策?

    網絡安全領域引入自治系統后,操作人員的決策門檻就能隨之提高了。他們不再親自做出數量多到難以應付的“微決策”,而是制定一系列約束和指南,供AI機器大規模做出數百萬細粒度微決策時遵守。于是,工作人員不再在微觀層面上管理,而是轉到宏觀層面上:其日常任務變得更加高級、更具戰略性,只有最重要的輸入或操作請求才需要人員介入。

    但是,人類和AI之間的關系將變成什么樣子呢?下面我們剖析《哈佛商業評論》概述的四種情況,解析人機交互的各種可能性,并探討在網絡領域中又會是何種景象。

    人在環內(HitL)

    這種情況實際上是人類在做決策,而機器只是提供操作建議,以及這些決策背后的上下文和支持性證據,供操作人員縮短動作和起效的時間。

    在這種情況下,安全團隊對機器如何動作或不動作享有完全的自主權。

    這種方式想要長期有效,足夠的人力資源是必須的。·而通常情況下,企業的實際情況遠遠滿足不了這個需求。不過,對于想要掌握這項技術的企業而言,這一階段是建立對AI自主響應引擎信任的重要途徑。

    例外情況下人在環內(HitLfE)

    這種模式下,絕大多數決策都是自主做出的,人類只處理例外情況,即AI在做出決策前請求人類給出一些判斷或輸入。

    人類控制著決定要標記哪些例外供審查的邏輯,而隨著數字系統越來越多樣化和定制化,還可以為不同需求和用例設置不同級別的自主權。

    這意味著,大多數事件都將由AI驅動的自治響應即時自主操作,但企業在特殊情況下“在環內”,享有決定這些特殊情況何時何處出現的靈活性。他們可以在必要的時候干預,但希望在未經仔細審查時謹慎否決或拒絕AI建議的操作。

    人在環上(HotL)

    這種情況下,機器采取所有操作,而操作人員可以審核這些操作的結果,了解圍繞這些操作的上下文。如果遇到緊急安全事件,這種安排下AI可以控制攻擊,同時通知操作人員有設備或賬戶需要支持,此時也就是操作人員下場解決事件的時候了。或許還會需要其他的取證工作,而如果多處出現入侵,AI可能會升級或擴大其響應。

    對很多人而言,這就代表了最佳的安全安排。考慮到數據的復雜性和需做決策的規模,每個事件和每個潛在漏洞都需要人員干預是不現實的。

    而在這種安排下,人類依然保有對系統操作的時間、位置和程度的完全控制,但在事件確實發生時,這數百萬個微決策就留給機器來做了。

    人在環外(HootL)

    在這種模式下,每個決策都由機器來做出,連改進過程也是個自動化的閉環。這就形成了一個自我修復、自我改進的反饋環路,AI的每個組件都饋送給下一個組件并加以改進,從而提升最佳安全狀態。

    這代表了最終完全放手的安全方法。安全操作人員不會想要自治系統成為“黑箱”——完全獨立運行,安全團隊甚至無法查看其所采取的動作或了解其如此動作的原因。即使有人確信自己永遠無需干預系統,他們仍會想要監督的。因此,隨著自制系統的逐漸完善,強調透明度就顯得愈發重要了。這也是近期可解釋人工智能(XAI)發展的一個推動因素。XAI采用自然語言處理來向操作人員解釋,以基本日常用語闡述機器采取那些操作的原因。

    這四種模式都有各自獨特的用例,所以無論公司安全成熟度如何,CISO和安全團隊都可以放心利用系統的建議,因為他們知道這些建議和決策都是基于無數微觀分析做出的,這些微觀分析的規模遠遠超出任何個人或團隊在可用時間內所能做出的。這樣一來,任何類型和規模的企業,就都能以適合自己的方式對任何用例或業務需求采用AI決策,同時自主檢測和響應網絡攻擊,防止其造成中斷或破壞。

    網絡安全人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    本周四,在拉斯維加斯舉行的BlackHat黑客大會上,拜登政府宣布啟動為期兩年的“人工智能網絡安全挑戰賽”(AIxCC),探索如何基于AI開發顛覆性的下一代網絡安全解決方案,用來保護美國最重要的軟件,包括運行互聯網和關鍵基礎設施的計算機代碼。
    近年來機器學習的快速發展使人工智能的潛在能力顯而易見。在十幾次采訪過程中,研究人員、投資者、政府官員和網絡安全高管絕大多數表示,他們正以懷疑和興奮的心情關注生成式人工智能的防御潛力。他們的懷疑源于一種懷疑,即營銷炒作歪曲了該技術的實際功能,并且認為AI甚至可能引入一組新的、人們知之甚少的安全漏洞。但這種懷疑被真正的興奮所掩蓋和緩和。這在很大程度上是由于行業領導者OpenAI發布其生成AI產品的積極性。
    近日, NVIDIA 發布了一款零信任網絡安全平臺。利用該平臺的一整套功能,網絡安全行業可構建實時保護客戶數據中心的解決方案。
    日前,全球開源安全組織OWASP(Open Web Application Security Project)發布了《AI大模型應用網絡安全治理檢查清單(V1.0)》(以下簡稱為《檢查清單》)。在這份長達32頁的《檢查清單》中,較完整地介紹了AI大模型部署應用時的安全原則、部署策略和檢查對照表,適用于那些希望在快速發展的AI領域中保持領先地位的組織和機構,使他們能夠在制定大型語言模型戰略時,專注于
    2015—2021年兩會有關網絡安全的提議提案整理,內容涵蓋“物聯網安全”、“工業互聯網安全”、“數據安全”、“網絡安全治理”等方面
    當今的網絡安全行業嚴重依賴傳統方法(主要是人工驅動的方法),隨著基于大語言模型的生成式人工智能變革浪潮襲來,首當其沖的網絡安全行業正面臨一次技術和方法的顛覆性革命,不想被淘汰的網絡安全從業人員需要重新點亮技能樹。
    2022年是人工智能和機器學習技術在網絡安全領域取得重大突破的一年,也是企業CISO們開始利用人工智能技術突破網絡安全“不對稱戰爭”困局的一年。
    奇安信提報的“支撐零信任安全架構的人工智能信任決策系統”項目在本屆網安周人工智能安全產業發展分論壇上,成功入選人工智能安全典型實踐案例。
    近年來,以AI、大數據技術以及第五代移動通信網絡技術等為代表的新一輪數字革命迅速發展。然而,人們在享受自動駕駛、高頻金融交易、刷臉支付等AI新技術發展帶來的便利同時,AI不斷進化、自我訓練式成長和變異的特征,以及基于機器學習和深度搜索提升攻擊效果的能力,也帶來了新的攻擊面和攻擊手段,數字經濟時代下的AI安全機遇與挑戰,已成為時下最具研究價值的熱點之一。
    當地時間12月18日,作為“數字歐洲計劃”的一部分,歐盟委員會為包括網絡安全人工智能在內的數字解決方案提供了 7.627 億歐元的資金。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类