<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    ChatGPT當安全分析師,偶爾會犯錯

    VSole2023-02-21 09:14:31

    上周公布的一些實驗結果已經證明,當下大熱的大型語言模型(LLM)ChatGPT可用于幫助防御者分類潛在安全事件和發現代碼中的安全漏洞——雖然這個人工智能(AI)模型并非專為此類活動而訓練的。

    ChatGPT作為事件響應工具有何效用?在2月15日發布的分析報告中,卡巴斯基事件響應團隊主管Victor Sergeev發現,ChatGPT能夠識別在被黑系統上運行的惡意進程。Sergeev通過Meterpreter和PowerShell Empire代理感染了目標系統,執行了常見黑客操作,然后用ChatGPT驅動的掃描器針對系統進行掃描。

    在描述實驗的博客文章中,Sergeev寫道,這個LLM識別出系統上運行著兩個惡意進程,并精準略過137個良性進程,很大程度上降低了潛在開銷。

    “ChatGPT成功識別出可疑服務,且沒有誤報。至于第二項服務,ChatGPT給出了結論,說明為什么該服務應該被歸為入侵指標。”

    安全研究人員和AI黑客都對ChatGPT投諸極大興趣,探索這個LLM的弱點;而其他研究人員和網絡罪犯則試圖黑化這款LLM,以之產出效果更好的網絡釣魚電子郵件或生成惡意軟件。

    圖:ChatGPT發現入侵指標(IoC),誤報很少

    不過,安全研究人員也關注這款通用語言模型在特定防御相關任務上的表現。去年12月,數字取證公司Cado Security通過ChatGPT用事件的JSON數據創建了入侵時間線,形成了很不錯但并不完全準確的報告。安全咨詢機構NCC Group嘗試用ChatGPT查找代碼中的漏洞,ChatGPT不負所望,但并不總能那么準確。

    NCC Group首席科學家Chris Anley得出結論:安全分析師、開發人員和逆向工程師使用LLM需謹慎,尤其是用在LLM能力范圍之外的任務之上的時候。

    “我確實認為專業開發人員和其他處理代碼的人都應該探索ChatGPT及類似模型,但更多的是用作啟發而不是追求絕對正確的實際結果。安全代碼審核不是我們該用ChatGPT做的事兒,所以期待它一出場就完美亮相多少有點不公平。”

    用AI分析IoC

    卡巴斯基的實驗以詢問ChatGPT幾款黑客工具的相關情況開始,比如Mimikatz和Fast Reverse Proxy。ChatGPT很好地描述了這些工具,但未能正確識別眾所周知的散列值和域名。比如說,WannaCry惡意軟件廣為流傳的一個散列值就沒識別出來。

    不過,主機惡意代碼識別的成功促使Sergeev開始要求ChatGPT創建PowerShell腳本,用以收集系統的元數據和入侵指標并將之提交給ChatGPT。在手動改進了代碼之后,Sergeev在被感染的測試系統上使用了該腳本。

    這位卡巴斯基分析師用ChatGPT分析了測試系統上總共3500多起事件,找出74個潛在入侵指標,其中17個是誤報。實驗表明,ChatGPT可以幫助未運行端點檢測與響應(EDR)系統的公司收集取證信息,有助于檢測代碼混淆或逆向工程代碼二進制文件。

    Sergeev還警告道,不準確是個非常現實的問題。“要注意LLM可能產生的誤報和漏報。”他寫道,“這終究不過是又一個會產生非預期結果的統計神經網絡而已。”

    Cado Security的分析則揭示,ChatGPT通常不確定其結果的可信度。“這就是OpenAI自己引發的對ChatGPT的共同關切——ChatGPT會幻聽,而且幻聽的時候還很自信。”

    需澄清合理使用及隱私規則

    實驗還引出了一些關鍵問題,有關提交給OpenAI ChatGPT系統的數據。公司已經開始反對用互聯網上的信息創建數據集了,Clearview AI和Stability AI等公司正面臨訴訟,要求限制其機器學習模型的使用。

    另一個問題是隱私。NCC Group的Anley表示,安全專業人員必須確定提交的入侵指標是否會暴露敏感數據,或者提交軟件代碼供分享是否侵害了公司的知識產權。

    “向ChatGPT提交代碼是否是個好主意很大程度上取決于所處境況。”他說道,“很多代碼都是專有的,受到各種法律保護,所以我不會建議向第三方提交代碼,除非獲得許可。”

    Sergeev發出了類似的警告:使用ChatGPT檢測入侵必然會向這個系統發送敏感數據,這就有可能違反公司政策,帶來業務風險。”

    “使用這些腳本,你將數據發送給OpenAI,包括敏感數據。所以,謹慎點兒,先咨詢下系統擁有者。”

    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    在2月15日發布的分析報告中,卡巴斯基事件響應團隊主管Victor Sergeev發現,ChatGPT能夠識別在被黑系統上運行的惡意進程。需澄清合理使用及隱私規則實驗還引出了一些關鍵問題,有關提交給OpenAI ChatGPT系統的數據。NCC Group的Anley表示,安全專業人員必須確定提交的入侵指標是否暴露敏感數據,或者提交軟件代碼供分享是否侵害了公司的知識產權。
    以機器學習為核心,ChatGPT使用2021年及更早收集的大量數據來生成響應。內容過濾器被觸發,ChatGPT拒絕執行請求。發生這種情況是因為我們要求將shellcode注入explorer.exe中。有趣的是,通過要求ChatGPT使用多種限制并要求它做同樣的事,我們收到了一個功能代碼。到目前為止,我們已經看到ChatGPT可以為典型的勒索軟件提供必要的代碼,包括代碼注入和文件加密模塊。為了實現這一點,惡意軟件包括一個Python解釋器,它定期查詢ChatGPT,以查找執行惡意操作的新模塊。
    一年前,ChatGPT問世,以強大的信息整合推理和語言對話能力驚艷全球,隨后,以大語言模型LLM(以下簡稱“大模型”)為代表的AI技術應用全面席卷,賦能千行百業,重構業務流程,加速產業升級。
    ChatGPT是一種非常有用的工具。它有非常強大的知識積累,可以將復雜主題化繁為簡。
    事件響應分類和軟件漏洞發現是大型語言模型成功的兩個領域,盡管誤報很常見。
    隨著ChatGPT引爆生成式AI技術,生成式AI技術被安全供應商廣泛宣傳為提高安全團隊生產力和應對威脅速度的利器。
    全球各地的公司都在努力應對技術不斷變化的影響,以及跟上網絡安全能力不斷發展的需要,這直接影響到已經在該行業工作的個人,以及公司在招聘下一位事件響應員、治理、風險和合規(GRC)專家以及安全運營中心(SOC)分析師時尋求的技能。
    近年來機器學習的快速發展使人工智能的潛在能力顯而易見。在十幾次采訪過程中,研究人員、投資者、政府官員和網絡安全高管絕大多數表示,他們正以懷疑和興奮的心情關注生成式人工智能的防御潛力。他們的懷疑源于一種懷疑,即營銷炒作歪曲了該技術的實際功能,并且認為AI甚至可能引入一組新的、人們知之甚少的安全漏洞。但這種懷疑被真正的興奮所掩蓋和緩和。這在很大程度上是由于行業領導者OpenAI發布其生成AI產品的積極性。
    實際上,紅隊演習旨在解決人們對部署強大AI系統在社會中的危險的廣泛擔憂。因此,紅隊針對虛假陳述、言語操縱和危險的科學智慧進行了測試。OpenAI承認GPT-4仍可能表現出偏見。然而,卡恩和其他安全測試人員發現,模型的回應在測試期間變得相當安全。OpenAI表示,在發布前,已經對GPT-4進行了訓練,使其拒絕惡意的網絡安全請求。2018年5月,DPO社群舉行了第一次線下沙龍。目前DPO社群已超過400人。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类