<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    越流行的大語言模型越不安全

    VSole2023-07-03 09:22:58

    近日,安全研究人員用OpenSSF記分卡對GitHub上50個最流行的生成式AI大語言模型項目的安全性進行了評估,結果發現越流行的大語言模型越危險。

    軟件供應鏈安全公司Rezilion的研究人員調查了GitHub上50個最受歡迎的生成式AI項目的安全狀況。他們發現,生成式人工智能開源項目越流行、越新,其安全性就越不成熟。

    Rezilion使用開源安全基金會(OpenSSF)記分卡來評估大型語言模型(LLM)開源生態系統,強調了安全最佳實踐中的重大差距以及許多基于LLM的項目中的潛在風險。研究結果發表在題為《ExplAIning the Risk》報告中。

    基于LLM的生成式人工智能技術呈爆炸性增長,機器已經能夠生成接近甚至超過人類平均水平(效率)的文本、圖像甚至代碼的能力。集成LLM的開源項目數量正迅猛增長。例如,OpenAI推出ChatGPT僅7個月,但目前GitHub上已經有超過3萬個使用GPT-3.5系列LLM的開源項目。

    盡管需求空前旺盛,但生成式AI/LLM技術面臨的安全風險也與日俱增,從利用先進的自學習算法共享敏感業務信息到惡意行為者利用生成式AI來大幅度提高攻擊力。

    本月早些時候,開放全球應用程序安全項目(OWASP)發布了大語言模型應用常見的10個最嚴重的漏洞(下圖),強調了LLM面臨的潛在風險、漏洞利用的難易程度和普遍性。OWASP給出的LLM漏洞示例包括提示注入、數據泄露、沙箱機制不充分和未經授權的代碼執行。

    OWASP大語言模型十大安全漏洞

    什么是OpenSSF記分卡?

    OpenSSF記分卡是OpenSSF創建的一個工具,用于評估開源項目的安全性并幫助改進它們。OpenSSF評估所依據的指標是代碼庫本身的問題,例如漏洞數量、維護頻率以及是否包含二進制文件。OpenSSF能檢查軟件項目供應鏈的不同部分,包括源代碼、構建依賴項、測試和項目維護。確保其遵守安全最佳實踐和行業標準。

    OpenSSF的每項檢查都有一個與之相關的風險級別,代表與不遵守特定最佳實踐相關的估計風險。然后將各個檢查分數換算成總分數,以評估項目的整體安全狀況。

    目前,OpenSSF共有18項檢查,可分為三大類:整體安全實踐、源代碼風險評估和構建過程風險評估。OpenSSF記分卡為每項檢查分配0到10之間的風險級別分數。得分接近10的項目表示高度安全且維護良好,而得分接近0則表示安全狀況較弱,維護不足且易受開源風險影響。

    越流行的開源大語言模型項目越不安全

    Rezilion的研究揭示了一個令人不安的趨勢:生成式AI/LLM項目越受歡迎(基于GitHub的星級受歡迎程度評級系統),其安全評分就越低(基于OpenSSF記分卡)。

    研究人員指出:“這凸顯了一個事實,即LLM項目的受歡迎程度本身并不能反映其質量,更不用說其安全狀況了。”報告稱,GitHub上最受歡迎的基于GPT的項目Auto-GPT擁有超過13.8萬顆星,上線還不到三個月,其記分卡得分僅為3.7。檢查的50個項目的平均得分也好不到哪兒去,僅為4.6分(滿分10分)。

    研究人員進一步將GitHub上最受歡迎的生成式AI和LLM項目的風險與該平臺上與生成式AI或LLM無關的其他流行開源項目進行了比較。他們分析了一組94個關鍵項目(由OpenSSF保護關鍵項目工作組定義),平均記分卡得分為6.18,還分析了一組7個將OpenSSF記分卡作為其SDLC工作流程一部分的項目,平均得分7.37。

    研究人員寫道:“圍繞LLM的開源生態系統的成熟度和安全狀況還有很多不足之處。事實上,隨著這些系統越來越受歡迎,普及度越高,如果開發和維護的安全標準保持不變,重大漏洞將持續涌現,不可避免地會成為攻擊者的目標。”

    未來12-18個月,生成式AI、大語言模型風險將持續增加

    報告指出:隨著生成式AI和LLM系統的應用不斷增長,給企業帶來的風險預計將在未來12到18個月內發生重大變化。報告指出:“如果圍繞LLM的安全標準和實踐沒有重大改進,針對性的攻擊和發現這些系統中的漏洞的可能性將會增加。企業必須保持警惕并優先考慮安全措施,以緩解不斷變化的風險并確保負責任和安全地使用LLM。”

    降低LLM安全風險最重要的方法是“安全左移”,即在開發基于人工智能的系統時就采用安全設計方法來應對LLM的風險。企業還應該利用安全人工智能框架(SAIF)、NeMo Guardrails或MITRE ATLAS等現有框架,將安全措施納入其人工智能系統中。

    企業還需要監控和記錄用戶與LLM的互動,并定期審核和審查LLM的響應,以檢測潛在的安全和隱私問題,并相應地更新和微調LLM。

    風險模型
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    為持續加強外部欺詐風險管理,充分發揮模型預警的智能化作用,新疆分行依托業務運營智能管理系統,廣泛挖掘并聚焦外部欺詐風險賬戶特征,多維度開展外部欺詐風險管理難點和成因分析,提出相應管理建議。
    本文提出 將網絡安全風險量化評估與戈登—洛布模型結合 起來分析企業的網絡安全預算的收益情況。網絡安全風險是指由于網絡系統存在脆弱 性,因人為或自然的威脅導致安全事件發生所 造成的損失。網絡風險評估就是評估威脅者利 用網絡資產的脆弱性造成網絡資產損失的嚴重 程度。一是對機密性的威脅。二是對完整性的威脅。GL 模型使用安全漏洞概率函數作為條件, 這些函數有兩種類型,一種是線性型,另一種 是指數型。
    7月22日至26日,第五屆數字中國建設成果展覽會火熱進行中,立體化展現數字中國建設成果。天融信科技集團受邀出席本次成果展,重磅發布“基于應用接口風險監測的解決方案”,并作主題演講。《網絡安全法》《數據安全法》《個人信息保護法》等相關法律條文的發布,更是時刻提醒著數據防護不可松懈。
    隨著IT產業爆炸式的發展,大數據技術已深入國家戰略、企業發展和個人生活的方方面面。然而隨著大數據技術的蓬勃發展,與之伴隨安全方面的研究相對落后,大數據的安全問題往往會對國家、政府、企業及個人造成嚴重危害。通過研究已有的大數據框架,結合當前國內外最新大數據安全標準和法規,設計了一種在大數據環境下的安全稽查與風險評估平臺。首先,以研究大數據資產監管為基礎,對資產與安全能力進行安全稽查;其次,結合稽查結
    Gartner 將 IT 風險定義為“可能導致計劃外、負面的業務成果,包括 IT 故障或濫用”。負面的業務結果可能是由于由此產生的中斷而導致的任何財務或聲譽損失。
    現在可以試用基于云的System of Trust(SoT)應用程序量化評估硬件、軟件和服務供應商的風險了。
    本周一,全球再保險巨頭瑞士再保險發布新的研究報告,指出保險行業需要對網絡安全風險承保采取不同的方法,同時再次呼吁發展網絡保險相關證券市場。隨著網絡風險和威脅形勢的迅速發展,瑞士再保險認為,無法準確量化風險是網絡保險市場進一步發展的障礙,也是阻礙產能進入該行業的關鍵因素。瑞士再保險指出,利用ILS市場是提高網絡風險能力的一種方式。
    針對以上難點問題,目前業界逐步采用部署數據庫安全審計防護系統的方式來解決。在保障業務連續性方面,大型國有銀行數審系統針對生產系統服務器的性能指標和其自身的資源開銷設置監控閾值和熔斷策略,防止因數審系統占用過多系統資源而對生產系統性能造成業務影響。在數字化轉型和數據安全治理齊頭并進的過程中,部署數審系統對于銀行業來說乃是大勢所趨。
    古德哈特定律是一句格言,經常被表述為“當一個措施成為目標時,它就不再是一個好的措施”。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类