<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    專家視角:倉促上馬大語言模型的風險

    VSole2023-05-04 10:42:19

    貝里維爾機器學習研究所(BIML)最近參加了網絡安全公司Calypso AI在美國華盛頓特區舉行的Accelerate AI 2023大會。會議囊括了來自政府和產業界、監管部門,以及學術界的從業人員。其中一場研討會非常應景,題為“LLM在國家安全等領域涌現的風險與機遇”。本文討論的內容即為這場研討會主題的延伸。

    當然,以下內容絕非LLM亂編的。

    大語言模型(LLM)是近期引發全球熱議的一種機器學習系統。OpenAI出品和部署的ChaptGPT(又名GPT-3.5)就是個LLM,是許多文本生成式人工智能(AI)模型中最為普遍和流行的。其他生成式模型還包括圖像生成器Dall-E、Midjourney和Stable Diffusion,以及代碼生成器Copilot。

    LLM和其他生成式工具為各種應用帶來了巨大的機會,業界紛紛投身部署此類系統。LLM可以帶來很多樂趣,解決科學難題,幫助解決知識管理的棘手問題,編出有意思的內容,最重要的是,有可能讓世界朝著人工通用智能(AGI)和可催生大量認知科學突破的表示理論更近一步。

    但是,使用目前尚未成熟的LLM,或者其他隨便哪種生成式AI工具,都伴隨著很現實的風險。

    鸚鵡學舌與信息污染

    LLM采用海量信息(3000億詞,大部分是從互聯網上刮取的)訓練,并通過自動聯想來預測句子里的下一個詞。因此,大多數科學家認為,LLM并不能真正“理解”什么,也沒辦法真正思考。正如一些研究人員所說的,它們就是些“隨機鸚鵡”。不過,LLM確實能以令人大呼神奇的方式結合上下文生成讓人驚艷的文本流,往往還挺有用。

    反饋循環是各種ML模型中的一類重要問題(也是BIML數年前引入的:“[raw:8:looping]”)。當時關于此問題的討論如下:

    模型被微妙的反饋循環搞亂了。如果模型的數據輸出后續又作為輸入反饋進同一個模型,會出現什么情況?提示一下,據傳早期的谷歌翻譯就發生了這種情況,當時機器翻譯的頁面被用來訓練機器本身。場面十分歡樂。時至今日,谷歌通過自己的策略限制了一些翻譯的搜索結果。

    可以想見,互聯網上可被輕松抓取的大量內容如果都是質量堪憂的AI模型生成的,然后這些LLM還開始輸入自己產出的東西,會是怎生情況?這不就是信息污染嗎?

    如今,一些AI研究人員和信息安全專業人員已經開始對信息污染問題深感擔憂,遠遠不斷噴個不停的信息污染管道聽起來實在是太糟糕了。

    爹味說教即服務

    LLM堪稱胡扯小能手。這些模型經常非常自信地表達錯誤觀點和替代事實,并經常在對話中編造信息來證明自己給出的答案(包括似真還假的科學參考)。想象一下,如果互聯網上刮取的普通知識(含有很多錯誤)被用來創建新內容,會造成什么后果?

    這位終極“回復男”可不是未來我們想要的新聞故事撰寫者。事實確實很重要,一切哪能全靠編?

    復刻糟糕安全

    LLM的訓練數據往往在很多方面都是有傾向性的。性別歧視、種族主義、仇外心理和厭女制度都可以且將基于最初在社會進步程度較低時收集的數據集建模。傾向性是LLM的一大嚴重問題,而操作層面的小修小補不太可能解決這個問題。

    信任深度偽造(Deepfake)

    深度偽造這個生成式AI的副作用已經引發討論一段時間了。偽造或欺騙一直都是種安全風險,但現在我們面對的是造出輕易讓人信以為真的高質量偽造品的能力。例舉幾個明顯的最壞情況:左右市場、引發戰爭、激化文化分歧等等。一定要注意視頻的來源。

    自動化一切

    LLM之類生成式模型具備替代諸多工種的能力,包括低端白領工作。無數人都從自己的工作中獲得足夠的滿足感,如果不管愿不愿意,所有這些工作都被更廉價的機器學習(ML)系統替代,會出現什么狀況?比如說,本地體育報道和營銷文案的編寫內容創建工作就已經被此類模型替代了。應該由LLM來編寫文章嗎?LLM從事司法實踐?那醫療診斷呢?

    用好工具做壞事

    生成式AI可以創建很多有趣的東西。還沒玩過ChatGPT的同仁應該嘗試一下。還沒哪種新技術這么好玩的,問世之初的Apple ][+和Java applet都沒這么有意思。

    但生成式AI的強大能力也可以被用于邪惡目的。例如,如果我們讓ML負責設計新型病毒,要求既具備新冠病毒的傳播能力,又具有狂犬病延遲發病參數,會出現什么后果?或者,讓ML負責創造出花粉自帶神經毒素的植物?如果普通人都能想出這些卑鄙用法,真正的惡人攜手ML展開頭腦風暴又會是怎生情況?

    工具本不存在道德或倫理。而且,說實話,“保護提示”的主意根本就是個做做樣子的解決方案,跟用命令行過濾來保護超算訪問權一樣。

    用破杯子裝信息

    現在得認真考慮數據護城河這事兒了。因為,如果ML模型(在人的幫助下)能夠獲得你的數據并以此訓練,學習如何完美模仿你的行事風格,它還真會這么干。這會導致多種風險,最好通過仔細保護自身數據集來解決,而不是將自己的數據塞進ML模型還公開發布這一模型。在ML淘金時代,真正的金子其實是數據。

    數據保護可不像聽起來那么簡單。不然為什么政府現行的信息分級系統老保不住保密信息?敏感數據和機密信息保護已然是項艱巨的任務,如果我們還有意用機密信息訓練ML系統并面向全世界發布,后果可想而知。

    如今存在數據提取和轉移攻擊,所以,往ML杯子里倒東西時仔細一點。

    如何應對LLM風險?

    那么,我們是否應該像某些技術專家出于私利地建議的那樣,強行暫停ML研究幾個月呢?沒必要,這太蠢了。我們需要做的是識別這些風險,然后直面風險。

    好消息是,我們正圍繞保護ML系統構建一整個行業,即所謂機器學習安全(MLsec)。不妨看看這些新興熱門初創公司都在做些什么來管控ML風險,不過,記得要帶著審慎理智的眼光看。

    機器學習風險模型
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    在CrowdStrike威脅圖譜索引的所有檢測中,有高達71%的攻擊是不使用惡意軟件的入侵活動引起的。47%的入侵事件是由于未打補丁造成的。在對補丁操作進行優先排序時,基于AI和機器學習的漏洞風險評級和評分提供了安全團隊所需要的知識。EPSS旨在幫助安全團隊管理不斷增多的軟件漏洞,并及時發現最危險的漏洞。
    業務的安全穩定發展無疑是所有企業的重要發展目標,但影響企業業務安全的因素眾多,尤其在信息化時代,數字化轉型幾乎已經成為所有企業的必選項,這讓企業的業務流程變得更加復雜,同時也面臨著更多的風險。要保證業務不會被不法分子通過設備漏洞攻擊、流程缺陷等問題所威脅和破壞,企業組織必須積極建立起與業務數字化轉型步伐相匹配的新一代業務安全防護體系,實現企業業務發展的長治久安。
    RSA Conference 2023將于舊金山時間4月24日正式啟幕。近日,RSA Conference正式公布RSAC 2023創新沙盒競賽的10名決賽入圍者,分別為AnChain.AI、Astrix、Dazz、Endor Labs、HiddenLayer、Pangea、Relyance AI、SafeBase、Valence Security、Zama。目前,已獲得種子輪600萬美元的融資。可見,機器學習的威脅攻擊面暴露并被利用的真實事件,是推動HiddenLayer團隊成立創業公司的核心驅動力之一。據統計,2021年全球的網絡攻擊估計造成了6萬億美元的損失。Security Audit Reporting,安全審計報告。
    為持續加強外部欺詐風險管理,充分發揮模型預警的智能化作用,新疆分行依托業務運營智能管理系統,廣泛挖掘并聚焦外部欺詐風險賬戶特征,多維度開展外部欺詐風險管理難點和成因分析,提出相應管理建議。
    古德哈特定律是一句格言,經常被表述為“當一個措施成為目標時,它就不再是一個好的措施”。
    本文編輯整理了在RSA2022大會上亮相的熱門新產品。
    針對以上難點問題,目前業界逐步采用部署數據庫安全審計防護系統的方式來解決。在保障業務連續性方面,大型國有銀行數審系統針對生產系統服務器的性能指標和其自身的資源開銷設置監控閾值和熔斷策略,防止因數審系統占用過多系統資源而對生產系統性能造成業務影響。在數字化轉型和數據安全治理齊頭并進的過程中,部署數審系統對于銀行業來說乃是大勢所趨。
    《數字身份治理與管理(IGA)應用實踐指南》報告正式發布。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类