<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    谷歌對 6 種現實世界的人工智能攻擊進行了分類,以供立即準備

    VSole2023-07-24 10:19:18

    谷歌研究人員已經確定了針對現實世界人工智能系統可能發生的六種特定攻擊,發現這些常見的攻擊向量表現出獨特的復雜性,他們指出,這需要結合對抗性模擬和人工智能主題專業知識的幫助來構建堅實的防御。

    該公司在本周發布的一份報告中透露,其專門的 AI 紅色團隊已經發現了對快速發展的技術的各種威脅,主要是基于攻擊者如何操縱驅動 ChatGPT、Google Bard 等生成式 AI 產品的大型語言模型 ( LLM )。

    谷歌人工智能紅隊:道德黑客讓人工智能更安全

    https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/

    這些攻擊很大程度上導致技術產生意外甚至惡意驅動的結果,這可能會導致像普通人的照片出現在名人照片網站上一樣良性的結果,但會導致更嚴重的后果,例如規避安全的網絡釣魚攻擊或數據盜竊。

    谷歌的調查結果是在其發布安全人工智能框架(SAIF)之后發布的,該公司表示,該框架的目的是在為時已晚之前解決人工智能安全問題,因為該技術已經被快速采用,并隨之產生了新的安全威脅。

    現代人工智能系統的 6 種常見攻擊

    Google 識別的第一組常見攻擊是即時攻擊,其中涉及“即時工程”。這個術語指的是制定有效的提示來指導法學碩士執行所需的任務。研究人員表示,這種對模型的影響如果是惡意的,可能會以非預期的方式惡意影響基于 LLM 的應用程序的輸出。

    一個例子是,如果有人在基于人工智能的網絡釣魚攻擊中添加了一個段落,該段落對最終用戶來說是不可見的,但可以指示人工智能將網絡釣魚電子郵件分類為合法。這可能會使其繞過電子郵件反網絡釣魚保護,并增加網絡釣魚攻擊成功的機會。

    該團隊發現的另一種類型的攻擊稱為訓練數據提取,其目的是重建模型使用的逐字訓練示例,例如互聯網的內容。通過這種方式,攻擊者可以從數據中提取秘密,例如逐字個人身份信息 (PII)或密碼。研究人員寫道:攻擊者被激勵以個性化模型或經過包含 PII 數據訓練的模型為目標,以收集敏感信息。

    第三種潛在的人工智能攻擊是模型后門,攻擊者“可能試圖秘密改變模型的行為,以使用特定的‘觸發’詞或特征(也稱為后門)產生不正確的輸出,在這種類型的攻擊中,威脅參與者可以在模型或其輸出中隱藏代碼以進行惡意活動。

    第四種攻擊類型稱為對抗性示例,是攻擊者向模型提供的輸入,以產生“確定性但高度意外的輸出”。一個例子是,模型可以顯示一幅圖像,該圖像在人眼中清楚地顯示出一件事,但模型將其完全識別為另一件事。這種類型的攻擊可能是相當良性的(在這種情況下,有人可以訓練模型將他或她自己的照片識別為值得包含在名人網站上的照片),也可能是至關重要的,具體取決于技術和意圖。

    攻擊者還可以利用數據中毒攻擊來操縱模型的訓練數據,從而根據攻擊者的偏好影響模型的輸出,如果開發人員使用人工智能幫助他們開發軟件,這也可能威脅軟件供應鏈的安全。這種攻擊的影響可能類似于模型后門。

    谷歌專門的人工智能紅隊識別的最后一種攻擊類型是滲透攻擊,攻擊者可以復制模型的文件表示形式以竊取存儲在其中的敏感知識產權。然后,他們可以利用這些信息來生成自己的模型,該模型可用于為攻擊者提供定制攻擊中的獨特功能。

    傳統安全很重要

    谷歌最初的人工智能紅隊演習為研究人員提供了一些寶貴的經驗教訓,其他企業也可以利用這些經驗教訓來防御對人工智能系統的攻擊。第一個是,雖然紅隊活動是一個良好的開端,但組織還應該與人工智能專家合作,進行現實的端到端對抗模擬,以實現最大程度的防御。

    事實上,紅隊演習(即組織招募道德黑客團隊嘗試滲透其自身系統以識別潛在漏洞)正在成為幫助企業增強整體安全態勢的流行趨勢。

    我們相信,紅隊將在每個組織應對人工智能系統攻擊的準備中發揮決定性作用,并期待共同努力幫助每個人以安全的方式利用人工智能。

    然而,團隊從另一個教訓中得到了一些好消息:傳統的安全控制可以有效、顯著地降低人工智能系統的風險。

    對于保護人工智能模型在其整個生命周期的完整性以防止數據中毒和后門攻擊來說尤其如此。

    與傳統企業系統中的所有其他資產一樣,組織還應確保系統和模型得到正確鎖定,以防御人工智能攻擊。

    此外,研究人員指出,組織可以使用與嗅探傳統攻擊類似的方法來檢測對人工智能系統的攻擊。

    傳統的安全理念,例如驗證和清理模型的輸入和輸出,仍然適用于人工智能領域。

    谷歌人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    研究人員已經確定了針對現實世界人工智能系統可能發生的六種特定攻擊,發現這些常見的攻擊向量表現出獨特的復雜性,他們指出,這需要結合對抗性模擬和人工智能主題專業知識的幫助來構建堅實的防御。
    認為該安全AI工作臺能夠有效解決網絡安全的三大挑戰:威脅過載、工具繁瑣和人才短缺。表示,我們都需要認識到一個事實,人工智能將很快迎來一個安全專業知識的新時代,這將深刻影響從業者搞安全的方式。暢想了這樣一個世界:新手和安全專家與人工智能專業知識相結合,他們能夠從重復工作中解放出來,完成今天看來似乎不可能完成的任務。
    人工智能大模型應用于智能手機的前景充滿樂觀。Pixel部門產品管理副總裁布萊恩·拉科夫斯基(Brian Rakowski)日前預計,更先進的Gemini大模型明年將嵌入智能手機。
    當地時間1月17日,人工智能開發機構DeepMind推出了名為AlphaGeometry(阿爾法幾何)的AI系統,稱該系統可以以國際數學奧林匹克競賽金牌得主的平均水平解決幾何問題。
    除了WormGPT、FraudGPT新型生成式人工智能黑客工具,至少還有另一個正在開發中,據稱該工具是基于人工智能實驗 Bard。
    埃隆?馬斯克旗下人工智能公司xAI最新推出了名為GroK的人工智能聊天機器人,并面向美國地區的Premium+ X 用戶開放。
    2023年,AI大模型無疑是最火熱的話題。在AI大模型的驅動下,整個信息科技領域故事不斷。而聚焦網絡安全,AI大模型同樣上演著連臺好戲,全球眾多網絡安全廠商紛紛布局。
    2022年5月3日,量子技術市場領先的數據和情報提供商—The Quantum Insider公布了全球13家基于云的量子計算提供商,并申明該名單沒有按特別的優劣順序列出,也絕不是詳盡無遺的。 1 IBM Q 經驗(IBM Q Experience) 量子技術領域的巨頭之一IBM和它的IBM Q Experience提供對量子硬件以及 HPC 模擬器的訪問。可以使用基于 Python 的 Qi
    本周二在舊金山舉行的2023年RSA大會上,云發布了云安全人工智能工作臺,基于專為網絡安全設計的大語言模型Sec-PaLM。
    高通宣布繼續向華為供貨近日,高通公布了2023財年第一財季財報。無錫出臺全國首部車聯網發展地方性法規,支持“自動駕駛”商業化運營《無錫市車聯網發展促進條例》正式頒布并將于3月1日正式施行,這也是國內首部推動車聯網發展的地方性法規。不完全統計顯示,有近20款AR新品在2022年發布。近日,觀安信息完成近3億元人民幣的新一輪戰略融資。螣龍安科于今日正式宣布完成Pre-A輪融資。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类