<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    高效、私有且健壯的聯邦學習

    VSole2022-04-18 12:05:09

    Overview

    聯邦學習已經在各種關鍵任務的大規模場景中顯示出巨大的成功。然而, 這種分布式學習模式仍然容易受到隱私的干擾和拜占庭攻擊。前者旨在推斷參與訓練的目標參與者的隱私, 而后者則專注于破壞所建模型的完整性。近些年來的工作通過利用通用安全計算技術和常見的旁觀者保護的聚合規則, 探索了統一的解決方案, 但有兩個主要的限制 (1)由于效率瓶頸; (2)由于模型的不全面性,它們仍然容易受到各種攻擊。

    為了解決上述問題, 團隊提出了SecureFL, 一個高效的、私有的和防篡改的FL框架。SecureFL遵循最先進的拜占庭魯棒性FL方法(FLTrust), 它通過歸一化更新的幅度和測量二重相似性來實現全面的拜占庭防御, 并使其適應隱私保護的背景。團隊定制了一系列的加密組件。首先,設計了一個加密友好的有效性檢查協議 , 在功能上取代了 FLTrust中的規范化操作, 并在此基礎上進一步設計了個性化的加密協議。上述優化措施使通信和計算成本減少了一半, 而沒有犧牲穩健性和隱私保護。其次, 團隊為矩陣乘法開發了一種新的預處理技術,使得方向性相似性測量的計算開銷可以被忽略,并且能夠通過安全評估。在三個真實數據集和各種神經網絡架構上進行的廣泛評估表明, SecureFL在效率上優于現有技術兩個數量級, 具有最先進的拜占庭魯棒性。

    Contributions

    • 團隊提出了一個新的聯邦學習框架,SecureFL,它實現了最先進的魯棒性,完全隱私保護和效率的同時。
    • 團隊設計了一系列個性化的加密組件,在私有的魯棒性聚合評估中實現高效的數學運算。
    • 大量的實驗表明,SecureFL在效率上優于先前的技術兩個數量級,具有最先進的魯棒性。

    Model

    在我們的SecureFL中,有兩種類型的對手:惡意方,通過發送中毒的梯度來主動破壞全局模型;誠實但好奇的服務器(即SP和CS),遵循私有健壯聚合協議,但嘗試被動地推斷關于目標方的訓練數據 的信息。通常情況下,惡意方有以下知識:被破壞的局部訓練數據和局部梯度、訓練算法、損失函數和局部學習速率。后者服務器可以訪問各方的本地梯度、聚合算法和種子數據。這種設置是合理的,也符合現實世界的FL系統。

    Crypto-friendly Byzantine-robust FL Protocol

    Revising FLTrust

    FLTrust的主要思想是收集一個小但干凈的種子數據集,計算數據集上的服務器更新 并將其作為基線,以檢測和排除拜占庭方。首先通過縮放使每個局部梯度具有相同的大小來歸一化,然后,服務商給每個局部梯度分配一個信任分數,如果局部模型更新的方向與服務器更新的方向更相似,則信任分數更大。在形式上,它是通過余弦相似度測量和基于relu的裁剪來實現的。除了魯棒聚合過程,FLTrust的訓練過程與大多數FL的協議一致,其中的步驟包括:梯度規范化、計算梯度的方向相似度、聚合加權梯度。

    它仍然面臨兩個關鍵的效率問題:1)規范化在FLTrust中是一個高消耗的操作,因為其涉及到倒數平方根。2)所有參與方的方向相似性度量可以形式化為矩陣向量乘法,但由于模型梯度維數高、參與方數量多,耗時較長。

    Crypto-friendly byzantine-robust FL protocol

    用于規范化的加密友好性協議。即將規范化的實現留在一方的明文中,因為每個局部梯度的這種處理是獨立于其他梯度的。然而,該方法最大的挑戰是惡意方可能會以錯誤的形式提供局部梯度。為了解決這個問題,團隊設計了一個有效性檢查協議來捕獲偏離規范化的惡意方。其主要思想是檢驗各局部梯度的平方范數 是否在一定區間內,如下所示:

    其中 為預定的常數閾值。如果正確規范化了局部梯度,則 的值為1,否則為0.

    相似性度量的新計算范式。在現實場景中,大多數方移動設備只有很少的計算資源和有限的通信帶寬。而公有云服務提供商,擁有先進的計算設備和極高的帶寬。受上述資源不對稱的啟發,團隊認為SP可以在各方的局部梯度可用之前對繁重的加密操作進行預處理。為此,團隊提出了一種新的方向相似度度量計算模式,它包括兩個階段,即前序階段和在線階段,并根據是否存在局部梯度來區分這兩個階段。在前序階段,SP使用服務器梯度 執行矩陣乘法的預處理。受益于前序階段的工作,在線階段的余弦相似度測量的計算開銷可以忽略不計通信成本為零。

    SecureFL Framework

    階段一 初始化階段

    這個階段在整個協議中只被調用一次,將生成Beaver乘法三元組和PLHE的密鑰對。

    階段二 前序階段

    該階段的執行可以獨立于局部梯度,其中進行矩陣乘法的預處理,以此提高在線階段的效率。

    階段三 在線階段

    當各方的本地梯度可用時,此階段運行。假設各方完成了局部訓練并獲得了歸一化的局部梯度,穩健聚合評估協議包括以下步驟:

    • 梯度秘密共享
    • 有效性檢查
    • 余弦相似度檢查
    • 信任分數計算
    • 加權聚合

    Evaluation

    下圖顯示了SecureFL的執行時間和通信成本。從圖4(a)和圖4(c)可以看出,SP和CS的執行時間均隨參與方數量和數據項數量的增加而線性增加。這表明SecureFL具有出色的可伸縮性。

    圖5(a)和5(b)比較了在三個數據集和不同的模型架構上之前的工作和SecureFL的健壯聚合所需的執行時間和通信成本。可以看出,SecureFL在效率上優于現有技術兩個數量級。

    SecureFL與之前的工作進行了比較,包括FedAvgKrumFLTrust,它們都是FL框架中流行的聚合規則。表3給出了三種攻擊設置和三種真實數據集下不同的測試錯誤。可以觀察到SecureFL在沒有攻擊的情況下可以達到與傳統FedAvg方法相當的準確率。此外,無論是否受到拜占庭式攻擊,SecureFL也有與最先進的FLTrust類似的測試錯誤,這表明加密友好型變體并不犧牲魯棒性和推理準確性。相比之下,現有的方法,如FedAvgKrum仍然容易受到高級拜占庭攻擊。這是因為SecureFL考慮了局部梯度的大小和方向以抵抗現有的攻擊。

    梯度
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    針對深度學習中梯度下降訓練效果不佳和隱私保護效果不明顯的問題,我們提出基于擾動的迭代梯度下降優化算法,將梯度下降算法作為迭代分量,然后將噪聲注入到迭代梯度下降優化過程中以計算梯度,最后對梯度進行擾動來實現差分隱私。
    Python圖像處理第17篇介紹Scharr算子、Canny算子和LOG算子,希望您喜歡!
    日前,SANS的安全專家們在今年的大會上發表了其最新研究成果,對2023年度最值得關注的5種新興網絡攻擊技術及其特點進行了介紹。SANS認證講師Katie Nickels表示,SEO優化攻擊是一種危險的新興攻擊方法。為了應對SEO優化攻擊,企業組織需要實施更有針對性的安全意識培訓計劃。2022年的LastPass漏洞事件就是最好的證明,攻擊者會利用第三方軟件漏洞繞過現有控制措施并訪問特權環境。
    這些方法都是通過對原始數據進行擾動,從而欺騙AI模型。大多數AI模型配備了異常檢測系統。這種攻擊多被用于針對原始目標AI模型。同時,也需要加強安全意識和技術防范措施,在實際應用中保障AI系統的安全和可靠性。
    如日本hololive旗下虛擬主播“桐生可可”由于發表反華言論導致其直播間即刻封禁,且連帶導致hololive在B站的其他主播粉絲數出現明顯下滑。如日本Hololive旗下當家虛擬偶像露西婭一直以病嬌女友作為自己的人設,聲稱能為了粉絲拒絕與所有男性的合作,且在生日會上售賣“與露西婭一生一世”的訂婚戒指。
    本文根據上述模型和算法實現了一個基于word2vec和LSTM的簡單模型用于判斷兩個函數或者兩個指令序列是否相似。總體框架函數嵌入LSTM是RNN的一個變體,由于RNN容易梯度消失無法處理長期依賴的問題。
    面向紅隊的、高度可控的可拓展的自動化引擎。特征如下:
    為貫徹落實黨的二十大和中央經濟工作會議精神,更好發揮電子信息制造業在工業行業中的支撐、引領、賦能作用,助力實現工業經濟發展主要預期目標,工業和信息化部、財政部近日聯合印發《電子信息制造業2023—2024年穩增長行動方案》。《行動方案》提出,2023—2024年計算機、通信和其他電子設備制造業增加值平均增速5%左右,電子信息制造業規模以上企業營業收入突破24萬億元。2024年,我國手機市場5G手機
    摘 要:能量采集(Energy Harvesting,EH)和認知無線電(Cognitive Radio,CR)技術的組合可為物聯網設備提供持續的能量,并有效地提高物聯網系統的頻譜效率。然而,在襯底模式下的認知物聯網(Cognitive Radio IoT,CIoT)系統中,物聯網設備之間的無線通信常常遭受竊聽攻擊。針對存在多竊聽者條件下的 CIoT 系統無線通信場景,以保密速率作為系統保密性能指
    引言Prompt Injection 是一種攻擊技術,黑客或惡意攻擊者操縱 AI 模型的輸入值,以誘導模型返回非預期的結果。這里提到的屬于是SSTI服務端模板注入。這允許攻擊者利用模型的安全性來泄露用戶數據或扭曲模型的訓練結果。介紹在 LangChain 到 0.0.131 中,LLMMathChain 允許快速注入攻擊,可以通過 Python exec 方法執行任意代碼。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类