人工智能安全的“命門”:數據安全
消費者最為關心的自動駕駛技術,就屬于容易“中毒”的人工智能技術。
人工智能正在成為網絡安全技術游戲規則的顛覆者。它不僅極大地擴展了安全團隊管理和監控系統與數據的能力,而且還提高了事件響應和恢復的彈性,顯著增加了成功攻擊的難度并減少了攻擊的回報。
但人工智能自身仍然是一種數字技術,這意味著它也面臨安全威脅,尤其人工智能驅動的攻擊。今天的數字社會越來越依賴于系統智能和自主性,從業務流程到運輸再到醫療健康,安全漏洞造成的損失會隨著系統可能性的下降而飆升。
任何一家計劃開發或部署人工智能技術的企業都必須認真審視他們的人工智能安全策略,了解漏洞所在的位置以及可以采取哪些措施來消除威脅。
根據Robotics Biz的報道,迄今為止,對人工智能系統最普遍的攻擊類型是對處理大數據的算法用“數據投毒”的方式進行操縱,干擾其輸出結果。簡單來說,就是通過將漏洞或惡意數據引入系統,導致算法輸出預測結果產生偏差。
任何聯網人工智能系統都可能遭遇這種類型的攻擊,此類攻擊通常會持續一段時間,因為其影響是漸進的,但損害是持久的。最好的對策是簡化AI算法和數據攝取過程,以及對數據條件進行嚴格控制,以便在數據進入處理鏈之前發現錯誤或惡意數據。
通過數據源“投毒”
人工智能的最大弱點之一就是依賴大量數據的“投喂”。這意味著攻擊者可以在不直接攻擊人工智能本身的情況下也能破壞安全性。CSET(安全與新興技術中心)最近發表的一系列論文顯示,白帽黑客已經找到越來越多的方式攻擊人工智能的數據源來控制人工智能。
例如消費者最為關心的自動駕駛技術,就屬于容易“中毒”的人工智能技術。攻擊者對自動駕駛算法的攻擊可導致自動駕駛汽車迎頭撞上對向駛來的車輛,或者將汽車加速到危險速度,對于工廠中的人工智能系統來說,這意味著可能導致業務流程突然失控。然而,與傳統的網絡攻擊不同,攻擊人工智能的目的通常不是破壞或摧毀人工智能系統,而是控制它以使攻擊者受益,例如轉移數據、資金或制造麻煩。
斯坦福大學密碼學教授Dan Boneh指出,基于圖像的訓練數據是最容易受到攻擊的數據之一。通常,黑客會使用快速梯度符號法(FGSM),該方法會在訓練圖像中產生人眼無法察覺的像素級變化,從而給訓練模型造成混亂。這些“對抗性樣本”很難檢測到,但卻能以多種方式改變算法的結果,即使攻擊者只能訪問輸入數據、訓練數據和輸出結果。此外,隨著人工智能算法越來越依賴開源工具,黑客也將有更多的機會使用和研究算法。
如何保護人工智能
人工智能技術企業如何保護自己的算法?現階段能夠采取的三個關鍵步驟是:
- 在整個數據環境中維護盡可能嚴格的安全協議。
- 確保所有AI操作都被記錄并被審計跟蹤。
- 實施強大的訪問控制和身份驗證。
此外,企業應追求更長期的安全戰略目標,例如制定專門用于AI培訓的數據保護政策,教育員工了解AI的風險以及如何發現錯誤結果,保持持續的動態風險評估機制并且保持前瞻性。
沒有任何數字系統可以100%安全,無論它多么智能。與傳統平臺相比,人工智能系統的安全性問題更為微妙,但后果同樣嚴重,因此企業需要立即更新其安全策略以應對這一新的現實威脅,而不是亡羊補牢。
就像傳統技術的安全防護一樣,人工智能的防護也主要包括兩方面的工作:減少攻擊的手段和機會,以及在攻擊確實發生時盡可能快地減少損害并恢復聲譽。
參考資料:
https://www.afcea.org/content/hacking-poses-risks-artificial-intelligence
https://cset.georgetown.edu/publication/securing-ai-how-traditional-vulnerability-disclosure-must-adapt/
(來源:@GoUpSec)