<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    美國NIST發布《人工智能風險管理框架》

    VSole2023-02-09 10:12:16

    2023年1月26日,美國國家標準與技術研究院(NIST)正式公布《人工智能風險管理框架》(AI RMF 1.0),旨在指導機構組織在開發和部署人工智能系統時降低安全風險,避免產生偏見和其他負面后果,提高人工智能可信度,保護公民的公平自由權利。NIST作為美國商務部的非監管機構,該文件從性質上來講是一份非強制性的指導性文件,供設計、開發、部署、使用人工智能系統的機構組織自愿使用。

    背景信息

    人工智能技術具有改變社會和人們生活的巨大潛力,涉及商業、健康、交通、網絡安全和環境保護等方方面面。人工智能在驅動經濟增長、促進科學進步、改變生活條件的同時,也帶來了多種形式的風險。AI RMF延續了經合組織OECD對人工智能的定義,將人工智能系統定義為針對特定目標生成預測、建議、決定的工程化或基于機器的系統,可以在不同程度上自治運行。

    盡管有無數的技術標準和最佳實踐可以幫助組織減輕傳統軟件和信息系統的安全風險,但是與之相比,人工智能系統帶來的安全風險具有獨特性。舉例而言,當人工智能系統根據隨時間變化的數據集進行訓練時,這些數據時而發生的顯著或意外變化,會以難以理解和解釋的方式影響人工智能系統的功能和可信度。由于人工智能系統構造及其部署環境通常非常復雜,因此很難在其故障發生時及時進行檢測和響應。此外,人工智能系統從本質上來講是社會性技術,受到社會動態和人類行為的顯著影響,其風險和收益可能受到來自技術方法、使用方式、系統交互、操作人員、社會環境等諸多社會因素的影響。

    因此,人工智能的部署和利用具有挑戰性,如果缺乏適當的控制,人工智能系統很可能會擴大、延續或者加劇個人和群體的不公平待遇。人工智能風險管理是負責任地開發和使用人工智能系統的關鍵組成部分,通過機構組織對潛在正負面影響的批判性思考,進而提升人工智能系統可信度,培養公共信任。此外,負責任的人工智能實踐有助于人工智能系統設計、開發、使用的決策與預期目標和價值內核保持一致,即注重以人為本、社會責任和可持續性。

    系統建構

    文件的主要內容分為兩部分,第一部分探討人工智能相關風險的梳理建構方法,并概述可信賴人工智能系統的特征。AI RMF將“風險”定義為事件發生概率和相應事件后果的綜合度量,并對后果采取了廣泛解釋,即包括消極的、積極的或兼而有之的影響,意在與開發利用人工智能技術以實現積極成果的目標相呼應。“可信賴的人工智能系統”應當滿足信度效度兼備、安全性和彈性、負責任且透明、可理解性和可解釋性、隱私增強、有害偏見公平管理等基本要求。

    文件認為,人工智能的系統風險來自多方面因素影響,在人工智能全生命周期的不同階段也會存在不同的風險。在早期階段衡量風險與在晚期階段衡量風險可能會產生截然不同的結果;一些風險在特定的時間點處于潛伏狀態,可能隨著人工智能系統的配置和使用而逐步顯現并顯著增加;人工智能系統全生命周期中的風險還可能受到不同階段參與人員的影響,不能孤立地考慮人工智能風險,而是應當與網絡安全、隱私保護等其他關鍵風險整合起來、通盤考慮。

    人工智能系統構建主要有四方面考量。一是風險框架,包括對風險、影響、危害的理解與處理,以及人工智能風險管理的挑戰、風險承受度、風險等級排序。二是目標受眾,理想情況下,AI RMF應當適用于人工智能的全生命周期和多維度活動。人工智能系統的全生命周期包括計劃和設計、收集處理數據、建立運用模型、驗證和確認、部署和使用、操作和監控六個階段。人工智能系統的多維度以人和自然為核心,進而延伸到數據和輸入、人工智能模型、任務和輸出、應用環境四個方面,重點是對其進行測試(test)、評估(evaluation)、驗證(verification)和確認(validation)的TEVV流程。三是風險和可信度,文章認為可信賴的人工智能系統應當滿足諸多條件,上述價值考量在不同情境下需要適當的取舍與平衡,但信度效度兼備始終是首要條件和必備基礎。四是有效性評估,包括衡量人工智能系統可信度基礎改進的方法,涉及對政策、流程、實踐、實施計劃、指標、量度和預期結果的定期評估,以期提高對人工智能系統可信度特征、社會技術方法、潛在風險后果三者之間關系與平衡的認識,改進與系統風險相關的內部問責工作,優先識別和管理系統風險對個人、社區、組織和社會的潛在影響,促進有關風險、決策過程、責任、常見隱患、TEVV實踐、持續改進方法的信息共享。

    框架核心

    第二部分介紹了AI RMF核心的四大功能,即治理(govern)、映射(map)、測量(measure)和管理(manage),每個功能項下還分為不同的類別和子類別,通過多元化展開幫助機構組織在實踐中應對人工智能系統帶來的風險和潛在影響。

    一是治理功能。治理是貫穿人工智能系統風險管理全過程、與其他三項功能有交叉的基礎性功能,對治理的持續關注是對人工智能系統全生命周期實行有效風險管理的內在要求。具體而言,治理功能包括六個類別:一是與其他三項功能相關的政策、流程、程序和實踐均應完善透明且有效實施;二是完善問責機制,便于相關人員獲得授權和培訓,有效負責其他三項功能開展;三是優先考慮雇員的多樣性、平等性、包容性和可訪問性;四是建設風險警鐘長鳴的管理團隊,完善風險信息交流共享;五是保持與人工智能系統受眾的密切聯系,跟蹤并及時反饋對社會和用戶的潛在影響;六是完善解決機制,及時處理由第三方軟件、數據、供應鏈引發的風險和潛在影響。

    二是映射功能。映射功能構建了人工智能系統風險管理的背景因素,由于人工智能系統的全生命周期涉及眾多環節和參與人員,單一環節的負責人很難對最終結果和潛在影響進行通盤考慮,單一維度內的最佳實踐很可能因為后續環節的決策實踐而被削弱,這種復雜性和不可預見性為人工智能系統的風險管理實踐帶來了不確定性。映射功能具體包括五個類別:一是明確系統運行的相關背景因素和預期環境;二是進行系統分類;三是了解系統功能、目標用途、成本收益等信息;四是將風險和收益映射到系統的所有組件和環節,包括第三方軟件和數據;五是評估對個人、群體、組織、社會的潛在有益和有害影響。

    三是測量功能。測量是指采用定量、定性或混合工具,對人工智能系統的風險和潛在影響進行分析、評估、測試和控制。人工智能系統在部署前和運行中均應當定期測試,對系統功能和可信度的各個方面如實記錄。測量功能包括四個類別:一是確定并采用適當的方法和指標,定期記錄、評估和更新;二是評估系統的可信性特征,涉及代表性、有效性、安全性、穩健性和可持續性等;三是完善特定風險識別跟蹤機制,有效處理現有的、未預料的和緊急的各種系統風險;四是定期評估和反饋測量功能的有效性,如實記錄相關信息和結果。

    四是管理功能。管理涉及到對系統風險因素的定期映射和測量,包括對事故和事件的響應、補救和溝通,以減少系統故障和負面影響的可能性,并根據評估結果優先排序、有效配置、定期改進風險管理資源。管理功能包括四個類別:一是基于映射和測量功能的評估和分析結果,對系統風險進行判定、排序和響應;二是制定實施最大化收益和最小化負面影響策略,明確風險響應步驟;三是有效管理來自第三方的風險和收益,定期監控記錄;四是完善風險響應和恢復機制,對已識別、可測量的系統風險加強溝通交流和記錄監控。

    總體而言,人工智能的法律規制是當前世界主要國家的關注重點,也是實踐中亟待解決的關鍵問題。NIST公布的《人工智能風險管理框架》為算法合規和人工智能風險管理提供了有益參考,可信賴的人工智能系統構建任重而道遠。

    人工智能風險管理
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    人工智能風險管理是負責任地開發和使用人工智能系統的關鍵組成部分,通過機構組織對潛在正負面影響的批判性思考,進而提升人工智能系統可信度,培養公共信任。管理涉及到對系統風險因素的定期映射和測量,包括對事故和事件的響應、補救和溝通,以減少系統故障和負面影響的可能性,并根據評估結果優先排序、有效配置、定期改進風險管理資源。
    NIST表示,該自愿性指南旨在提高將可信性考慮因素納入人工智能產品、服務和系統的設計、開發、使用和評估的能力。人工智能系統可能表現出緊急屬性或導致個人和社區意想不到的后果。使用人工智能風險管理框架可以減少負面影響的可能性和程度,增加個人、團體、社區、組織和社會的利益。人工智能風險管理框架應允許在整個組織內、組織間、與客戶以及與廣大公眾交流人工智能風險。
    編者按 2021年,全球范圍內對于人工智能的監管已經開始從理論探討走向實際的立法和執法階段,標志性的事件就是歐盟提出了《歐洲議會和理事會關于制定人工智能統一規則(《人工智能法》)和修正某些歐盟立法的條例》的提案,以及我國國家互聯網信息辦公室發布的《互聯網信息服務算法推薦管理規定》。
    從自動駕駛到網絡購物,人工智能技術已經滲入數字社會的各個角落,但是人工智能的網絡安全和風險管理卻相對滯后,NIST推出的人工智能風險管理框架期望能夠解決這種“風險差距”。
    該框架的目標是提高將可信度納入AI的能力,包括AI的產品、服務、系統的設計、開發、使用和評估。
    NIST特別指出隨著技術的不斷發展,AI RMF旨在適應AI領域,并被組織使用,以便社會可以從AI技術中受益,同時免受其潛在危害。????值得注意的是,NIST說明AI RMF提供了一個靈活,結構化和可衡量的過程,旨在使組織能夠解決AI風險,并分為兩部分:????重要的是,NIST指出,在同一天,它發布了一個配套的自愿AI RMF手冊,該手冊提供了導航和使用AI RMF的方法。在這方面,NIST最后提到,它計劃定期更新AI RMF,并歡迎隨時對AI RMF手冊提出添加和改進的建議。
    從2018年開始,公號君就開始給有關數字貿易協定談判提供技術支撐工作。目前,中國已經建立了關于數據安全和個人信息保護方面的法律框架,對于數據要素治理的宏觀謀劃和對新技術新業務的規制,也在緊鑼密鼓地開展過程之中。于此同時,中國已經申請加入《全面與進步跨太平洋伙伴關系協定》(CPTPP)和《數字經濟伙伴關系協定》(DEPA),這兩部協定都是自由化水平較高的貿易協定,展示了中國尋求更加開放的決心。顯然,
    國家網信辦等7部門近日發布《生成式人工智能服務管理暫行辦法》,對生成式人工智能(AI)技術應用劃定清晰邊界,實行包容審慎和分類分級監管,確保科學監管和鼓勵發展并行。
    DEF CON是每年8月在拉斯維加斯召開的黑客大會,此次安全競賽由人工智能黑客社區AI Village主辦。在AI Village發布的活動公告中,組織方Sven Cattell、Rumman Chowdhury和Austin Carson將其稱為“有史以來規模最大的人工智能模型紅隊演習”。最終,得分最高的參與者將獲得英偉達高端GPU作為獎品。DEF CON 31將于8月10至13日在拉斯維加斯凱撒宮酒店舉辦。
    編者按: 本公號發表過的關于數據執法跨境調取的相關文章: 微軟起訴美國司法部:封口令違法! 網絡主權的勝利?再評微軟與FBI關于域外數據索取的爭議 微軟與FBI關于域外數據索取的爭議暫告一段落 美國Cloud Act法案到底說了什么 Cloud Act可能本周就得以通過! 修改版的Cloud Act終成為法律 歐盟推出自己的“Cloud Act” 美國快速通過Cloud法案 清晰明確數據主權戰
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类