<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    NIST推出人工智能風險管理框架

    VSole2022-04-13 10:35:58

    從自動駕駛到網絡購物,人工智能技術已經滲入數字社會的各個角落,但是人工智能的網絡安全和風險管理卻相對滯后,NIST推出的人工智能風險管理框架期望能夠解決這種“風險差距”。

    今天,企業和政府組織正在快速擁抱如雨后春筍的人工智能(AI)應用程序,提高自動化程度和運營效率,提供精準購物建議、信用審批、圖像處理、預測性警務等等服務。

    與任何數字技術一樣,AI可能會受到一系列傳統安全漏洞和其他新興問題的影響,例如隱私、偏見、不平等和網絡安全問題。為了更好地管理與人工智能相關的風險,美國國家標準與技術研究院(NIST)目前正在開發一個自愿框架,全稱是:人工智能風險管理框架(AI RMF)。該框架的目標是將可信度考慮納入人工智能產品、服務和系統的設計、開發、使用和評估的能力。

    NIST希望AI RMF風險框架能夠覆蓋其他領域沒有的,AI獨有的風險,并可用于繪制超出框架的合規性考慮因素,包括現有法規、法律或其他強制性指南。

    誰應該關注AI風險管理框架

    NIST將AI RMF框架的目標受眾劃分為四個利益相關者群體(上圖):

    • 人工智能系統利益相關者
    • 運營商和評估者
    • 外部利益相關者
    • 公眾

    在識別和管理與AI系統相關的風險的綜合方法中,NIST使用了三類特征分類法:技術特征、社會技術特征和指導原則:

    • 技術特性是指AI系統設計人員和開發人員直接控制的因素,可以使用標準評估標準來衡量,例如準確性、可靠性和彈性。
    • 社會技術特征是指人工智能系統在個人、群體和社會環境中的使用和感知方式,例如“可解釋性”、隱私、安全和管理偏見。
    • 指導原則是指更廣泛的社會規范和價值觀,表明社會優先事項,例如公平、問責制和透明度。

    與其他NIST框架一樣,AI RMF核心包含AI風險管理活動的三個元素:功能、類別和子類別。這些功能被組織用于映射、衡量、管理和治理人工智能風險。盡管AI RMF原計劃通過配置文件為特定用例提供上下文信息,但該任務以及計劃中的實踐指南已被推遲到以后的草案。

    人工智能風險治理各自為政

    雖然大量科技企業正在開發、銷售和部署人工智能技術,但很少有企業關注人工智能的風險治理政策。bnh.ai的科學家Patrick Hall表示,在大型消費金融機構和其他一些高度監管的領域之外,人工智能大多在沒有正式風險治理規范的情況下被使用,因此企業(用戶)只能自行解決這些暴風雨般的治理問題。”

    微軟首席人工智能官Natasha Crampton表示:“當你的治理方法過度分散時,就注定會出現失敗模式。在這種情況下,團隊希望將AI模型部署到生產中,但他們只是采用自己的流程和結構,幾乎沒有(風險治理方面的)協調。”

    富國銀行執行副總裁兼企業模型風險負責人Agus Sudjianto也強調AI風險管理離不開高層管理。“如果AI項目負責人沒有高層的聲望、通道和支持,那將是行不通的。”

    埃森哲首席云計算技術官Teresa Tung強調,所有企業都需要專注于人工智能。“全球2000強公司中約有一半在財報電話會議中報告了人工智能技術應用。這(人工智能風險管理)是每個企業都需要意識到的事情。”

    與NIST開發的其他風險管理框架(例如網絡安全框架)一樣,最終的AI RMF可能對私營和公共部門產生廣泛的影響。目前AI RMF還處于草案的意見征詢期,截止日期為2022年4月29日。

    AI RMF草案下載地址:

    https://www.nist.gov/system/files/documents/2022/03/17/AI-RMF-1stdraft.pdf

    人工智能風險管理
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    人工智能風險管理是負責任地開發和使用人工智能系統的關鍵組成部分,通過機構組織對潛在正負面影響的批判性思考,進而提升人工智能系統可信度,培養公共信任。管理涉及到對系統風險因素的定期映射和測量,包括對事故和事件的響應、補救和溝通,以減少系統故障和負面影響的可能性,并根據評估結果優先排序、有效配置、定期改進風險管理資源。
    NIST表示,該自愿性指南旨在提高將可信性考慮因素納入人工智能產品、服務和系統的設計、開發、使用和評估的能力。人工智能系統可能表現出緊急屬性或導致個人和社區意想不到的后果。使用人工智能風險管理框架可以減少負面影響的可能性和程度,增加個人、團體、社區、組織和社會的利益。人工智能風險管理框架應允許在整個組織內、組織間、與客戶以及與廣大公眾交流人工智能風險。
    編者按 2021年,全球范圍內對于人工智能的監管已經開始從理論探討走向實際的立法和執法階段,標志性的事件就是歐盟提出了《歐洲議會和理事會關于制定人工智能統一規則(《人工智能法》)和修正某些歐盟立法的條例》的提案,以及我國國家互聯網信息辦公室發布的《互聯網信息服務算法推薦管理規定》。
    從自動駕駛到網絡購物,人工智能技術已經滲入數字社會的各個角落,但是人工智能的網絡安全和風險管理卻相對滯后,NIST推出的人工智能風險管理框架期望能夠解決這種“風險差距”。
    該框架的目標是提高將可信度納入AI的能力,包括AI的產品、服務、系統的設計、開發、使用和評估。
    NIST特別指出隨著技術的不斷發展,AI RMF旨在適應AI領域,并被組織使用,以便社會可以從AI技術中受益,同時免受其潛在危害。????值得注意的是,NIST說明AI RMF提供了一個靈活,結構化和可衡量的過程,旨在使組織能夠解決AI風險,并分為兩部分:????重要的是,NIST指出,在同一天,它發布了一個配套的自愿AI RMF手冊,該手冊提供了導航和使用AI RMF的方法。在這方面,NIST最后提到,它計劃定期更新AI RMF,并歡迎隨時對AI RMF手冊提出添加和改進的建議。
    從2018年開始,公號君就開始給有關數字貿易協定談判提供技術支撐工作。目前,中國已經建立了關于數據安全和個人信息保護方面的法律框架,對于數據要素治理的宏觀謀劃和對新技術新業務的規制,也在緊鑼密鼓地開展過程之中。于此同時,中國已經申請加入《全面與進步跨太平洋伙伴關系協定》(CPTPP)和《數字經濟伙伴關系協定》(DEPA),這兩部協定都是自由化水平較高的貿易協定,展示了中國尋求更加開放的決心。顯然,
    國家網信辦等7部門近日發布《生成式人工智能服務管理暫行辦法》,對生成式人工智能(AI)技術應用劃定清晰邊界,實行包容審慎和分類分級監管,確保科學監管和鼓勵發展并行。
    DEF CON是每年8月在拉斯維加斯召開的黑客大會,此次安全競賽由人工智能黑客社區AI Village主辦。在AI Village發布的活動公告中,組織方Sven Cattell、Rumman Chowdhury和Austin Carson將其稱為“有史以來規模最大的人工智能模型紅隊演習”。最終,得分最高的參與者將獲得英偉達高端GPU作為獎品。DEF CON 31將于8月10至13日在拉斯維加斯凱撒宮酒店舉辦。
    編者按: 本公號發表過的關于數據執法跨境調取的相關文章: 微軟起訴美國司法部:封口令違法! 網絡主權的勝利?再評微軟與FBI關于域外數據索取的爭議 微軟與FBI關于域外數據索取的爭議暫告一段落 美國Cloud Act法案到底說了什么 Cloud Act可能本周就得以通過! 修改版的Cloud Act終成為法律 歐盟推出自己的“Cloud Act” 美國快速通過Cloud法案 清晰明確數據主權戰
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类