<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    NIST發布《人工智能風險管理框架》草案重點摘譯

    VSole2022-08-23 17:14:12

    美國國家標準與技術研究所(U.S. National Institute of Standards and Technology,以下簡稱“NIST”)正在就其人工智能風險管理框架的第二稿征求公眾意見。NIST表示,該自愿性指南旨在提高將可信性考慮因素納入人工智能產品、服務和系統的設計、開發、使用和評估的能力。關于最新草案的公眾咨詢將持續到9月29日,而NIST還將在10月18-19日的研討會上征求關于該指南的反饋意見。

    《人工智能風險管理框架:第二稿》重點摘譯

    值得信賴和負責任的人工智能

    人工智能(AI)能力的顯著提升引發了廣泛的創新,有可能使社會和經濟許多方面受益——從商業和醫療保健到運輸和網絡安全。人工智能技術經常被用來提供信息、建議或簡化任務,從而實現其有益的影響。

    管理人工智能風險與管理其他類型的技術的風險并無不同。任何軟件或基于信息的系統的風險都適用于人工智能,包括有關網絡安全、隱私、安全和基礎設施的擔憂。與這些領域一樣,人工智能系統的影響可以被定義為長期或短期、高概率或低概率、系統性或局域性、高影響或低影響。然而,人工智能系統帶來了一系列風險,需要特定的考慮和方法。人工智能系統會放大、延續或加劇不公平的結果。人工智能系統可能表現出緊急屬性或導致個人和社區意想不到的后果。驅動人工智能系統行為的數據交互的有用的數學表示尚不完全可知,這使得目前衡量風險和駕馭風險收益權衡的方法不足。人工智能風險可能來自于用于訓練人工智能系統的數據、人工智能系統本身、人工智能系統的使用或人與人工智能系統的交互。

    盡管人們對如何讓人工智能技術值得信賴的看法不同,但值得信賴的系統具有一些公認的關鍵特征。值得信賴的人工智能是有效和可靠的,是公平和偏見得到管理的,是安全和靈活的,是可問責和透明的,是可解釋和可說明的,是注重隱私的

    人工智能系統本質上是社會技術的,這意味著它們是設計、開發和使用中涉及的復雜的人類、組織和技術因素的產物。許多值得信賴的人工智能特征,如偏見、公平、可解釋性和隱私,都與社會動態和人類行為直接相關。人工智能的風險和好處可以從技術方面與社會技術因素的相互作用中產生,這些社會技術因素與系統的使用方式、其他人工智能系統的互動、操作它的人以及它部署到的社會環境都息息相關。

    使用負責任的人工智能系統與人工智能系統的可信性相對應。人工智能系統本身并不具有風險,通常是環境決定其是否會產生負面影響。人工智能風險管理框架(AI RMF)可以幫助組織增強對構建和部署人工智能系統的環境如何與個人、團體和社區互動和影響的理解。使用負責任的人工智能可以:

    • 協助人工智能設計師、開發人員、部署人員、評估人員和用戶更批判性地思考環境和潛在或意想不到的消極和積極影響;
    • 在設計、開發、評估和使用具有影響力的人工智能系統時發揮杠桿作用;
    • 預防、檢測、降低和管理人工智能風險。

    人工智能風險管理框架的目的

    通過認識和管理人工智能系統的風險來培養信任,將有助于維護公民自由和權利并增強安全,同時創造機會激發這一技術完全的潛能。人工智能風險管理框架旨在應對人工智能系統所特有的挑戰,并鼓勵和幫助不同的人工智能利益相關者主動并有目的地管理人工智能風險。該框架描述了管理人工智能風險的過程,涉及廣泛的類型、應用和成熟度,而不考慮行業、規模或對特定類型技術的熟悉程度。與在其他指南中重復信息不同,人工智能風險管理框架旨在填補針對人工智能風險的空白。鼓勵人工智能風險管理框架的用戶通過當前可用的指導來解決非人工智能特定問題。

    人工智能風險管理框架是一個自愿的框架,尋求提供一個靈活的、結構化的和可測量的過程,在人工智能生命周期中前瞻性地和連續地解決人工智能風險。它旨在通過改進理解、檢測和預防,幫助組織管理與人工智能系統設計、開發、部署、評估和使用相關的企業和社會風險。使用人工智能風險管理框架可以幫助組織、行業和社會理解并確定其可接受的風險水平。

    人工智能風險管理框架不是一份清單,也并不是單獨使用的。組織會發現將人工智能風險管理框架納入企業風險管理的更廣泛考慮是有價值的。

    人工智能風險管理框架不是一種合規機制。它與法律法規無關,因為人工智能政策的討論是動態的,并在不斷發展。雖然風險管理實踐應納入并符合適用的法律法規,但本文件并無意取代現有的法規、法律或其他授權。

    研究界可能會發現人工智能風險管理框架有助于評估值得信任和負責任的人工智能及其相關影響。

    通過應用人工智能風險管理框架中的建議,各組織將更有能力治理、描繪、衡量和管理人工智能的風險。使用人工智能風險管理框架可以減少負面影響的可能性和程度,增加個人、團體、社區、組織和社會的利益。

    在人工智能系統生命周期的開始階段應用該框架,將極大地增加由此產生的系統更值得信賴的可能性——個人、團體、社區、組織和社會的風險將得到更有效的管理。框架用戶有責任定期將人工智能風險管理框架的功能應用于人工智能系統,因為環境、利益相關者的期望和知識將隨著時間的推移和人工智能系統的更新或擴展而不斷變化。

    NIST與私營和公共部門合作開發人工智能風險管理框架,是由《2020年國家人工智能倡議法》(P.L. 116-283)、《國家安全委員會關于人工智能的建議》以及《聯邦參與開發技術標準和相關工具的計劃》指導的,并與它所呼吁的更廣泛的人工智能努力相一致。本框架的開發過程中,與廣泛的人工智能社區合作,為NIST和其他機構的人工智能研究和開發以及評估提供參考。

    本框架的第一部分建立了人工智能風險管理過程的背景。第二部分為實施這一過程的結果和活動提供指導,以實現人工智能的利益最大化和風險最小化。人工智能風險管理框架使用手冊提供了在人工智能產品、服務和系統開發和部署之前、期間和之后執行本指南時要考慮的示例實踐。

    人工智能風險管理框架的發展

    該框架和支持性資源將根據不斷發展的技術、全球的標準狀況和利益相關者的反饋進行更新、擴展和改進。隨著人工智能風險管理框架的投入使用,將吸取更多的經驗教訓,為未來的更新和額外的資源提供參考。

    人工智能風險管理框架和使用手冊將得到更廣泛的NIST可信和負責任的人工智能資源中心的支持,該中心包含與可信人工智能的開發和實施有關的文件、分類法、工具包、數據集、代碼和其他形式的技術指導。該資源中心還將包括一個關于值得信賴和負責任的人工智能術語的知識庫,以及不同的利益相關者如何使用這些術語,同時還包括對值得信賴的特征及其內在挑戰有更深入了解的文件。

    人工智能風險管理框架為管理人工智能系統的風險提供了高層次的指導。雖然NIST發布的實用指南可作為信息參考,但所有這些指南仍然是自愿使用的。

    人工智能風險管理框架的屬性

    人工智能風險管理框架將努力做到以下幾點:

    1.以風險為基礎,資源效率高,支持創新,并且是自愿的。

    2.以共識為導向,通過一個公開、透明的過程制定并定期更新。所有利益相關者都應該有機會為人工智能風險管理框架的發展做出貢獻。

    3.使用清晰明了的語言,使廣大受眾能夠理解,包括高級行政人員、政府官員、非政府組織領導以及那些非人工智能專業人員。同時仍具有足夠的技術深度,對從業人員有用。人工智能風險管理框架應允許在整個組織內、組織間、與客戶以及與廣大公眾交流人工智能風險。

    4.提供共同的語言和理解來管理人工智能風險。人工智能風險管理框架應提供人工智能風險的分類學、術語、定義、度量和特征。

    5.易于使用,并與風險管理的其他方面很好地配合。該框架的使用應是直觀的,并可隨時作為一個組織更廣泛的風險管理戰略和流程的一部分。它應該與管理人工智能風險的其他方法保持一致。

    6.適用于廣泛的視角、部門和技術領域。人工智能風險管理框架應普遍適用于任何人工智能技術和特定環境的使用案例。

    7.以結果為導向,不死板。該框架應該提供一系列的結果和方法,而不是規定一刀切的要求。

    8.利用并促進對現有標準、準則、最佳做法、方法和工具的認識,以管理人工智能風險,同時說明需要更多、更好的資源。

    9.與法律和法規無關。該框架應支持各組織在適用的國內和國際法律或監管制度下運作的能力。

    10.作為一份靈活的文件。隨著人工智能可信度和人工智能使用的技術、理解和方法的變化,以及利益相關者從實施人工智能風險管理(尤其是該框架)中學習,人工智能風險管理框架應該隨時更新

    人工智能風險管理
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    人工智能風險管理是負責任地開發和使用人工智能系統的關鍵組成部分,通過機構組織對潛在正負面影響的批判性思考,進而提升人工智能系統可信度,培養公共信任。管理涉及到對系統風險因素的定期映射和測量,包括對事故和事件的響應、補救和溝通,以減少系統故障和負面影響的可能性,并根據評估結果優先排序、有效配置、定期改進風險管理資源。
    NIST表示,該自愿性指南旨在提高將可信性考慮因素納入人工智能產品、服務和系統的設計、開發、使用和評估的能力。人工智能系統可能表現出緊急屬性或導致個人和社區意想不到的后果。使用人工智能風險管理框架可以減少負面影響的可能性和程度,增加個人、團體、社區、組織和社會的利益。人工智能風險管理框架應允許在整個組織內、組織間、與客戶以及與廣大公眾交流人工智能風險。
    編者按 2021年,全球范圍內對于人工智能的監管已經開始從理論探討走向實際的立法和執法階段,標志性的事件就是歐盟提出了《歐洲議會和理事會關于制定人工智能統一規則(《人工智能法》)和修正某些歐盟立法的條例》的提案,以及我國國家互聯網信息辦公室發布的《互聯網信息服務算法推薦管理規定》。
    從自動駕駛到網絡購物,人工智能技術已經滲入數字社會的各個角落,但是人工智能的網絡安全和風險管理卻相對滯后,NIST推出的人工智能風險管理框架期望能夠解決這種“風險差距”。
    該框架的目標是提高將可信度納入AI的能力,包括AI的產品、服務、系統的設計、開發、使用和評估。
    NIST特別指出隨著技術的不斷發展,AI RMF旨在適應AI領域,并被組織使用,以便社會可以從AI技術中受益,同時免受其潛在危害。????值得注意的是,NIST說明AI RMF提供了一個靈活,結構化和可衡量的過程,旨在使組織能夠解決AI風險,并分為兩部分:????重要的是,NIST指出,在同一天,它發布了一個配套的自愿AI RMF手冊,該手冊提供了導航和使用AI RMF的方法。在這方面,NIST最后提到,它計劃定期更新AI RMF,并歡迎隨時對AI RMF手冊提出添加和改進的建議。
    從2018年開始,公號君就開始給有關數字貿易協定談判提供技術支撐工作。目前,中國已經建立了關于數據安全和個人信息保護方面的法律框架,對于數據要素治理的宏觀謀劃和對新技術新業務的規制,也在緊鑼密鼓地開展過程之中。于此同時,中國已經申請加入《全面與進步跨太平洋伙伴關系協定》(CPTPP)和《數字經濟伙伴關系協定》(DEPA),這兩部協定都是自由化水平較高的貿易協定,展示了中國尋求更加開放的決心。顯然,
    國家網信辦等7部門近日發布《生成式人工智能服務管理暫行辦法》,對生成式人工智能(AI)技術應用劃定清晰邊界,實行包容審慎和分類分級監管,確保科學監管和鼓勵發展并行。
    DEF CON是每年8月在拉斯維加斯召開的黑客大會,此次安全競賽由人工智能黑客社區AI Village主辦。在AI Village發布的活動公告中,組織方Sven Cattell、Rumman Chowdhury和Austin Carson將其稱為“有史以來規模最大的人工智能模型紅隊演習”。最終,得分最高的參與者將獲得英偉達高端GPU作為獎品。DEF CON 31將于8月10至13日在拉斯維加斯凱撒宮酒店舉辦。
    編者按: 本公號發表過的關于數據執法跨境調取的相關文章: 微軟起訴美國司法部:封口令違法! 網絡主權的勝利?再評微軟與FBI關于域外數據索取的爭議 微軟與FBI關于域外數據索取的爭議暫告一段落 美國Cloud Act法案到底說了什么 Cloud Act可能本周就得以通過! 修改版的Cloud Act終成為法律 歐盟推出自己的“Cloud Act” 美國快速通過Cloud法案 清晰明確數據主權戰
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类