<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    解決AI安全問題:NIST人工智能風險管理框架

    VSole2022-04-24 20:25:16

    與任何信息技術一樣,人工智能也會面臨各種安全問題以及其他新出現的問題,如隱私、歧視、不公平等。美國國家標準與技術研究所(NIST)正在開發一個志愿性質的框架,以更好地管理人工智能相關的風險,稱為人工智能風險管理框架(AI RMF)。該框架的目標是提高將可信度納入AI的能力,包括AI的產品、服務、系統的設計、開發、使用和評估。

    該框架的初稿建立在2021年12月NIST發布的一份概念性文件上。NIST希望AI RMF能夠描述基于人工智能的系統,其風險與其他領域的風險有何不同,并鼓勵利益相關群體有針對性地解決這些風險。NIST表示,它可以用于超出框架之外的合規映射,如現有法律法規或其他強制性指南等。

    盡管人工智能框架面臨著與其他NIST框架類似的風險,但前者的某些風險“差距”或對其的擔憂,是人工智能所獨有的。而這些差距正是AI RMF想要彌補解決的。

    AI利益相關群體和技術特征

    NIST將四個利益相關群體確定為該框架的預期受眾:人工智能系統利益相關者、運營商和評估者、外部利益相關者和公眾。采用三級特征分類法,在識別和管理人工智能系統相關風險的綜合方法中應考慮這些特征:技術特征、社會技術特征和指導原則。

    技術特征是指人工智能系統設計者和開發者直接控制的因素,可以使用標準評估標準來衡量,如準確性、可靠性和彈性。社會技術特征指人工智能系統在個人、群體和社會環境中的使用和感知方式,如“可解釋性”、隱私、安全和管理歧視。在AI RMF分類法中,指導原則指的是更廣泛的社會規范和價值觀,表明了公平、問責和透明度等社會優先事項。

    與其他NIST框架一樣,AI RMF核心包含AI風險管理活動的三個要素:功能、類別和子類別。功能是為了映射、測量、管理和治理人工智能風險。盡管AI RMF預期通過概要文件為特定用例提供上下文,但該任務以及計劃的實踐指南已被推遲到以后的草案中。

    在3月中旬發布框架草案后,NIST舉行了為期三天的研討會,討論人工智能RMF的各個方面,包括深入探討如何減輕人工智能技術中的有害偏見(歧視)。以下是研討會中的一些觀點:

    繪制人工智能風險:上下文環境很重要

    卡內基梅隆大學的研究人員Rayid Ghani在NIST的研討會上聲稱,在繪制人工智能風險圖時,“我們仍然需要弄清楚上下文、用例和部署場景。較為理想化的是,所有這些事情都應該在構建系統時發生。”

    美國醫療保險計劃副總裁Marilyn Zigmund Luke告訴與會者,“考慮到不同環境和結構的多樣性,個人和組織的風險當然會不同。我認為應該從評估風險的角度來理解所有這些風險,你必須從零開始,去建立一些不同的參數。”

    測量人工智能活動:需要新技術

    由于人工智能系統中固有的社會政治倫理和習俗的復雜性,人工智能相關活動的測量仍處于初級階段。圣地亞哥加利福尼亞大學的David Danks認為:“測量功能中的很大一部分實質上是交給人去了解的。在這種特定的背景下,歧視味著什么?相關的價值觀是什么?因為,風險從根本上來說是對組織或人類價值觀的威脅,價值觀很難確定。”

    人工智能安全與研究公司Anthropic的聯合創始人杰克·克拉克表示,人工智能的出現產生了對新指標和測量方法的需求,理想的情況是將其融入人工智能技術本身的創造中。“現代人工智能技術的挑戰之一是,需要設計新的測量技術,并與技術本身共同開發。”

    管理人工智能風險:培訓數據需要升級

    AI RMF的管理內容解決繪制和測量的風險,以最大限度地提高效益和減少不利影響。但ParityAI的首席技術官陳家豪表示,數據質量問題可能會阻礙人工智能的風險管理。“當下的模型培訓數據,可用性不一定適用于現實世界,因為它可能已經過時了幾年。我們必須考慮培訓數據是否真的反映了當今世界的狀態。”

    Adobe倫理創新總監Grace Yee說,“對于我們來說,提供世界上最好的技術來創造數字體驗已經不夠了。我們希望確保我們的技術是為包容性而設計的,并尊重我們的客戶、社區和Adobe價值觀。具體來說,我們正在開發新的系統和流程,以評估我們的人工智能是否在制造有害的偏見。”

    紐約大學法學院的文森特·索瑟蘭提出,使用擁有預測能力的警務工具可能會出現很大的問題。“這些人工智能系統部署在整個刑事系統中,從確定犯罪者到何時釋放罪犯。但直到最近,人們還沒有從根本上認識到,這些工具所依賴的數據以及這些工具的運作方式實際上有助于加劇種族不平等,并有助于放大刑事系統本身的弊端。”

    人工智能治理:很少有組織這么做

    在人工智能治理政策方面,bnh.ai的科研人員帕特里克·霍爾表示,在大型消費金融組織和其他幾個高監管的領域之外,人工智能的使用沒有正式的治理指導,因此公司只能自己解決這些棘手的治理問題。

    微軟首席人工智能負責人Natasha Crampton:“當你的治理方法過于分散時,失敗的跡象就會顯現出來。在這種情況下,各團隊希望將人工智能模型部署到生產中,但他們只是采用自己的流程和結構,相互之間幾乎沒有協調。”

    富國銀行執行副總裁兼企業模型風險主管Agus Sudjianto也強調了高層對人工智能風險治理的重要性。“如果人工智能負責人或管理人員沒有地位、信息來源和高層的支持,談不上治理。”

    埃森哲云首席技術師Teresa Tung強調,所有企業都需要關注人工智能。“全球排名前2000內的公司中大約一半的公司在其財報上都提及了人工智能。這是每個企業都需要認識到的。”

    與NIST開發的其他風險管理框架(如網絡安全框架)一樣,最終的AI RMF可能會對私營和公共部門產生廣泛的影響。NIST正在向社會征求針對草案的意見,截止日期為2022年4月29日。

    技術風險人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    2022年6月15日,英國國防部發布《國防人工智能戰略》(Defence Artificial Intelligence Strategy)。該戰略旨在通過前沿技術樞紐,支撐新興技術的使用和創新,從而支持創建新的英國國防AI中心。
    美國 OpenAI 公司 2022 年發布的生成式人工智能(AIGC)產品 ChatGPT,憑借擁有高質量文本內容的輸出能力,能夠精確、高效地完成分析、翻譯、撰寫代碼等工作,引發了廣泛關注。
    NIST表示,該自愿性指南旨在提高將可信性考慮因素納入人工智能產品、服務和系統的設計、開發、使用和評估的能力。人工智能系統可能表現出緊急屬性或導致個人和社區意想不到的后果。使用人工智能風險管理框架可以減少負面影響的可能性和程度,增加個人、團體、社區、組織和社會的利益。人工智能風險管理框架應允許在整個組織內、組織間、與客戶以及與廣大公眾交流人工智能風險
    中國人工智能產業發展聯盟(AIIA)2021人工智能產業峰會可信人工智能分論壇(簡稱“可信AI分論壇”)將于2021年11月11日在杭州奧克斯中心皇冠假日酒店舉行,誠邀人工智能業內人士參會,探討可信AI的落地實踐之路。
    白皮書從如何落實全球人工智能治理共識的角度出發,聚焦于可信人工智能技術、產業和行業實踐等層面,分析了實現可控可靠、透明可釋、隱私保護、明確責任及多元包容的可信人工智能路徑,并對可信人工智能的未來發展提出了建議。
    本文基于國網湖南電力在網絡安全領域的研究成果,闡述人工智能技術如何應用于電力物聯網入侵檢測場景的實踐,以期為相關研究建設工作提供參考。
    當前的AI威脅場景Darktrace的一項研究發現,2023年前兩個月,新型社會工程攻擊暴增了135%,這表明攻擊者可能已經開始使用生成式AI技術來提高其社會工程攻擊的規模和復雜性。這意味著企業需要更加重視對優秀分析師和威脅獵人的人才吸引和培養,他們擅長尋找、篩選和利用新工具,提高檢測效率,快速發現和緩解新型AI增強攻擊。
    監管挑戰迫在眉睫這樣的警告給各國監管機構帶來壓力,要求它們闡明將人工智能嚴加控制的計劃。歐盟正在加快推動人工智能立法。2021年4月,歐盟委員會提出了《人工智能法案》條例草案。歐盟希望該法案既能推動人工智能的投資和創新,又能促進保障公民基本權利和安全的現行法律得到有效執行和加強。他認為禁令可能損害意大利的商業和創新,并希望解除禁令。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类