<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    ChatGPT的六大合規風險

    VSole2023-05-29 10:35:28

    ChatGPT在全球科技行業掀起了生成式人工智能的“軍備競賽”,但是人們對生成式人工智能(AIGC)的合規風險普遍認識不足。

    Gartner最近撰文指出,企業法務和合規負責人應該認知并解決企業面臨的六種ChatGPT(包括其他基于大語言模型的生成式人工智能工具)合規風險,并開始建立護欄確保企業能安全且負責任地使用生成式人工智能工具。

    “ChatGPT和其他大型語言模型工具容易產生多種風險,”Gartner法律與合規實踐高級總監分析師冉弗里德曼(Ron Friedmann)指出:“法律和合規領導者應評估這些問題是否對其企業構成重大風險,以及在企業內部及其第三方/多方推廣AI應用時企業內部需要采取哪些控制措施。否則,企業可能會面臨法律、聲譽和財務方面的嚴重后果。

    法務和合規負責人應評估的六大ChatGPT風險包括(同樣適用于其他大語言模型工具):

    捏造的或失實信息

    ChatGPT和其他大語言模型工具最常見的問題是傾向于提供不正確的(盡管表面上合理的)信息。

    “ChatGPT也容易產生'幻覺',包括捏造答案,以及不存在的法律或科學引用,”弗里德曼說:“法律和合規領導者應該發布指導意見,要求員工在采信答案之前審查大語言模型工具生成內容是否準確、恰當和實用。”

    數據隱私和機密性

    法律和合規領導者應該意識到,輸入到ChatGPT中的任何信息,如果未關閉聊天記錄功能,都可能成為其訓練數據集的一部分。

    “提示詞中使用的敏感、專有或機密信息可能會被用于回復企業外部用戶的提問,”弗里德曼說:“法律和合規部門需要為ChatGPT的使用建立一個合規框架,并明確禁止將敏感的組織或個人數據輸入公共大語言模型工具。

    模型和輸出偏差

    盡管OpenAI努力減少ChatGPT中的偏見和歧視,但這些問題的案例已經頻頻發生,盡管OpenAI和其他公司正在積極努力將這些風險降至最低,但這個問題可能會永遠存在。

    “大語言模型不太可能完全消除偏見,因此法務和合規人員需要掌握管理人工智能偏見的法律,并確保合規性,”弗里德曼說:“這可能需要與專家合作,以確保人工智能生成可靠內容,并通過審計和技術功能進行數據質量控制。”

    知識產權(IP)和版權風險

    大語言模型工具,尤其是ChatGPT,訓練時使用了大量互聯網數據,其中可能包括受版權保護的材料。因此,ChatGPT之類的大語言模型輸出的內容也有可能侵犯版權或知識產權保護。

    “ChatGPT沒有提供其內容生成的具體原理和機制,”弗里德曼說:“法律和合規領導者應該密切關注適用于ChatGPT(以及其他生成式人工智能工具)輸出內容相關版權法規的任何變化,并要求用戶仔細審查他們生成的內容,以確保不侵犯版權或知識產權。”

    網絡欺詐風險

    不法分子已經在濫用ChatGPT來大規模生成虛假信息(例如,虛假評論)。

    此外,集成或接入大語言模型模型(包括ChatGPT)的應用程序也容易受到提示注入攻擊的影響。所謂提示注入攻擊是一種黑客技術,攻擊者使用惡意對抗性提示誘騙人工智能模型執行違反其內容審核規則的任務,例如編寫惡意軟件代碼或開發網絡釣魚站點。

    “法務和合規領導者應與網絡安全風險負責人協調,探討是否或何時就此問題向公司網絡安全人員發布備忘錄,”弗里德曼補充道:“他們還應該對信息來源進行盡職調查和審計,以驗證信息的質量。”

    消費者保護風險

    如果企業的應用(例如客服聊天機器人)未能向消費者披露是否使用了生成式人工智能技術(例如ChatGPT),企業將面臨失去客戶信任的風險,甚至可能遭到起訴。

    例如,美國加利福尼亞州的聊天機器人法律要求,在某些消費者互動中,企業必須清晰、明確地告知消費者正在與機器人進行交流。

    法務和合規負責人需要確保企業的大語言模型應用(例如ChatGPT)符合所在司法轄區內的所有相關法規和法律,并已向客戶進行了適當的披露。

    人工智能合規風險
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    ChatGPT的六大合規風險
    2023-05-29 10:35:28
    ChatGPT在全球科技行業掀起了生成式人工智能的“軍備競賽”,但是人們對生成式人工智能合規風險普遍認識不足。Gartner最近撰文指出,企業法務和合規負責人應該認知并解決企業面臨的六種ChatGPT合規風險,并開始建立護欄確保企業能安全且負責任地使用生成式人工智能工具。
    各經濟體更加重視數據競爭力,紛紛制定出臺數據戰略,宣誓數據安全和主權。因此,歐盟認為必須建立歐洲數據主權。近年來,我國陸續發布了一系列數據及其安全相關的法律法規和標準規范,數據資產價值得到確認。2020年6月,12部委聯合發布《網絡安全審查辦法》,推動建立國家網絡安全審查工作機制。
    國家工業信息安全發展研究中心作為國家級信息安全研究和推進機構,聯合華為技術有限公司共同研究編制了《數據安全白皮書》,全面分析了我國數據安全產業基礎、防護關鍵技術、法律法規體系現狀,從提升數據安全產業基礎能力、加快研究和應用數據安全防護技術、強化法律法規在數據安全主權的支撐保障作用等三方面展望數據安全發展未來,提出了數據安全發展倡議,為行業發展提供借鑒和參考,積極推動我國數據治理工作有序開展。
    一方面是國家在數據安全、網絡安全、個人信息保護層面的監管力度持續增強,一方面是頻頻出現的企業數據安全事件,加強企業合規管理已成為當下企業發展的必要性、基礎性內容。然而,通過對企業合規管理現狀的分析,我們發現企業在合規管理方面,往往存在以下難點、痛點問題。
    勒索病毒不僅影響醫療機構的業務正常開展,極端情況下可能導致病患死亡。2020 年 9 月,德國杜塞爾多夫醫院遭到勒索病毒攻擊導致醫院無法正常開展業務,一輛救護車被迫改道 20 英里,延誤了 1 名患者的治療導致其死亡。
    本文系統梳理了金融數據合規要求,對金融業機構開展數據合規建設具有指導意義。
    中國光大銀行主動融入數字經濟生態,積極推動數字化轉型中科技新治理體系建設,以保護數據主體權益為核心目標創新構建數據風險管理體系,探索兩法在商業銀行內部的落地實施的可行路徑。
    在企業組織數字化轉型發展過程中,網絡安全合規運營一直發揮著重要的作用,是企業積極開展網絡安全建設的主要驅動因素之一。
    但通常偽裝成“數據隱私”條例的數據主權法案層出不窮,給數據的處理和存儲位置施加了地理邊界。無法輕易繞過或拋開最近的數據主權要求獲得消費者同意。跨境經營的成本由于需要遵循數據主權法律,企業面臨巨大的經營成本。最近,歐洲法院判定總部位于美國的Meta公司未能充分保護歐盟公民的個人數據,對其處以13億美元罰款。將數據安全和數據隱私與更豐富的資源相結合也能幫助企業降低成本。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类