ChatGPT的六大合規風險
ChatGPT在全球科技行業掀起了生成式人工智能的“軍備競賽”,但是人們對生成式人工智能(AIGC)的合規風險普遍認識不足。
Gartner最近撰文指出,企業法務和合規負責人應該認知并解決企業面臨的六種ChatGPT(包括其他基于大語言模型的生成式人工智能工具)合規風險,并開始建立護欄確保企業能安全且負責任地使用生成式人工智能工具。
“ChatGPT和其他大型語言模型工具容易產生多種風險,”Gartner法律與合規實踐高級總監分析師冉弗里德曼(Ron Friedmann)指出:“法律和合規領導者應評估這些問題是否對其企業構成重大風險,以及在企業內部及其第三方/多方推廣AI應用時企業內部需要采取哪些控制措施。否則,企業可能會面臨法律、聲譽和財務方面的嚴重后果。
法務和合規負責人應評估的六大ChatGPT風險包括(同樣適用于其他大語言模型工具):
捏造的或失實信息
ChatGPT和其他大語言模型工具最常見的問題是傾向于提供不正確的(盡管表面上合理的)信息。
“ChatGPT也容易產生'幻覺',包括捏造答案,以及不存在的法律或科學引用,”弗里德曼說:“法律和合規領導者應該發布指導意見,要求員工在采信答案之前審查大語言模型工具生成內容是否準確、恰當和實用。”
數據隱私和機密性
法律和合規領導者應該意識到,輸入到ChatGPT中的任何信息,如果未關閉聊天記錄功能,都可能成為其訓練數據集的一部分。
“提示詞中使用的敏感、專有或機密信息可能會被用于回復企業外部用戶的提問,”弗里德曼說:“法律和合規部門需要為ChatGPT的使用建立一個合規框架,并明確禁止將敏感的組織或個人數據輸入公共大語言模型工具。
模型和輸出偏差
盡管OpenAI努力減少ChatGPT中的偏見和歧視,但這些問題的案例已經頻頻發生,盡管OpenAI和其他公司正在積極努力將這些風險降至最低,但這個問題可能會永遠存在。
“大語言模型不太可能完全消除偏見,因此法務和合規人員需要掌握管理人工智能偏見的法律,并確保合規性,”弗里德曼說:“這可能需要與專家合作,以確保人工智能生成可靠內容,并通過審計和技術功能進行數據質量控制。”
知識產權(IP)和版權風險
大語言模型工具,尤其是ChatGPT,訓練時使用了大量互聯網數據,其中可能包括受版權保護的材料。因此,ChatGPT之類的大語言模型輸出的內容也有可能侵犯版權或知識產權保護。
“ChatGPT沒有提供其內容生成的具體原理和機制,”弗里德曼說:“法律和合規領導者應該密切關注適用于ChatGPT(以及其他生成式人工智能工具)輸出內容相關版權法規的任何變化,并要求用戶仔細審查他們生成的內容,以確保不侵犯版權或知識產權。”
網絡欺詐風險
不法分子已經在濫用ChatGPT來大規模生成虛假信息(例如,虛假評論)。
此外,集成或接入大語言模型模型(包括ChatGPT)的應用程序也容易受到提示注入攻擊的影響。所謂提示注入攻擊是一種黑客技術,攻擊者使用惡意對抗性提示誘騙人工智能模型執行違反其內容審核規則的任務,例如編寫惡意軟件代碼或開發網絡釣魚站點。
“法務和合規領導者應與網絡安全風險負責人協調,探討是否或何時就此問題向公司網絡安全人員發布備忘錄,”弗里德曼補充道:“他們還應該對信息來源進行盡職調查和審計,以驗證信息的質量。”
消費者保護風險
如果企業的應用(例如客服聊天機器人)未能向消費者披露是否使用了生成式人工智能技術(例如ChatGPT),企業將面臨失去客戶信任的風險,甚至可能遭到起訴。
例如,美國加利福尼亞州的聊天機器人法律要求,在某些消費者互動中,企業必須清晰、明確地告知消費者正在與機器人進行交流。
法務和合規負責人需要確保企業的大語言模型應用(例如ChatGPT)符合所在司法轄區內的所有相關法規和法律,并已向客戶進行了適當的披露。