據外媒報道,韓國科技巨頭三星前不久發生了好幾起由ChatGPT引起的信息泄露事件,設備測量、產量數據、內部會議等機密內容都被傳輸到了海外。
最初因擔心可能會泄露公司內部機密信息,三星本來一直是禁止其企業內部使用ChatGPT等大型語言模型的。但從3月11日起,在認識到需要跟上技術進步后,三星的DS部門批準了使用GPT,并特別在公告中提醒員工 “注意公司內部信息安全,不要輸入敏感內容”。
結果,就在三星DS部門更改政策不到20天的時間里,陸續發生了三起其所擔心的信息泄露事故:其中一位員工復制了他工作中遇到的問題相關的源代碼,并輸入到了ChatGPT之中,向該AI詢問解決方案;而另一位員工則在 ChatGPT 中輸入了與設備良品率相關的程序代碼,并向AI請求代碼優化;最后一位員工則是將會議內容輸入到ChatGPT中要求AI為其編寫會議記錄。
本來在ChatGPT的使用指南中,OpenAI也有明確說明輸入給ChatGPT的文本內容會被用于進一步訓練模型,警告用戶不要提交敏感信息。而三星這三位員工的操作就意味著,他們提交的這些數據都被傳輸給了ChatGPT所屬的美國公司OpenAI,并有可能被用作了該模型的訓練數據。三星公司在知悉這些事件后,緊急采取了一系列緩解措施,例如將上傳內容限制在1024字節以內等。三星目前正向事故相關職員調查原委,必要時給予處罰。

根據數據分析機構cyberhaven的一份研究報告,約有3.1%的員工會將公司機密數據復制給ChatGPT。ChatGPT能夠在一定程度上提高工作效率不假,但其存在的安全隱患同樣不容忽視。當前,已有多家大型企業明確禁止或限制其員工使用ChatGPT,例如摩根大通、Verizon、高盛集團、花旗集團等。意大利數據保護局也在最近聲明禁止該工具的使用,除非OpenAI修改其數據收集政策。
安全內參
一顆小胡椒
中國信息安全
看雪學苑
中國信息安全
一顆小胡椒
綠盟科技研究通訊
信息安全與通信保密雜志社
安全內參
威努特工控安全
奇安信集團
數世咨詢