近日,三星電子公司以安全為由,暫時禁止員工使用ChatGPT、谷歌bard和必應等流行的生成式人工智能工具。

三星一份內部備忘錄顯示,三星電子周一將新政策通知了其最大部門之一的員工。該文件稱,公司擔心,傳輸到此類人工智能平臺的數據存儲在外部服務器上,難以檢索和刪除,并可能最終被泄露給其他用戶。

該公司對員工表示:“公司內外對ChatGPT等生成式人工智能平臺的興趣一直在增長。雖然人們的興趣集中在這些平臺的實用性和效率上,但人們也越來越擔心生成式AI帶來的安全風險。”

三星的新規定禁止在公司擁有的電腦、平板電腦和手機以及內部網絡上使用生成式人工智能系統。它們不會影響該公司銷售給消費者的設備,比如安卓智能手機和Windows筆記本電腦。

此外,三星還要求在個人設備上使用ChatGPT和其他工具的員工不要提交任何可能泄露其知識產權的公司相關信息或個人數據。該公司警告稱,違反新政策可能會導致被解雇。

三星在備忘錄中表示:“我們要求你們努力遵守我們的安全準則,如果不這樣做,可能會導致公司信息泄露或泄露,從而導致紀律處分,甚至終止雇傭關系。”

此外,三星上個月進行了一項關于內部使用人工智能工具的調查,并表示65%的受訪者認為此類服務構成安全風險。備忘錄稱,4月初,有三星工程師將內部源代碼上傳到ChatGPT上,不小心泄露了源代碼。

ChatGPT掀起的人工智能熱潮仍在繼續,在數字中國建設峰會期間,奇安信集團董事長齊向東表示,ChatGPT是人工智能技術的代表性應用,它依托大數據給社會生產生活帶來了很多便利,但同時也給數據安全帶來了全新的安全挑戰。主要有三個挑戰:

一是降低了網絡犯罪門檻,加劇了數據遭遇外部攻擊的風險。過去,高水平的黑客只是一小部分,人工智能技術能讓黑客的水平躍升,相當于給了普通人一本“武林秘籍”,讓不懂代碼、不懂技術的普通人,也能成為黑客。惡意攻擊代碼和釣魚攻擊變得“唾手可得”,加大了數據安全風險。

二是增加了數據泄露途徑,會讓數據在使用中“被動”泄露。人工智能工具是一件趁手的辦公利器,能極大提升工作效率。但當員工使用ChatGPT類工具,向這些工具“投喂”數據時,就造成了企業敏感信息、商業機密和其他數據泄露風險。有安全公司調查,2.3%的員工會將公司機密數據粘貼到ChatGPT中,企業平均每周向ChatGPT泄露機密材料達數百次。

三是信息識別成為難題,深度偽造攻擊逐漸流行。利用人工智能技術,犯罪分子不僅可以編寫出更貼近受害人的工作環境,的釣魚郵件,提高網絡犯罪的得手率。還能通過偽造信息和聲音對公眾進行誤導,一張偽造的圖片、一段偽造的視頻,都可能引起軒然大波,對數據安全造成巨大威脅。