<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    妥善應對ChatGPT帶來的個人信息保護挑戰

    VSole2023-02-24 13:42:15

    近期,隨著ChatGPT的火爆出圈,人們對人工智能生成內容技術越來越關注。在大型語言模型訓練下,ChatGPT不僅能夠模仿人類思維和學習過程,準確理解用戶意圖并提供快速回答,還能進行寫作、編曲、繪畫、制作視頻和編寫程序等創造活動,可以同時扮演“搜索引擎”“文本生成器”和“聊天機器人”等三重角色,從而實現真正意義上的人機對話,被譽為人工智能發展的里程碑。

    在此背景下,Meta、微軟和谷歌等企業紛紛調整戰略,致力于開發類似的人工智能產品或促進既有業務與ChatGPT的深度融合,百度、阿里、科大訊飛等企業也計劃在今年推出應用落地的對話式人工智能產品。但是,在迅速成為產業發展新風口的同時,ChatGPT也給個人信息保護帶來新的挑戰,亟須探索相應對策。

    ChatGPT對個人信息保護的挑戰

    ChatGPT能夠“記住”問答中的個人信息,并用于模型訓練和內容生成。作為生成式人工智能(generative AI),ChatGPT本身即具備收集、儲存和使用個人信息的功能。首先,盡管ChatGPT在回答關于隱私的問題時聲稱其不會記住用戶的任何信息,也不會主動提供用戶個人信息。但是,它又表示與用戶對話的數據需要被存儲在開發者美國人工智能公司OpenAI或使用的云服務提供商的數據中心。其次,在人機交互問答中,提問者與ChatGPT分享的隱私和個人信息可能被用于未來模型的迭代訓練,ChatGPT模型訓練中使用的數據大多來自互聯網,后者可能包含大量的個人信息和數據,而未經用戶同意的數據抓取和訓練模型強大的推理能力又極大地增加了個人信息泄露的風險。再次,含有個人信息的問答內容可能成為模型訓練的基礎“語料”,這使ChatGPT輸出的內容包含用戶提供的個人信息或重要數據。即便泄露用戶個人信息的概率非常小,但如果加以刻意引導和提示,它仍然可能用來生成包含個人信息內容的回答。

    ChatGPT還可能被用來生成虛假信息或惡意軟件,誘騙用戶泄露個人信息。首先,通過來自社交平臺的數據對ChatGPT進行模型訓練,可能生成虛假信息、誘騙信息和網絡釣魚軟件,破壞網絡輿論生態。其次,惡意使用者可能利用ChatGPT生成大量用戶名和密碼的組合,用于對在線賬戶“撞庫”攻擊,加之ChatGPT的自然語言編寫能夠生成逃避防病毒軟件監測的惡意軟件,這可能帶來網絡安全隱患。再次,不法分子有可能以較低的技術成本來盜用他人虛擬形象、冒充他人身份,導致個人數字身份被盜用、冒用,且難以被人們識別,這可能進一步侵犯個人人格尊嚴,給受害人造成經濟損失等。最后,虛假的社交媒體資料或聊天機器人可以收集個人敏感信息,并誘騙受害者提供更多的個人信息,進一步助長網絡誹謗、誣陷、詐騙、敲詐勒索等下游違法犯罪行為的發生。

    各種類型的山寨版ChatGPT不斷涌現,且頻繁向消費者索取個人信息授權。近日,國內涌現出一批名字中包含“ChatGPT”的微信公眾號、小程序等產品,其頭像與ChatGPT官方圖標非常相似。目前,OpenAI并沒有在中國大陸提供有關ChatGPT服務,也沒有請其他公司代為運營。總體來看,這些在國內出現的ChatGPT可以分為兩種:一種是通過鏡像服務接入免費的GPT3.0版本為國內網民提供服務。當用戶通過鏡像訪問詢問一些涉及個人、企業等敏感信息的問題時,這些信息會暴露給提供鏡像服務的公司,同時也會上傳至OpenAI的服務器,由此增大個人信息泄露的風險。另一種是純粹的“山寨版”或“李鬼版”ChatGPT,它們不僅要求用戶必須提供完整個人信息才能使用,而且即便用戶完成這些步驟,服務系統也可能不回答任何問題,除非用戶觀看廣告或充值升級為VIP會員。此外,消費者也無法通過比對答案的方法來判斷自己得到的回答是真正的ChatGPT、其他人工智能模型或是人工作出的。

    ChatGPT背景下的個人信息保護策略

    加快數據合規建設,在人工智能設計中嵌入個人信息保護。企業應當嚴格落實數據合規建設的主體責任,積極參與數據合規體系建設。首先,嚴格落實《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》等相關規定,設置專人專責的“數據保護官”,并將個人信息保護作為企業數據合規體系的重要內容。其次,充分運用技術措施和管理制度,確保個人信息安全。比如,在ChatGPT或類似生成式人工智能的研發和運營過程中,企業可以采取去識別化和隱私計算等技術,實現個人信息利用和保護之間的平衡。再次,采用定期審核、評估、驗證算法機制,防止企業基于個人信息匯總生成的“人格畫像”而對用戶采取不公正的區別對待。最后,落實《新一代人工智能倫理規范》,在人工智能全生命周期中融入倫理限制,完善倫理監管體系,促進大模型人工智能應用在法律法規和倫理指引的共同作用下向善發展。

    嚴格審核數據來源,確保個人信息處理的合法性。個人信息作為人工智能對話中可能出現的內容,有必要對其進行特殊保護。首先,對數據合法性和真實性進行審核,防止虛假、錯誤的信息進入語言訓練模型,維護良好的網絡生態環境。其次,對于涉及個人信息的提問,應當謹慎回答相關問題,除非符合個人信息處理合法性的法律規定,否則禁止儲存或納入大型語言訓練模型。最后,對于互聯網主動公開的個人信息,應當核實信息的真偽和時效性,強化對個人信息完整性保護,防止出現“有毒的語料”。

    強化輸出內容管理,健全防止個人信息泄露機制。對合成結果進行審核,建立健全對違法、不良信息的識別和阻斷機制。一方面,針對涉及個人信息的生成內容,需要從數據“輸出”端口進行過濾,可以采取“機器+人工”雙重安全審核、配合模塊化識別和動態調整機制,降低機器審核的誤報率。另一方面,為了確保輸出內容的正確性,還需要嚴格規范人工審核外包服務,促進人工審核服務在人員資質、業務流程和審核能力等方面形成統一的行業標準體系,最大可能地減少虛假、錯誤信息內容流出。

    增強鑒別防范能力,防止被山寨人工智能騙取個人信息。在大數據時代,個人信息的重要性日益凸顯,個人信息保護意識也應當隨之提高。目前,ChatGPT還不支持國內用戶使用。在社會公眾急于嘗試新鮮事物心理的背景下,出現了許多自稱能夠為用戶對接ChatGPT或者直接標注為“ChatGPT中文版”“ChatGPT對話”的微信公眾號或小程序賬號,要求用戶使用手機號、驗證碼注冊登錄或獲取完整個人信息,提供服務需要收取費用,有些還公開邀請用戶加入代理推廣刷單。事實上,部分商家是借著ChatGPT的熱度來收取會員費或服務費,卻不提供任何服務。對于非法索取個人信息的行為,人們應當保持必要的警惕,在體驗人工智能“黑科技”的同時不忘守護好自己的“錢袋子”,防止以ChatGPT為名出現新型的電信網絡詐騙活動。

    人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    2月19日,國務院國資委召開“AI賦能 產業煥新”中央企業人工智能專題推進會,提出中央企業要主動擁抱人工智能帶來的深刻變革。央企的優勢在哪里?發展人工智能的著力點又在哪里?我們又該怎么樣緊緊抓住新一輪產業變革的機遇,實現高質量的發展?《新聞1+1》邀請中國科學院科技戰略咨詢研究院研究員周城雄,共同關注:人工智能,中國的競爭力!
    人工智能密碼學”為觀察人工智能與密碼系統的互動、影響提供新視角,也為當下后量子密碼技術探索提供新方案,無疑是一個值得探究的新方向。
    人工智能的2024年
    2024-01-02 14:09:39
    步入2024年,人工智能的未來展現出前所未有的潛力。生成式人工智能時代超越了語言界限,擁抱多模式功能,重新定義了創新格局。由先進AI模型提供支持的AIOps和自主運營正在重塑組織管理IT基礎設施的方式。生成式人工智能與特定行業的人工智能戰略之間的共生關系,意味著一種全面利用人工智能全部潛力的方法。
    人工智能正在改變商業建筑,使其在能源使用方面更加智能。想象一下,當周圍沒有人的時候燈光會變暗,或者空調會根據天氣進行調節——這一切都要歸功于人工智能。其可以省錢,保護環境,并使建筑物更環保。讓我們一起來探索人工智能是如何徹底改變辦公室和商店的能源效率的!
    人工智能(AI)和機器學習(ML)技術的進步獲得了廣泛關注,據尼爾森諾曼集團(Nielsen Norman Group)估計,人工智能工具可能會將員工的生產力提高66%,這使得各地公司都想利用這些工具來提高工作效率。
    人工智能的發展對網絡安全產生的影響
    盡管許多人認為人工智能將導致廣泛的工作崗位流失,但這還遠未確定。事實上,人工智能似乎更有可能繼續為工人提供“超人類水平的生產力”,使日常任務自動化,并為工人騰出時間專注于更復雜的項目。此外,除了一些尋求關注的專家之外,大多數人工智能專家都承認,我們距離通用人工智能還很遙遠。事實上,基于人工智能的模型在人類參與的情況下效果最好,并且將繼續發揮最佳效果。 “人在環人工智能”將繼續存在事實上,
    想象一下:您正在瀏覽社交媒體,看到一段名人做了一些令人發指的事情的視頻。它看起來很真實,但似乎有些不對勁。只有當你閱讀標題時,你才會意識到這是一個使用生成人工智能創建的深度偽造品。從 Deepfake 視頻到 ChatGPT 生成的響應,區分人造內容和人工智能生成的內容變得越來越困難。但隨著對生成式人工智能的日益依賴,出現了一個新的擔憂:個人數據的過度共享。隨著我們對人工智能越來越熟悉,我們可能會
    GPT技術和人工智能的最新進展徹底改變了我們與機器交互的方式,帶來了更加人性化的體驗。 Auto-GPT 是一種在 GPT-3.5 架構上訓練的語言模型,是該技術的一個典型例子。 為了測試 Auto-GPT,要求它設計一個值得 Masterchef 的食譜生成器網站,該網站可以根據用戶的喜好創建新的、獨特的菜肴。它會以不同的方式多次執行相同的提示,直到破解代碼(毫不夸張地說)。因此,它爬
    全球AI產業正進入“強監管”時代,對人工智能安全威脅的監管正在成為各國政府普遍關注的重要議題。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类