<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    人工智能的隱私潘多拉魔盒:生成式人工智能過度共享的風險

    IT運維2023-11-15 13:51:24

    想象一下:您正在瀏覽社交媒體,看到一段名人做了一些令人發指的事情的視頻。它看起來很真實,但似乎有些不對勁。只有當你閱讀標題時,你才會意識到這是一個使用生成人工智能創建的深度偽造品。從 Deepfake 視頻到 ChatGPT 生成的響應,區分人造內容和人工智能生成的內容變得越來越困難。

    但隨著對生成式人工智能的日益依賴,出現了一個新的擔憂:個人數據的過度共享。隨著我們對人工智能越來越熟悉,我們可能會在不知不覺中泄露可用于我們從未想過的目的的敏感信息。我們正面臨著打開侵犯隱私的潘多拉魔盒的危險,我們的個人信息被以我們無法想象的方式使用。

    過度共享個人數據的后果可能是可怕的,風險包括數據泄露和創建惡意內容。雖然生成人工智能的潛在好處是無窮無盡的,但我們需要警惕隨之而來的潛在風險。在本文中,我們將深入探討與生成人工智能過度共享個人數據相關的隱私泄露和潛在風險,以及減輕風險和保護您自己和您的數據的方法。

    行走在生成式人工智能的雙刃劍上

    生成式人工智能是一種使用算法通過從數據集中學習來創建新的原創內容的技術。 AI算法可以生成與原始數據相似但不相同的新內容。這就像廚師學習菜肴的食譜和配料,然后利用他們的創造力做出新的變化。

    但能力越大,責任越大,生成式人工智能也不例外。該技術需要大量數據才能有效工作,這可能會導致隱私問題。您輸入算法的數據越多,它生成的內容就越準確和個性化。然而,這也意味著個人數據正在被使用,這可能會引起人們的擔憂。

    生成人工智能的主要隱私問題之一是過度共享個人和機密信息的風險。當個人或公司將大量個人數據輸入算法時,就會發生這種情況,其中可能包括醫療記錄、財務信息和個人聯系人等敏感信息。如果這些數據落入壞人之手,可能會被用于惡意目的,例如身份盜竊、網絡攻擊和社會工程詐騙。 

    例如,生成式人工智能模型可以根據電子郵件地址、姓名和社交媒體資料等個人數據進行訓練,以創建高度可信的網絡釣魚電子郵件。然后,這些電子郵件可能會被用來誘騙人們提供密碼或信用卡詳細信息等敏感信息。自聊天機器人技術問世以來,惡意軟件詐騙的數量明顯增加,該技術在應用程序中的快速采用引發了人們對數據收集、隱私以及剽竊和 錯誤信息盛行的擔憂。

    其他人也注意到了著名的生成式人工智能應用程序 ChatGPT 的問題,它的推廣也如此迅速和有力。技術和人工智能領域的領導者也對此發出了警報。 2021 年,斯坦福大學和華盛頓大學的研究人員證明,可以使用ChatGPT 的另一種變體GPT-3從文本中提取姓名、電話號碼和電子郵件地址等個人信息。 研究表明,新型 AI 密碼破解程序可以在不到一天的時間內破譯 71% 的常用密碼。

    探索保密方式

    生成式人工智能可以帶來很多好處,但我們不能對訓練數據中個人信息泄露的可能性視而不見,從而使其難以保護。關系數據庫可以限制對包含個人信息的特定表的訪問,但人工智能可以通過數十種不同的方式進行查詢。攻擊者將很快學會如何提出正確的問題來獲取敏感數據。教會人工智能保護私人數據是我們尚不了解的事情。

    為了保護您自己和您的數據免受生成人工智能的侵害,了解您正在共享哪些數據并使用強大而獨特的密碼來保護您的數據非常重要。限制對設備的訪問、保持軟件最新,并使用 VPN 和瀏覽器擴展等隱私保護工具來保護數據。此外(也是重要的),請仔細閱讀隱私政策,了解正在收集哪些數據、如何使用這些數據以及與誰共享數據。

    世界各地的監管機構越來越多地采取措施保護用戶數據免受生成人工智能的影響。自 2016 年以來,全球立法程序中提及人工智能的次數增加了 6.5 倍,從 2016 年的 1 次增加到 2022 年的 37 次。以下是他們發起的一些步驟:

    數據保護法:各國政府正在制定或加強數據保護法,以確保公司對其從用戶收集的數據負責。

    算法責任:監管機構也在推動加強算法問責制,這意味著控股公司對其使用的算法負責,并確保它們透明和公平。

    隱私設計:監管機構采取的另一種方法是鼓勵公司采用“隱私設計”方法,這意味著從一開始就在設計產品和服務時考慮到隱私。

    人工智能道德準則:包括歐盟在內的許多組織都制定了人工智能道德準則,以幫助企業應對圍繞人工智能的復雜道德問題,并確保以道德和負責任的方式開發和使用人工智能。

    監管機構:各國政府還在建立專門負責監督人工智能的監管機構,例如歐盟委員會的人工智能高級別專家組,該小組就人工智能相關的政策和監管問題提供意見和建議。

     

    總體而言,這些措施的目的是確保使用生成人工智能的公司對其收集和使用的數據負責,并保護用戶的隱私權。急于整合這項技術可能會導致數據泄露、不準確和濫用,這表明需要謹慎和負責任的管理。

    生命未來研究所發布了一封公開信,要求人工智能實驗室和企業在 ChatGPT-4 之后停止開發 OpenAI 系統。包括蘋果公司聯合創始人史蒂夫·沃茲尼亞克和 OpenAI 聯合創始人埃隆·馬斯克在內的知名人士一致認為,應該停止進展,以確保人們能夠從現有系統中受益并享受現有系統的樂趣。

    在本文即將結束時,一個緊迫的問題讓我一直困擾著——當我們人類變得如此依賴生成式人工智能,以至于我們無法再為訓練模型生產新材料時,會發生什么?

    人工智能潘多拉魔盒
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    想象一下:您正在瀏覽社交媒體,看到一段名人做了一些令人發指的事情的視頻。它看起來很真實,但似乎有些不對勁。只有當你閱讀標題時,你才會意識到這是一個使用生成人工智能創建的深度偽造品。從 Deepfake 視頻到 ChatGPT 生成的響應,區分人造內容和人工智能生成的內容變得越來越困難。但隨著對生成式人工智能的日益依賴,出現了一個新的擔憂:個人數據的過度共享。隨著我們對人工智能越來越熟悉,我們可能會
    自2022年11月推出以來,人工智能聊天機器人ChatGPT已經因其驚人的表現而引起了不小的轟動。由于缺乏安全措施,威脅行為者很容易使用ChatGPT機制,例如,母語并非英語的惡意行為者可以用近乎完美的語法在幾秒鐘內創建一個逼真的、誘人的消息。公司可能沒有采取足夠的安全措施,阻礙了建立有效安全程序的進展。
    多家企業安全團隊的CISO表示,他們已經觀察到深度偽造被用于網絡釣魚嘗試或入侵Slack和Microsoft Teams等企業電子郵件和通信平臺。網絡犯罪分子正在利用勞動力分布式轉移的歷史性機會,通過模仿與老板相同的說話節奏的適時語音郵件或Slack消息來操縱員工。這應該是對所有CISO和安全專業人員的警告。
    黎海波黨的二十大報告對推進國家安全體系和能力現代化作出了戰略部署,這是黨的全國代表大會報告中首次設專章論述國家安全問題。這一規定以培育踐行社會主義核心價值觀和建設良好的網絡生態為根本目標,以網絡信息內容為主要治理對象,進一步推動了網絡綜合治理體系的完善和健全。建立完善的網絡意識形態安全治理防控體系,至少要包含網絡技術體系、網絡意識形態監測預警體系和網絡意識形態應急處置體系。
    從2018年開始,公號君就開始給有關數字貿易協定談判提供技術支撐工作。目前,中國已經建立了關于數據安全和個人信息保護方面的法律框架,對于數據要素治理的宏觀謀劃和對新技術新業務的規制,也在緊鑼密鼓地開展過程之中。于此同時,中國已經申請加入《全面與進步跨太平洋伙伴關系協定》(CPTPP)和《數字經濟伙伴關系協定》(DEPA),這兩部協定都是自由化水平較高的貿易協定,展示了中國尋求更加開放的決心。顯然,
    美國時間4月21日,美國率領一眾經濟體宣布建立“全球跨境隱私規則”體系——Global Cross-Border Privacy Rules System。本質上是將APEC框架下的CBPRs體系轉變成一個全球所有國家或經濟體都可以加入的體系。公號君翻譯美國商務部網站發布的宣言,供大家參考。
    一直關注數據安全,公號君決定新開一個系列的研究筆記,關注數據要素治理。此前,本公號發表過的關于數據要素治理的相關文章包括: 《非個人數據在歐盟境內自由流動框架條例》全文中文翻譯(DPO沙龍出品) 簡析歐盟《數字市場法》關于數據方面的規定 數據流通障礙初探——以四個場景為例 對“數據共享合法化”的分析與思考系列之一:以《關于歐洲企業間數據共享的研究》為起點 對“數據共享合法化”的分析與思考 系列之
    一直關注數據安全,公號君決定新開一個系列的研究筆記,關注數據要素治理。此前,本公號發表過的關于數據要素治理的相關文章包括: 《非個人數據在歐盟境內自由流動框架條例》全文中文翻譯(DPO沙龍出品) 簡析歐盟《數字市場法》關于數據方面的規定 數據流通障礙初探——以四個場景為例 對“數據共享合法化”的分析與思考系列之一:以《關于歐洲企業間數據共享的研究》為起點 對“數據共享合法化”的分析與思考 系列之
    11月14日,國家互聯網信息辦公室公布《網絡數據安全管理條例(征求意見稿)》(以下簡稱“數安條例”)【全文見:國家互聯網信息辦公室關于《網絡數據安全管理條例(征求意見稿)》公開征求意見的通知】。鑒于該條例的重要性,公號君新開這個系列,記錄一些想法和建議。
    自OpenAI于11月底推出ChatGPT以來,各方專家密切關注人工智能內容創作將產生的影響,尤其是在網絡安全領域。事實上,已經有許多安全研究人員擔心生成式人工智能技術會使網絡犯罪大眾化。盡管如此,Psencik指出ChatGPT確實有內置的“護欄”,旨在防止被用于犯罪活動
    IT運維
    全棧IT運維管理軟件,發現運維更多可能
      亚洲 欧美 自拍 唯美 另类