<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    ChatGPT引發互聯網治理新變局

    VSole2023-03-07 10:06:21

    ChatGPT是結合了人類反饋強化學習與大數據預訓練語言模型的自然語言處理工具。ChatGPT的問世,引發了國內外的廣泛關注,同時也正在人工智能領域引發新一輪的科技競賽。

    實現交互模式上的革新

    作為預訓練語言模型、大模型“出圈”的代表,ChatGPT實現了自然語言處理領域的新突破,成功結合算法、算力和數據,將大規模的預訓練與人工反饋相結合,實現了與用戶的多輪對話、理解上下文、根據用戶特征不斷適應新的需求等多種先進特征,也使得ChatGPT能夠更好地理解對話語境,輸出文本也更符合語言邏輯與人類習慣、習俗。

    與以往的預訓練語言模型相比,ChatGPT使用了45TB的文本數據,可以更好地捕捉人類語言的復雜性;使用了算力等同于數萬張高性能GPU的計算資源,以獲得更好的訓練效果;使用了更通用的預訓練方式,使其對不同場景不同任務具有更高的適應性;可以在不斷接觸新語料的過程中持續提高自己的性能,具有更強的自我學習能力。與傳統搜索引擎僅能通過用戶輸入的關鍵詞輸出搜索結果相比,結合了人工智能的搜索引擎將通過以ChatGPT與用戶對話為主、傳統引擎提供資料來源與驗證準確性為輔的方式,實現搜索引擎交互模式上的革新,這也將極大地提高交互模式下的用戶搜索體驗。

    ChatGPT的發布在互聯網行業掀起了巨大熱潮,國內外眾多科技公司均看好ChatGPT及其競品有望成為AI“殺手級”應用,并有可能顛覆互聯網業務現有格局。在傳媒領域,ChatGPT可以幫助新聞媒體工作者智能生成報道,將部分勞動性的采編工作自動化,更快、更準、更智能地生成內容,提升新聞的時效性;在影視領域,可以根據大眾喜好為劇本創作提供新思路,以激發創作者的靈感并提高內容創作效率;在電商領域,可以打造虛擬主播、虛擬客服等提高客戶的服務體驗,減少訂單退換貨率,擴大品牌知名度;此外,在教育、金融、醫療等各領域ChatGPT均有望發揮積極作用,促進行業發展。ChatGPT的應用,不僅能提高各行業生產效率與生產質量,也將有可能替代文秘、會議記錄等人類勞動力。

    互聯網治理面臨復雜化趨勢

    在ChatGPT被熱炒的氛圍中,我們應當理性地看到,作為一種新型互聯網服務的ChatGPT仍存在技術上的局限性。ChatGPT不具備實時查證的功能,其回答完全來自預先設置的數據庫。ChatGPT缺少行業數據的訓練,對于專業領域如法律、醫療行業的回答無法保證準確率。ChatGPT所提供的答案并不可靠,其并不擅長數學邏輯,也沒有能力分辨一些信息的真假。這種技術上的局限性可能導致互聯網治理的局面變得日益復雜。

    同時,ChatGPT帶來的倫理及監管問題也令人憂慮。如何對類似于ChatGPT的AI服務進行合理監管,成為監管者需要面對的新課題。

    第一,最直接的風險是數據泄露問題。ChatGPT本質上是以海量數據為基礎進行訓練的大模型,這意味著其數據越多、時效性越強,它的功能就越好,能給予用戶更優質的交互體驗。但用于ChatGPT或其他類似應用的訓練數據,有可能會涉及商業機密、國家機密及個人隱私信息。那么,獲取相關敏感信息的途徑是否合法合規?如果造成敏感信息泄露,所造成的影響及后果該由誰來承擔?目前,美國的一些公司為防止數據泄露的情況出現,已經要求公司職員在使用ChatGPT過程中嚴禁泄露商業機密,并正在著手制定相關的措施和規范。

    第二,ChatGPT帶來的學術倫理問題引起教育界及學術界的擔憂。自ChatGPT發布以來,越來越多的學生利用ChatGPT完成學業和功課,甚至將其用于作弊。教育工作者擔心類似ChatGPT的互聯網服務將導致學術不端行為的泛濫,使得培養學生的批判思維及創新能力變得愈發困難,且無法正確有效評估學生的能力和知識水平,進而影響到構建公平的學術氛圍和學術環境。

    第三,ChatGPT及類似的業務可能會輸出危及社會公共安全的有害信息。在誘導式提問下,ChatGPT類的應用可能為違法甚至犯罪活動提供便利。這可能使違法犯罪的門檻大大降低。監管者需要對這類有害信息及其可能造成的嚴重危害給予足夠的重視。

    第四,ChatGPT及類似的業務可能帶來意識形態問題。ChatGPT的輸出由其模型所決定,而模型又來自算法選擇以及用于模型訓練的龐大數據庫,這也就使得模型開發者能夠相對容易地將自己所偏好的價值觀植入訓練數據,或通過算法選擇呈現某種價值觀。假若模型開發者的價值觀存在著歷史曲解、文化偏見以及種族歧視,那么這種曲解、偏見與歧視將會隨著模型與用戶的交互對用戶產生潛移默化的影響,甚至是誤導。因此,在當今國際國內各種思潮交織碰撞、東西方意識形態博弈的背景下,ChatGPT這類互聯網服務可能會受到國家行為體以及非國家行為體的操控,成為意識形態傳播的工具。

    ChatGPT作為由海量數據訓練得到的人工智能模型,代表著AI技術取得的突破和AI行業的最新成果,其強大的產業應用能力、廣泛的場景適用性勢必極大提升人類社會各行業、各場景的內容生產效率。與此同時,ChatGPT及與其類似的互聯網服務所帶來的相關倫理及監管問題使得互聯網治理面臨新的挑戰,需要政府、產業界、學界以及每個互聯網用戶認真審視和應對。

    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    ChatGPT是結合了人類反饋強化學習與大數據預訓練語言模型的自然語言處理工具。ChatGPT的問世,引發了國內外的廣泛關注,同時也正在人工智能領域引發新一輪的科技競賽。
    美國 OpenAI 公司 2022 年發布的生成式人工智能(AIGC)產品 ChatGPT,憑借擁有高質量文本內容的輸出能力,能夠精確、高效地完成分析、翻譯、撰寫代碼等工作,引發了廣泛關注。
    針對這些問題,有專家學者提出應對ChatGPT“制定專門立法”“制定配套措施”。ChatGPT及其類似產品本身不具有社會危害性,關鍵在于以不當方式使用可能導致一定的損害結果。針對ChatGPT可能引發的網絡釣魚郵件等網絡詐騙風險,應當明確作為“危險制造者”的研發機構、網絡平臺經營者在此類產品投入市場之前進行安全風險評估,確保風險可控。
    針對這些問題,有專家學者提出應對ChatGPT“制定專門立法”“制定配套措施”。ChatGPT及其類似產品本身不具有社會危害性,關鍵在于以不當方式使用可能導致一定的損害結果。針對ChatGPT可能引發的網絡釣魚郵件等網絡詐騙風險,應當明確作為“危險制造者”的研發機構、網絡平臺經營者在此類產品投入市場之前進行安全風險評估,確保風險可控。
    最近多家公司和機構開始對ChatGPT的使用施加限制。以ChatGPT為代表的人工智能技術在給人類帶來便利的同時也引發了諸多擔憂。任何一項技術的誕生往往伴隨著弊端與風險。面對人工智能帶來的挑戰,相應的安全技術和監管制度應該跟上。
    《辦法》積極回應生成式人工智能帶來的社會問題,明確提供和使用生成式人工智能服務的法律底線。三是尊重知識產權和他人合法權益。在訓練數據處理環節,提供者應當使用具有合法來源的數據和基礎模型,并采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。
    美國時間3月25日,OpenAI官方發布了3月20日ChatGPT臨時中斷服務的調查報告,并表示有1.2%的ChatGPT Plus的用戶數據可能被泄露。
    Sora的問世立刻引發了“百家爭鳴”,有人欣喜不已,有人抱以擔憂;有人更關注其不足之處,也有人面向“如何迎頭趕上”的問題進行了深入思考……無論如何,Sora為虛擬和現實世界建立起的鏈接,已經讓“未來世界到底是怎樣”的問題充滿了更大的可能性。
    近期,隨著智能聊天機器人ChatGPT火爆全球,多家巨頭也宣布入局,譬如百度2月7日宣布其類ChatGPT的項目“文心一言”,三月份完成內測,面向公眾開放,引發網友熱議。一些公眾號、小程序還會聲稱自己將ChatGPT的服務通過技術手段“轉接”至國內,以方便用戶使用并收取費用。此前,在致電上海熵云網絡科技有限公司工作人員后,對方稱,通過其平臺發出的所有對話回復都是通過直連OpenAI公司接口所獲得的。
    與此同時,生成式人工智能被濫用帶來的數據泄露、虛假信息等風險挑戰也紛至沓來,各國陸續推出或完善針對生成式人工智能的監管方案。從這些要求看,《辦法》基本涵蓋了生成式人工智能服務在應用過程中可能暴露出來的安全及倫理問題。三是在模型輸出信息出現違法內容時,要求提供者采取模型優化訓練等措施進行整改,體現了《辦法》與生成式人工智能技術特點及關鍵環節的高度適應。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类