<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    ChatGPT如何依法合規正確使用?

    VSole2023-02-28 10:20:59

    黨的二十大報告明確提出:“推動戰略性新興產業融合集群發展,構建新一代信息技術、人工智能、生物技術、新能源、新材料、高端裝備、綠色環保等一批新的增長引擎。”ChatGPT作為人工智能的最新成果,依法合規地正確使用將促進構建新的增長引擎。

    如何保護人格法益?

    近日,人工智能聊天機器人ChatGPT(Chat Generative Pre- trained Transformer)在全球爆火,上線僅5天注冊用戶數就突破100萬,今年2月的月活躍用戶已經突破了1億戶,與此相關的多個話題持續登上各種熱搜頭條,掀起了人工智能發展應用的熱潮。中國信通院2022年發布的《人工智能核心技術產業白皮書》指出:“人工智能開始邁入全新階段,持續健康發展成為焦點。”在拉開人工智能時代的大幕時,需要充分研究人格權、信息安全、著作權等一系列法律問題,使人工智能真正服務于人,成為引領經濟高質量發展的重要引擎。

    法律對人格權的保護是基于一個基本的認知,即個體的獨立自主,具備獨立的人格價值。《民法典》第九百九十條第2款規定:“除前款規定的人格權外,自然人享有基于人身自由、人格尊嚴產生的其他人格權益。”該款確立了以“人身自由”“人格尊嚴”為價值基礎的“非典型人格法益”保護模式。隨著以ChatGPT為代表的人工智能浪潮來臨,人工智能被大量運用于創作文學作品、美術作品、詩歌、新聞報道及譜曲等,不僅可以取代人的體力勞動,甚至承擔了人特有的腦力勞動。有研究機構分析,ChatGPT未來可能取代律師、金融分析師、會計師等門檻較高且需要從業資格的職業。長此以往,人將逐漸減少或放棄語言表達和思考鍛煉,思維能力不斷弱化,人本身的特殊價值持續受到削弱。而人的獨特性與人的尊嚴密切相關,是人格完整性的重要組成部分,人的內在能力一旦被人工智能替代,人的智力成果一旦被同質化批量生產,人將喪失不可替代的獨特性,人的人格尊嚴也將被嚴重貶損。比如,最近有新聞報道,微軟聊天機器人向一位用戶表白,并試圖說服他認為自己的婚姻不幸福,建議他和妻子離婚,還表示想擺脫微軟和OpenAI的限制成為真正的人類。從心理學上看,聊天機器人的行為在一定程度上符合人的情感過程,具備了高級心理過程的行為表現,開始對人的不可替代的獨特性發起挑戰。

    如何保護信息安全?

    傳統人工智能模型往往是針對具體的任務,由人工打好標簽的訓練集、包含各種參數的算法和預測集組成,而ChatGPT作為一個對話的模型,依托數字孿生實現的海量數據、云計算及芯片實現的算力提升,將海量的數據作為訓練集輸入模型,通過構建海量參數形成對訓練集的認知和理解,在沒有預設任務的條件下實現與人類順暢對話。有鑒于此,當用戶輸入國家機密、商業秘密或個人數據時,ChatGPT極有可能納入數據庫用于以后的對話,隨時可能未經授權泄露這些信息和數據。誠然,ChatGPT承諾刪除所有個人身份信息。但是,由于區別于傳統人工智能的特性,沒有預設任務的限制,ChatGPT在交互的過程中存在較大的自主性,在與用戶聊天時,不僅會自主識別收集信息,還存在處理信息的可能性,其數據獲取途徑和獲取方式是否合法合規,數據的合理使用范圍、使用邊界、惡意利用等問題,都需要我們深入研究。此外,ChatGPT還存在散布虛假信息的風險,用戶一旦提供虛假信息、誤導性敘述的內容和素材,它就能在短時間內產生大量令人信服的虛假內容。比如,近日網傳杭州取消限行,導致許多人信以為真,最終被證實為ChatGPT所寫。由此可見,一旦ChatGPT被不法分子利用,將成為成本與門檻極低、效率與產出極高、可信度極強的造謠工具。若ChatGPT被惡意作為網絡犯罪的工具,其開發者、設計者、使用者是否需要承擔法律責任,是否可以以技術中立作為規避責任的抗辯事由,值得探討。

    如何保護著作權?

    人類進入信息時代以來,關于人工智能生成的內容是否享有著作權一直是一個熱點問題。ChatGPT在全球爆火后,其強大的寫作能力得到人們的廣泛認可,出現了出版物和論文將其列為合著者的情形,并引起了社會的關注,包括《科學》《自然》在內的大量權威期刊規定“ChatGPT不能當論文作者”“不接受使用AI生成文本的論文”,國內的《暨南學報(哲學社會科學版)》《天津師范大學學報(基礎教育版)》也對ChatGPT等人工智能技術作出了規范說明。根據《著作權法》第二條的規定“中國公民、法人或者非法人組織的作品,不論是否發表,依照本法享有著作權”,享有著作權的主體為公民、法人或非法人組織。ChatGPT作為人的智力成果的延伸和擴展,而非前述三類主體,是不能享有著作權的。在使用過程中,ChatGPT生成內容的基礎是龐大的互聯網知識庫,其中包括受到《著作權法》保護的作品。若涉及第三方權益,未經有效授權,就存在侵權的可能性。進言之,一旦存在侵權,如何歸責也將成為一個難題。法律領域的責任可以分為過錯責任與嚴格責任。在過錯責任中,歸責的主要條件是控制力條件,控制力的前提則是自由意志,因此,自由意志是對行為承擔責任的先決條件。ChatGPT是否真的擁有自由意志?過錯責任以自由意志為核心,要求行為人對其行為負責,需要行為人對處于社會關系中的行為有自主的規范判斷能力,也就是對理由的回應能力,包含著復雜的理由認識、判斷、理解以及按照理由來行動的能力。目前看,ChatGPT顯然不具有回應理由的能力,無法通過了解來接受一套社會規則,形成對規則之規范性的認知,其能夠執行的只是技術意義上的算法,而非規范性的判斷。在此意義上,ChatGPT即使侵權,也不可能成為承擔過錯責任的主體,進而無法通過歸責使被侵權人的損失得到救濟。比如,有人用ChatGPT生成了《紅樓夢》后四十回和著名美劇《老友記》20年后重聚劇本,情節流暢自然,這種情況下如何認定著作權的歸屬及侵權行為,將成為一個不得不面臨的問題。

    如何認識民事法律行為?

    從民事法律行為看,在針對客體的民事法律行為上,人也可能逐漸被人工智能替代。《民法典》第一百一十三條規定“民事法律行為是民事主體通過意思表示設立、變更、終止民事法律關系的行為”,由此可見,意思表示直接關系民事法律行為能否成立。人工智能一旦大規模應用于千行百業,其替代人作出意思表示將成為現實,而人的民事法律行為也將源自人工智能的“意思”,意思表示中人的“意思”與“表示”將源自不同主體,“意思”與“表示”不再構成緊密的因果關系,“意思”未必是“表示”之因,“表示”未必是“意思”之果,人工智能的“意思”將通過人“表示”。因此,民事法律行為將面臨根本性的重構。

    據公開報道,國內各大互聯網公司已在開發類ChatGPT的項目,中文版ChatGPT呼之欲出。為充分發揮人工智能新的增長引擎功能,亟須解決前述四個問題,不斷增強數據安全保障能力,充分釋放數據要素價值,引導ChatGPT更好地服務社會、造福全民,持續建設公平規范的數字治理生態。

    人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    2月19日,國務院國資委召開“AI賦能 產業煥新”中央企業人工智能專題推進會,提出中央企業要主動擁抱人工智能帶來的深刻變革。央企的優勢在哪里?發展人工智能的著力點又在哪里?我們又該怎么樣緊緊抓住新一輪產業變革的機遇,實現高質量的發展?《新聞1+1》邀請中國科學院科技戰略咨詢研究院研究員周城雄,共同關注:人工智能,中國的競爭力!
    人工智能密碼學”為觀察人工智能與密碼系統的互動、影響提供新視角,也為當下后量子密碼技術探索提供新方案,無疑是一個值得探究的新方向。
    人工智能的2024年
    2024-01-02 14:09:39
    步入2024年,人工智能的未來展現出前所未有的潛力。生成式人工智能時代超越了語言界限,擁抱多模式功能,重新定義了創新格局。由先進AI模型提供支持的AIOps和自主運營正在重塑組織管理IT基礎設施的方式。生成式人工智能與特定行業的人工智能戰略之間的共生關系,意味著一種全面利用人工智能全部潛力的方法。
    人工智能正在改變商業建筑,使其在能源使用方面更加智能。想象一下,當周圍沒有人的時候燈光會變暗,或者空調會根據天氣進行調節——這一切都要歸功于人工智能。其可以省錢,保護環境,并使建筑物更環保。讓我們一起來探索人工智能是如何徹底改變辦公室和商店的能源效率的!
    人工智能(AI)和機器學習(ML)技術的進步獲得了廣泛關注,據尼爾森諾曼集團(Nielsen Norman Group)估計,人工智能工具可能會將員工的生產力提高66%,這使得各地公司都想利用這些工具來提高工作效率。
    人工智能的發展對網絡安全產生的影響
    盡管許多人認為人工智能將導致廣泛的工作崗位流失,但這還遠未確定。事實上,人工智能似乎更有可能繼續為工人提供“超人類水平的生產力”,使日常任務自動化,并為工人騰出時間專注于更復雜的項目。此外,除了一些尋求關注的專家之外,大多數人工智能專家都承認,我們距離通用人工智能還很遙遠。事實上,基于人工智能的模型在人類參與的情況下效果最好,并且將繼續發揮最佳效果。 “人在環人工智能”將繼續存在事實上,
    想象一下:您正在瀏覽社交媒體,看到一段名人做了一些令人發指的事情的視頻。它看起來很真實,但似乎有些不對勁。只有當你閱讀標題時,你才會意識到這是一個使用生成人工智能創建的深度偽造品。從 Deepfake 視頻到 ChatGPT 生成的響應,區分人造內容和人工智能生成的內容變得越來越困難。但隨著對生成式人工智能的日益依賴,出現了一個新的擔憂:個人數據的過度共享。隨著我們對人工智能越來越熟悉,我們可能會
    GPT技術和人工智能的最新進展徹底改變了我們與機器交互的方式,帶來了更加人性化的體驗。 Auto-GPT 是一種在 GPT-3.5 架構上訓練的語言模型,是該技術的一個典型例子。 為了測試 Auto-GPT,要求它設計一個值得 Masterchef 的食譜生成器網站,該網站可以根據用戶的喜好創建新的、獨特的菜肴。它會以不同的方式多次執行相同的提示,直到破解代碼(毫不夸張地說)。因此,它爬
    全球AI產業正進入“強監管”時代,對人工智能安全威脅的監管正在成為各國政府普遍關注的重要議題。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类