<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    ChatGPT生成內容侵權的法律責任及其優化路徑

    VSole2023-03-31 15:47:23

    “3月1日杭州市取消限行”的假新聞使美國OpenAI公司旗下的ChatGPT再度引發社會廣泛關注。作為一種人工智能技術驅動的自然語言處理工具,ChatGPT利用注意力機制提高模型訓練速度,引入基于人類反饋的強化學習機制,可以使之完成文章寫作、聊天、翻譯等任務,自2022年底發布以來,迅速在全世界走紅。

    ChatGPT爆火背后隱藏不少侵權風險。一是對著作權的侵犯。從設計原理看,ChatGPT要實現其預設功能,需要用海量數據對其“喂養”。這些數據來源渠道多元,但并非全部經著作權人許可,且該類型的使用并不屬于《中華人民共和國著作權法》第二十四條規定的“合理使用”情形。二是對個人信息和對商業秘密等的侵犯。OpenAI的使用條款規定,ChatGPT對用戶的輸入內容享有廣泛的使用權。若用戶輸入的內容涉及個人隱私、商業秘密等內容,則存在相關數據被泄露的可能性。此外,ChatGPT還存在其他一系列法律和倫理風險,如人工智能幻覺(指人工智能的“自信反應”,當模型輸出欺騙性數據時,它使用的訓練數據并不能證明輸出的合理性)、算法歧視和“算法黑箱”等,因此,有必要探討ChatGPT生成內容侵權法律責任承擔機制等問題。

    ChatGPT生成內容侵權的法律責任承擔

    從規范層面看,ChatGPT服務的提供者需依法承擔相應侵權責任。2023年1月10日起施行的《互聯網信息服務深度合成管理規定》(以下簡稱《規定》)規定,深度合成技術,是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。該規定對深度合成服務提供者、深度合成服務技術支持者和深度合成服務使用者的義務進行了規范。其中,深度合成服務提供者的義務包括落實信息安全主體責任、依法依約履行管理責任、建立健全辟謠機制等;深度合成服務使用者的義務則指不得利用深度合成服務制作、復制、發布、傳播虛假新聞信息。ChatGPT屬于深度合成服務技術的范疇,若在我國使用,且生成內容涉及侵犯著作權、個人信息等,則ChatGPT服務的提供者需要承擔相應的法律責任。

    從案例層面看,人工智能生成內容的權利主體一旦得到確認,則相應的義務主體亦能得到確認。在司法實踐層面,2019年“北京菲林律師事務所訴北京百度網訊科技有限公司侵害署名權、保護作品完整權、信息網絡傳播權糾紛案”中,法院認為自然人創作完成仍應是著作權法上作品的必要條件,軟件研發者(所有者)和使用者均不應成為分析報告的作者,但應當激勵軟件使用者的使用和傳播行為,將分析報告的相關權益賦予其享有。2020年深圳市南山區人民法院判決的人工智能生成文章作品糾紛案“騰訊訴盈訊科技侵害著作權糾紛案”中,法院認為涉案文章屬于我國著作權法所保護的文字作品,是原告主持創作的法人作品。總體上看,對人工智能生成內容的保護越來越受到實踐層面的關注。從權責利相統一的原則考量,若人工智能生成內容的權利主體能得到確認,則相應的義務主體亦能得到確認。但在實踐層面,關于人工智能生成內容侵權的法律責任認定,相應的案例較為缺乏。

    從使用協議看,用戶可能需要承擔相應侵權責任。從OpenAI公司與用戶協議文本來看,《使用協議》第3條a項規定,在現行法律允許的范圍內,用戶擁有輸入內容的所有權,且在遵守協議前提下,OpenAI公司向用戶轉讓輸出內容的所有權利權益。從雙方職責劃分來看,OpenAI公司遵守法律法規及協議,可在必要的情況下可以使用用戶提供的內容。用戶對內容負責,包括確保不違反任何現行法律或用戶條款。在這一責任分配機制中,OpenAI公司作為服務提供者,利用用戶輸入的內容訓練ChatGPT。若ChatGPT生成內容侵權,則OpenAI公司堅持“技術中立”原則,不承擔法律層面的責任;用戶作為利益的享有者,則需承擔相應責任。

    從現有規范、案例和協議三個方面審視,可以發現ChatGPT生成內容侵權的法律責任承擔,可能面臨不同的結果。規范層面,更傾向于加重ChatGPT服務提供者的責任;用戶協議則大幅減輕ChatGPT服務提供者的責任,將大量的責任轉嫁給用戶;實踐中的一些案例則更多停留在權利主體的認定方面,對法律責任認定問題探索相對不足。

    ChatGPT生成內容侵權的法律責任優化路徑

    從域外實踐看,人工智能侵權糾紛不斷涌現。2022年11月,OpenAI、微軟等被起訴,程序員指控名為GitHub Copilot的AI編程工具抄襲代碼。2023年1月,AI繪畫公司Stability AI Ltd.等被起訴,原告聲稱上述公司下載并使用了數十億張受版權保護的圖像,且未征得版權所有者的同意或對其進行補償。在ChatGPT不斷走紅的背景下,在可預見的時間內,針對ChatGPT生成內容侵權的糾紛會日益增多。ChatGPT生成內容侵權的法律責任,亟待進一步優化。

    明確ChatGPT生成內容侵權的歸責主體。在理論層面,關于人工智能侵權歸責,存在人工智能工具論、人工智能產品論、人工智能動物論、人工智能主體論等不同觀點。在弱人工智能時代,ChatGPT欠缺獨立的意識,生成內容受算法模型、訓練和輸入內容等的影響,故其難以成為侵權行為歸責的主體。在ChatGPT生成內容侵權這一行為中,主要涉及服務提供者以及用戶兩類主體。從侵權行為的發生環節來看,算法模型由OpenAI公司設置,并由OpenAI公司進行打碼訓練,內容則由用戶輸入,三者缺一不可。根據OpenAI公司與用戶的使用協議,OpenAI公司將ChatGPT生成內容的權益和責任轉移給用戶,符合權責利相統一的原則。但基于ChatGPT算法模型的復雜性和“算法黑箱”的存在,普通用戶難以充分理解ChatGPT的運作邏輯,對ChatGPT生成內容缺乏相應的預期。在此背景下,要求用戶對ChatGPT生成內容承擔全部責任,有失公平。因此,在侵權行為發生后,應當根據ChatGPT算法模型、訓練素材和輸入內容在侵權行為中發揮作用的比重,劃定雙方的責任。

    建立人工智能類產品標準作為免責事由。根據我國《產品質量法》第四十一條的規定,因產品存在缺陷造成人身、缺陷產品以外的其他財產損害的,生產者應當承擔賠償責任。但生產者能夠證明有下列情形之一的,不承擔賠償責任:(1)未將產品投入流通的;(2)產品投入流通時,引起損害的缺陷尚不存在的;(3)將產品投入流通時的科學技術水平尚不能發現缺陷的存在的。就ChatGPT而言,OpenAI公司顯然已經認識到了產品存在的缺陷,并在官網發布聲明,聲稱如果權利人認為知識產權被侵權,可以向OpenAI公司發送聲明,OpenAI公司會刪除侵權內容以防止重復侵權的發生。因此,若ChatGPT進入中國,OpenAI公司難以使用《產品質量法》第四十一條的規定作為免責事由。從監管層面看,應當針對人工智能類產品的特殊性,出臺人工智能類產品標準作為服務提供者的免責事由,并在鼓勵科技創新和權利保護之間尋找平衡點。

    建立社會化的風險轉移機制。從域外國家實踐來看,一些國家建立了人工智能賠償責任基金和保險制度,以轉移風險,促進人工智能產業發展。如歐盟對人工智能的強制責任保險作出了不同于傳統保險制度的規定。就OpenAI公司和ChatGPT用戶而言,若擔心ChatGPT生成內容具有侵權的可能性,則可以通過購買相應商業保險,實現風險的社會化轉移。保險制度和基金儲備機制的建立,可以在責任歸屬難以充分界定時,使得權益被侵害者及時獲得相應的賠償,實現社會整體利益的最大化。

    法律人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    與此同時,生成式人工智能被濫用帶來的數據泄露、虛假信息等風險挑戰也紛至沓來,各國陸續推出或完善針對生成式人工智能的監管方案。從這些要求看,《辦法》基本涵蓋了生成式人工智能服務在應用過程中可能暴露出來的安全及倫理問題。三是在模型輸出信息出現違法內容時,要求提供者采取模型優化訓練等措施進行整改,體現了《辦法》與生成式人工智能技術特點及關鍵環節的高度適應。
    第十三屆中國信息安全法律大會
    14日,歐洲議會全體會議表決通過了《人工智能法案》授權草案,該法案進入歐盟立法嚴格監管人工智能技術應用的最終談判階段。今年5月,歐洲議會內部的市場委員會和公民自由委員會通過歐盟委員會于2021年4月提出的《人工智能法案》提案的談判授權草案。歐洲議會聲明,這部提案如正式獲得批準,將成為全世界首部有關人工智能的法規。每個歐盟成員國都將設立一個監督機構。
    從2018年開始,公號君就開始給有關數字貿易協定談判提供技術支撐工作。目前,中國已經建立了關于數據安全和個人信息保護方面的法律框架,對于數據要素治理的宏觀謀劃和對新技術新業務的規制,也在緊鑼密鼓地開展過程之中。于此同時,中國已經申請加入《全面與進步跨太平洋伙伴關系協定》(CPTPP)和《數字經濟伙伴關系協定》(DEPA),這兩部協定都是自由化水平較高的貿易協定,展示了中國尋求更加開放的決心。顯然,
    近日采訪發現,ChatGPT的火爆背后暗藏法律風險隱患。人工智能在給人們的生活增添樂趣、提供便利的同時,其信息真偽、知識產權等法律風險也愈發受到關注。另一方面,不少人盯上了其熱度想“搭便車”牟利,出現了大批“山寨”產品和賬號轉賣行為。
    編者按 2021年,全球范圍內對于人工智能的監管已經開始從理論探討走向實際的立法和執法階段,標志性的事件就是歐盟提出了《歐洲議會和理事會關于制定人工智能統一規則(《人工智能法》)和修正某些歐盟立法的條例》的提案,以及我國國家互聯網信息辦公室發布的《互聯網信息服務算法推薦管理規定》。
    監管挑戰迫在眉睫這樣的警告給各國監管機構帶來壓力,要求它們闡明將人工智能嚴加控制的計劃。歐盟正在加快推動人工智能立法。2021年4月,歐盟委員會提出了《人工智能法案》條例草案。歐盟希望該法案既能推動人工智能的投資和創新,又能促進保障公民基本權利和安全的現行法律得到有效執行和加強。他認為禁令可能損害意大利的商業和創新,并希望解除禁令。
    此前,本公號發表過的關于數據要素治理的相關文章包括: 《非個人數據在歐盟境內自由流動框架條例》全文中文翻譯(DPO沙龍出品) 簡析歐盟《數字市場法》關于數據方面的規定 數據流通障礙初探——以四個場景為例 對“數據共享合法化”的分析與思考系列之一:以《關于歐洲企業間數據共享的研究》為起點 對“數據共享合法化”的分析與思考 系列之二 ——歐盟B2B數據共享的案例研究 對“數據共享合法化”的分析與思考
    隱私計算對于訓練大語言模型、抹平數據飛輪效應意義重大。盡管如此,隱私計算同樣可能帶來決策失誤、權益侵害、隱私泄露等風險。當務之急,是結合我國國情,厘清隱私計算的行業價值及潛在風險,以便有針對性地從技術和法律兩方面補齊風控短板。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类