ChatGPT是由美國公司OpenAI基于一種GPT—3.5架構開發的大型語言模型,能夠生成各種不同的文本類型,可以針對對話場景進行特別優化,根據上下文自動生成跟人類一樣的對話文本。

OpenAI在公司官網對ChatGPT產生方法進行介紹時說,該模型是使用人類反饋強化學習訓練而來,方法與InstructGPT(OpenAI開發的一種“指令生成預訓練”語言模型)一致,但在數據收集設置上略有不同。我們通過監督微調的方法訓練出一個初始模型:人類人工智能訓練師分別扮演用戶與AI助手的角色。我們允許AI訓練師為模型編寫建議,幫助他們撰寫回復;我們把新的對話數據集與InstructGPT數據集混合,并轉化為對話格式。為了創建強化學習的獎勵模型進行收集對比數據,包括兩個或多個按質量排序的模型反應。同時,為了更好收集此類數據,使用AI訓練師與聊天機器人的對話,隨機選擇一個模型編寫信息,抽樣幾個替代信息,并讓AI訓練師對它們進行排序。繼而,我們利用這些獎勵模型,通過策略優化方式進行微調。

由此可知,ChatGPT工作的原理及技術架構包括四方面內容:第一,生成基于GPT的模型(AI在海量數據下學習基于前后文生成后續文本能力),由于GPT模型會產生多個不同的輸出結果,例如:告訴GPT“世界上最大的平原是____”,可以給出“綠色的”“是無邊無盡的”“亞馬孫平原”等多個合理答案。第二,引導方向,并監督微調初始模型,通過前述問題,不難看出“亞馬孫平原”是最符合人類期望的答案,因此,開發者通過人工給出一些問題答案,進而訓練AI學習,從而形成一個初始的ChatGPT模型。第三,提升能力的獎勵模型。在兩步基礎上,如何提升初始模型處理能力?研究人員會讓GPT對特定問題給出多個答案,由人類進行好壞排序,基于比較數據生成符合人類標準的模型。第四,AI指導AI,強化學習,由于以上三步形成較為成熟AI,因此使用AI指導AI進行強化學習,不斷訓練迭代,形成完整ChatGPT模型。

ChatGPT具有廣泛的知識儲備和強大的語言理解能力,讓翻譯、生成文案、分析文本等工作變得簡單,極大提升了工作效率。它還具有較強的自我學習及推理能力,也讓應用場景變得多樣,不僅能夠從事文字工作,還能夠從事AI建模、語音交流、圖像生成等復雜工作。但它也存在一定的缺陷及限制,比如邏輯不透明,ChatGPT訓練數據來自人類歷史數據,可能充滿了各式各樣的偏見;回復滯后性及有限性,ChatGPT根據預設數據集進行數據分析及整合,它的數據來源具有滯后性及有限性,這使得本身很難獲取最新數據信息。

ChatGPT應用可能產生的安全風險

數據安全風險。ChatGPT是以對話方式進行交互,使用機器學習技術根據接收到的“輸入內容”生成“類似人類的文本”。它的技術優勢主要來源于先進的算法及海量的數據,但這也引起了人們關于數據安全方面的擔憂。我國數據安全法明確規定,維護數據安全,應當堅持總體國家安全觀,建立健全數據安全治理體系,提高數據安全保障能力。ChatGPT是通過GPT模型進行不斷的監督微調及強化學習進行數據分析,它本身的算法技術及預設數據集均來自域外,主要以西方價值觀為導向,可能存在著意識形態偏差。ChatGPT還可以進行深度的自主學習,也無法排除存在對國家相關信息數據深度分析及發掘的可能。因此,ChatGPT技術的應用可能會給國家數據安全帶來潛在風險,從而影響國家數據權益保護。此外,ChatGPT通過連接大量的語料庫來訓練模型,其中數據不僅來源于預設的數據集,還包括用戶輸入的相關數據信息。用戶一旦使用ChatGPT輸入相關數據,它會成為機器智能學習的一部分,從而對用戶的個人信息、秘密信息、商業秘密和其他秘密情報形成安全風險。

網絡安全風險。一是基于虛假信息產生的網絡安全風險。一方面,ChatGPT依賴海量數據信息進行深度學習,數據主要來源于現有互聯網公開文本數據。這些數據有真實準確來源的信息,也有虛假信息。ChatGPT在監督微調、獎勵模式、強化學習過程中若以虛假信息作為處理分析對象,進而生成文本也會存在虛假信息。另一方面,ChatGPT具有強大的自主性特質,即便處理數據均來自真實、準確信息,亦不能排除基于ChatGPT通過算法進行數據整合生成虛假信息的可能。二是基于網絡攻擊產生的網絡安全風險。ChatGPT的出現,意味著“強人工智能時代”的來臨,但與之相關的網絡安全問題也越來越受到關注。首先,從生成內容角度看,ChatGPT為網絡犯罪分子提供更便捷的網絡攻擊武器,比如利用ChatGPT的編寫功能,非常快速生成釣魚電子郵件,騙取他人信息。其次,ChatGPT降低了惡意軟件的開發門檻。借助ChatGPT,黑客甚至不需要編碼就可以生成一個惡意軟件,這極大地降低了黑客的技術能力門檻,從一定程度上加速惡意軟件的開發,提高漏洞利用的可能性和速度。最后,ChatGPT提高了網絡防御難度。借助ChatGPT,黑客能夠開發出安全人員極難識別的惡意軟件,提高網絡攻擊的有效性。

知識產權侵權風險。使用ChatGPT也面臨著較為嚴重的版權風險。從ChatGPT生成框架來看,ChatGPT運用大量不同的數據集訓練形成大型語言模型,它的數據集可能來自受著作權保護的材料,若沒有經過授權,則可能存在侵犯他人作品復制權的問題。

從ChatGPT生成內容來看,ChatGPT具有強大的語言重組和整理能力,當用戶輸入特定命令時,若ChatGPT生成的內容主旨與他人在先作品獨創性表達存在部分或完全一致時,基于ChatGPT通過計算機傳播,且用戶可以在自己選定時間及地點獲取內容,符合信息網絡傳播權構成要件,因此存在作品信息網絡傳播權侵權風險。此外,ChatGPT作為典型的語言模型,它的模型訓練需要海量的文本數據集,若開發公司為訓練ChatGPT引入特定作者的作品進行訓練,在未經相關著作權人許可情況下,當用戶輸入特定命令時,ChatGPT生成的內容若具有一定獨創性,且存在與在先作品的相似表達,即便其可能會構成演繹作品,但其生成內容也為侵權作品;若開發公司訓練ChatGPT時,從未引入特定作者的作品,只是由于用戶的特定問題使算法“預測”生成內容時剛好與在先作品相同,則不構成侵權。因此,如何規制ChatGPT帶來的侵權風險,需要持續性的關注和思考。

ChatGPT等生成式人工智能的監管路徑

隨著人工智能的快速發展,以ChatGPT為代表的新技術將廣泛應用于人們未來的生產生活。但ChatGPT等生成式人工智能也是一把“雙刃劍”。一方面,它高度的智能性為生產生活帶來了極大便利,提高了社會生產力,給社會各領域活動帶來了顛覆性變革。另一方面,它的快速發展沖擊現有規則,存在較多潛在風險。

鑒于目前ChatGPT技術應用尚未完全成熟,可能存在較大的數據安全風險,世界各國采用了不同的監管規范思路。以對數據與隱私保護較為嚴苛的歐盟為代表,對ChatGPT持續嚴監管。比如,意大利已于當地時間3月31日發布ChatGPT禁令,宣布將暫時封鎖意大利境內訪問ChatGPT的途徑,并審查OpenAI在最近一次網絡安全事件中收集的個人信息等問題。同時,歐盟計劃出臺全面人工智能法規《人工智能法案》,對ChatGPT等生成式AI設置專門監管部門。以引領科技創新為目標的美國對ChatGPT持寬松監管態勢。5月4日,美國拜登政府宣布對“值得信賴的”人工智能增加投資,強調加強對ChatGPT在倫理道德方面的監管,擬研究和制定針對ChatGPT的監管政策和指南,以確保ChatGPT的發展和應用符合法律法規和倫理標準。

針對人工智能應用,我國今年4月發布《生成式人工智能服務管理辦法(征求意見稿)》,主要規制生成式人工智能服務提供者的行為,為提供者設置較高的合規義務。方向上鼓勵促進生成式人工智能技術和產品發展,管理上強化規范化、法治化,力求在保障合法合規的同時,為生成式人工智能未來的技術創新和推廣應用保留一定政策空間。

此外,ChatGPT生成式人工智能服務提供者也應當積極利用自身技術的完善減少相關風險,比如,通過算法優化以及人為介入管控等方式提升信息過濾能力;對于用戶輸入內容,加強內容識別能力,對虛假或危險信息作出警示。對于用戶隱私建立完善的保存機制并形成日志以便后續監督等。

黨的二十大報告強調,“推動戰略性新興產業融合集群發展,構建新一代信息技術、人工智能、生物技術、新能源、新材料、高端裝備、綠色環保等一批新的增長引擎。”ChatGPT等生成式人工智能技術具有高度智能化,可應用于教育、科研、醫療等多個領域,極大提高社會生產效率,與此同時,也對數據安全、網絡安全、知識產權等多領域帶來巨大沖擊及挑戰。因此,這需要我們以“包容審慎”的監管理念進行政策制定和引導,既有效地減少AI帶來的風險,保障數據隱私和安全、版權保護方面的合法權益,又加大對AI基礎創新領域和生態能力開放的政策支持力度,為AI產業發展營造良好的外部政策環境,確保我國在全球新一輪科技革命中獲得領先地位。