ChatGPT帶來的挑戰與法律風險
最近一段時間,ChatGPT橫空出世,技術進步引發網民好奇與應用,也引起人們對人工智能的深入思考。筆者結合從事專業技術工作實踐,從科技、法律和國家安全等方面談一談ChatGPT帶來的影響。
表現雖不完美卻不能小覷
ChatGPT中的“GPT”指的是Generative Pre-trained Transformer,其所依賴的基礎是預訓練。那什么是預訓練?也好理解,就是人工智能模型不需要去標注數據,只需要輸入大量的語料庫即可,這種模式大大加快了數據的收集過程。筆者曾在一段代碼中調用某度的SDK自然語言處理接口,識別“被告人徐俊球犯故意上海罪,判處聚義五個月”中的錯字,成功率還是非常高的。
從ChatGPT在公共領域的表現來看,其所具備的能力雖并不完美,卻絕對不能小覷。首當其沖,科技企業的戰略方向會有較大影響。從微軟、谷歌等頭部科技企業的戰略規劃來看,都在尋求人工智能領域的突破,這將推動科技產業加速變革。人工智能最重要的基礎設施就是算力資源,因此,很多計算芯片企業將會迎來更多機會。
在算力的加持下,或許會產生ChatGPT的競爭對手,這對以內容生成為主要服務方式的行業并不是一個好消息。在內容創作、知識服務(如智能搜索)領域,以及很多無須進行嚴格內容審核的業務場景中,對ChatGPT等人工智能系統過度依賴,人的作用將會被進一步縮小,進而導致就業和技能的流失。
當然,ChatGPT在專業領域的表現仍然存在諸多差距,不過基于預訓練人工智能算法的特點,其缺少的可能只是數據而已。
在人工智能領域,被業界廣為認可的具備實戰化程度的算法幾乎全部由國外研究機構提供。比如,深度殘差網絡是微軟的、Transformer和BERT是谷歌的。ChatGPT一經推出便引領全球風潮,僅兩個月活躍用戶已突破2億。其背后的人工智能算法,關鍵的原創技術很多,即便公開了技術原理,事實上也很難復刻,況且其關鍵技術對我們而言基本上就是黑箱子。
法律風險不可忽視
當越來越多的人使用ChatGPT或者在產品中更多調用ChatGPT接口時,我們的交互和反饋就變成了它訓練模型的一部分,成為了它提升正確率、理解率的基礎,這對保護用戶隱私和信息安全,維護公共利益、社會秩序,甚至對國家安全都會帶來很大挑戰。
未來,OpenAI將開放ChatGPT模型調用接口,這意味著屆時會有大量的企業在此基礎上開發自己所需要的應用程序并服務于各行各業。通過這些產業的拓展,ChatGPT將事實上走進各個領域。
首先將面臨虛假信息泛濫的問題,這是ChatGPT基于預訓練和反饋強化的算法基礎所決定的。特別是在部分泛專業領域,由于基礎材料積累不夠,或者面臨競爭者攻擊時會存在虛假信息泛濫的風險。當然這里還存在一個不良信息監管的問題。
其次,將會面臨知識產權合規問題。在智能搜索和知識推送領域,系統所必需的語料積累儲備以及結果推送等方面,是否需要相應知識產權授權是必須要考慮的問題。更為甚者,通過人工智能技術生成的“作品”(詩歌、小說、動畫、繪畫等),其著作權屬該如何認定,以及濫用和侵犯后的權益保護等,都將給現有法律框架帶來挑戰。
還有算法規制的風險。2022年我國出臺了《互聯網信息服務算法推薦管理規定》,明確要求算法應當堅持主流價值導向,積極傳播正能量,不得利用算法推薦服務從事危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序、侵犯他人合法權益。鑒于ChatGPT目前仍屬于“黑盒”模型,其算法能否披露、能否足量披露以及是否符合規定的要求都是未知數。
筆者認為,ChatGPT的出現并不是噱頭,其所體現的技術能力和計算能力都是出類拔萃的。人類能看到的冰山,只是整個冰山的一角。也許有一天,波士頓機器人穿著高仿真人皮服裝,連接ChatGPT并成功地拜訪了你,與此同時,有著相同“模樣”的他卻在另一個地方實施了一起惡性案件。于司法而言,完美的不在場證明就出現了。科技是人類解決自身存在問題的手段而非目標,科技的發展應當受到法律和倫理的規制。