近日,特斯拉首席執行官埃隆·馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克等上千名科技界大佬簽署公開信,呼吁暫停訓練強于OpenAI公司GPT-4的人工智能(AI)系統。公開信的發布再一次將人工智能推上風口浪尖,觸發人們對人工智能成為“脫韁野馬”擔憂的同時,也給各國的監管政策制定上了“發條”。

人工智能將帶來生存風險?

這封公開信由非營利組織“生命未來研究所(Future of Life Institute)”撰寫,其使命是“減少強大技術帶來的全球災難性和生存風險”。

信中寫道:“只有在我們確信人工智能的影響是積極的、風險是可控的情況下,才應該開發更強大的人工智能系統。因此,我們呼吁所有人工智能實驗室立即暫停至少6個月訓練比GPT-4更強大的人工智能系統。人工智能實驗室和獨立專家應該利用這段時間,共同開發和實施一套高級人工智能設計和開發的共享安全協議,這些協議由獨立的外部專家嚴格審計和監督。”

這封信還澄清說:“這并不意味著人工智能發展總體上處于暫停狀態,只是從危險的競賽退回到具有緊急功能、不可預測的黑箱模型。”它指的是微軟和谷歌等大型科技公司之間的人工智能競賽。

盡管這封信一開始有許多虛假簽名者,被指加劇人工智能炒作、簽名造假以及歪曲論文等,還有很多人工智能研究人員和專家公開對這封信中的描述和提議的方法表達了反對意見。但這一事件的火爆無疑代表了人工智能技術狂飆突進的當下,人們對人工智能倫理的擔憂。

公開信中提出了幾個問題:“我們是否應該自動化所有工作,包括那些讓人有成就感的工作?我們是否應該培養非人類思維,這些思維最終可能超過人類智慧并取代我們?我們應該冒著失去對文明控制的風險繼續開發人工智能嗎?”

紐約大學心理學和神經科學教授加里·馬庫斯說:“這封信并不完美,但其精神是正確的。”

監管挑戰迫在眉睫

這樣的警告給各國監管機構帶來壓力,要求它們闡明將人工智能嚴加控制的計劃。作為公開信的簽字人之一,研究機構Mila創始人兼科學主任約書亞·本吉奧表示,6個月的暫停時間對于包括政府在內的治理機構理解、審計和驗證人工智能系統是必要的,可以確保這些系統對公眾是安全的。事實上,許多國家近年來一直致力于制定人工智能領域的法律、法規。

聯合國教科文組織敦促各國“毫不拖延地”應用關于人工智能技術的全球道德框架,包含最大限度發揮人工智能優勢并減少它帶來的風險。

歐盟正在加快推動人工智能立法。歐盟內部市場委員蒂埃里·布雷頓表示,這項立法將幫助人們消除對新近大熱的ChatGPT聊天機器人乃至人工智能技術風險的擔憂。

2021年4月,歐盟委員會提出了《人工智能法案》條例草案。2022年12月6日,歐盟理事會通過了關于《人工智能法案》的共同立場,旨在確保投放到歐盟市場并在歐盟范圍內使用的人工智能系統是安全的。

這一提案對人工智能系統的定義、禁止人工智能應用的領域、人工智能系統的高風險分類、與執法機關有關的范圍和規定、支持創新的措施等方面進行了闡述。歐盟希望該法案既能推動人工智能的投資和創新,又能促進保障公民基本權利和安全的現行法律得到有效執行和加強。

負責數字政策和競爭事務的歐委會執行副主席瑪格麗特·韋斯塔格在草案提出時說,即將出臺的歐洲規則將有助于制定“新的全球規范,確保人工智能可以被信任”。

歐盟理事會表示,這樣法案將與其他倡議齊頭并進,包括旨在加快歐洲人工智能投資的《人工智能協調計劃》。

在英國,對人工智能挑戰的最新回應是一份91頁的白皮書——《支持創新的人工智能監管方法》。該文件由英國科學、創新和技術部發布,稱它提出了一個“世界領先”的人工智能監管方法,是“新國家藍圖的一部分,即打造世界級監管以推動負責任的創新并保持公眾對這一革命性技術的信任”。

該文件稱“政府將避免可能扼殺創新的強硬立法,并采取適應性的方法來監管人工智能。政府不會把人工智能治理的責任交給一個新的單一監管機構,而是授權現有的監管機構——如健康和安全執行委員會、平等和人權委員會以及競爭和市場管理局——提出量身定制的、針對具體情況的方法,以適應人工智能在其管理領域的實際應用”。

無論如何,監管都是設法實現一種平衡:一方面注重人工智能發展帶來的所有好處;另一方面是充分尊重公民的基本權利。

行到路口,左右觀望

值得注意的是,公開信引起廣泛的關注,不僅僅在于它提出的問題,而是它引發的更加充滿分歧的討論。

普林斯頓大學計算機科學副教授阿爾溫德·納拉亞南表示,計算機是否會取代人類并接管人類文明,這是一個非常遙遠的問題……它分散了我們對當前問題的注意力。人工智能被整合到人們的工作中,是減少了對某些職業的需求,而不是會讓我們“過時”。他表示:“這些可以算是合理的長期擔憂,但它們已被反復提及,轉移了人們對當前危害的注意力,包括非常真實的信息安全和安全風險!而消除這些安全風險需要我們精誠合作。但不幸的是,這封信中的炒作,包括對人工智能能力和事關人類生存風險的夸大,可能導致人工智能模型被更多地束縛,使應對風險變得更加困難。”

意大利政府日前對人工智能態度的搖擺也是人們關于人工智能治理困惑的一個例證。在指責開發ChatGPT的OpenAI公司未能遵守用戶數據保護法規后,意大利負責監管數據的機構3月31日宣布將禁止在其境內使用ChatGPT。

根據意大利監管機構的說法,ChatGPT及其母公司OpenAI違反了《歐洲通用數據保護條例》中的部分規定。這使得意大利當局決定禁止(目前只是暫時)該公司在意大利境內開展業務。

但兩天后,意大利副總理兼基礎設施與可持續交通部部長馬泰奧·薩爾維尼就在社交媒體上表示,意大利對ChatGPT的禁令似乎有些過分了,并建議盡快提出合適的解決方案。

他認為禁令可能損害意大利的商業和創新,并希望解除禁令。他說:“每一次技術革命都會帶來巨大的變化、風險和機遇。通過監管者和立法者之間的國際合作來對其進行控制和監管是正確的,但不能將其封鎖。”

英國政府似乎也對人工智能的認知存在不足。致力于把英國建成“科技超級大國”的英國首相里希·蘇納克將人工智能定義為“未來技術”。但根據英國科學、創新和技術部(DSIT)的數據,人工智能領域已經為英國提供了約5萬個工作崗位,僅在2022年就為國民經濟貢獻了37億英鎊(約合46億美元)。

事實上,人工智能早已不是“未來技術”,它已經站在我們面前,并帶著潛在的危險,確實有必要在發生嚴重問題前對其進行監管。

獨立研究機構Ada Lovelace研究所的人工智能法律和監管副主任邁克爾·伯特韋斯特爾認為,擬議的戰略“相對于挑戰的緊迫性和規模,力量不足”。他還警告說,《支持創新的人工智能監管方法》白皮書中的建議“缺乏法定基礎。這意味著監管者、開發者或人工智能系統的用戶沒有新的法律義務,未來監管者可能只有最低限度的責任。如果不對現有的監管機構進行大量投資,英國也將很難有效地監管人工智能在各個領域的不同用途”。

即使是在人工智能監管方面走得最快的歐盟,目前,歐洲議會的議員也未就《人工智能法案》條例草案的基本原則達成一致。他們爭議的核心是監管是否會阻礙創新,即如何平衡數據隱私與避免扼殺人工智能的創新和投資。其中最具爭議的領域是決定哪些人工智能系統將被歸為“高風險”。這些討論也代表了目前對于人工智能發展和監管的主要爭議:一方面是對公民基本權利的關注;另一方面是對監管約束與創新產生沖突的擔憂。