摘 要

人工智能的未來發展有兩大趨勢,一是繼續向外擴展人類的外延,二是努力向內豐富人類的內涵,前者稱為外延型 AI,后者稱為內涵型 AI。與外延型 AI 的發展方向相反,內涵型 AI 意在借助現有的機器智能來提高人類自身的整體智能。在全面綜述內涵型人工智能及其發展趨勢的同時,從宏觀、中觀和微觀角度分析了相關新技術和新理念的伴生安全問題,其中有些問題已有解決思路,有些問題還需在發展中不斷探索解決方案。

人工智能(Artificial Intelligence,AI)的未來發展有兩大趨勢,一是繼續向外擴展人類的外延,二是努力向內豐富人類的內涵。前者稱為外延型 AI,后者稱為內涵型 AI。外延型 AI是將機器視為人體的外延,讓這個外延(機器)的“智能”越來越高,讓機器做事越來越像真人而且還是能人,不但能下棋,還能開車,更能聊天,能代替人類從事許多復雜的智能工作,使人類越來越嚴重地依賴于機器,以至于假若某天人類不得不突然離開機器時,人類文明將立即大幅度倒退。外延型 AI 是目前人工智能研究的主流,所取得的成就有目共睹,其安全性也已被廣泛研究 。但它所面臨的發展瓶頸也越來越明顯,比如,最近圖靈獎得主姚期智先生就指出了這種外延型 AI 面臨脆弱性瓶頸、解釋性瓶頸、對抗性瓶頸 3 方面的技術瓶頸。其實,外延型 AI 還有一個更大的發展瓶頸,即社會性瓶頸。具體來說,如今上至科學家、哲學家和高層決策者,下至普通老百姓等,許多人都開始對外延型 AI 的飛速發展感到恐懼,生怕人類會最終淪為機器的奴隸。雖然我們不知道人類的這種顧慮是否是杞人憂天,但若有辦法在整體上迅速提升人類自己的智能,那么,人類被機器奴役的可能性將大大降低。

如何才能在整體上迅速提升人類自己的智能呢?這就是本文將重點介紹的內涵型 AI。更準確地說,與外延型 AI 的發展方向相反,內涵型 AI 意在借助現有的機器智能來提高人類自身的整體智能。或更形象地說,外延型 AI 的“格物致知”更像是朱熹的做派,是在外求;而內涵型 AI 的“格物致知”則更像是王陽明的風格,是在內求,即圣人之道,吾性自足,不假外求。總之,內涵型 AI 的理想終極目標也許可以形象地描述為:一旦人類出了一個牛頓,那么幾乎所有人都能在一夜之間成為牛頓;于是,在這眾多牛頓的共同努力下,可能只需數十年或更短的時間,而非過去的 200 多年,就又能出現一個愛因斯坦;接著,幾乎所有人又能在一夜之間都成為愛因斯坦。總之,按此方式迅速滾雪球,也許人類就再也不用擔心成為機器的奴隸了。

內涵型 AI 的詳細內容請參閱《人工智能未來簡史》。限于篇幅,本文只從信息技術出發,聚焦于腦電圖、大腦地圖和神經元電脈沖的安全精準檢測、提取、產生、復制和輸入等,同時重點分析相關新技術和新理念伴生的安全問題,其中有些問題已有解決思路,有些問題還需在發展中不斷探索解決方案。

1

內涵型 AI 與安全的一般性關系

包括內涵型 AI 在內的任何新技術,都存在著正反兩個方面的矛盾:一方面,新技術會帶來新發展;另一方面,與新技術相伴,將會帶來新的安全問題,甚至是非常嚴重的安全問題。一般說來,這些伴生的安全問題,在新技術普及到一定程度后才會暴露,很難事先給以全面精準的預測。因此,隨時關注內涵型 AI 的發展狀態,隨時發現伴生的安全問題并給予及時解決,就顯得尤為重要。特別是針對一些戰略性的安全隱患,更應該盡早準備好一些可能的預案,畢竟凡事“預則立,不預則廢”。

與外延型 AI 類似,內涵型 AI 既具有安全賦能效應,也具有安全問題伴生效應;前者可以提供安全保障,后者則剛好相反。比如,安全賦能效應既能增強攻擊能力,讓黑客更厲害;又能增強防御能力,讓系統更安全。安全問題伴生效應不但具有一定的滯后性,還具有相當的特殊性,必須個案分析,因為只有當相關技術和系統經過大量的實踐檢驗后,其所呈現的不成熟性、不完備性或給予黑客的便利性等,才容易引發伴生的安全問題,從而為解決相關問題提出方向和目標。比如,由于內涵型 AI 技術自身的不成熟,就一定存在若干漏洞,它們一旦被黑客發現和利用,就會造成更大的破壞;此外,內涵型 AI 技術也會存在若干暫時無法彌補的天然缺陷,只能采取額外的手段適當加以防護。

以下各小節將在介紹內涵型 AI 的相關技術的同時,及時指出它們可能在安全賦能和安全伴生方面的問題。實際上,從本質上看,賦能攻擊與伴生安全的外顯行為都是內涵型 AI 系統的安全風險,其差別僅僅在于內因不同而已:一個是黑客利用內涵型 AI 技術來主動提升攻擊能力,另一個是內涵型 AI 的脆弱性導致新的安全意外等。

2

基于宏觀腦電圖的內涵型 AI 及安全

宏觀內涵型 AI 可能將是最先取得突破的領域,馬斯克已投資實現的意念控制等便是案例之一。宏觀內涵型 AI 的思路非常清晰,即人類個體的知識和智能水平由其腦電模式或神經回路的發射情況確定,若能安全可靠地改變腦電模式或神經元的聯結網絡,就能改變當事者的知識和技能。同時,腦電模式確實能被安全地改變,甚至大腦具有很強的可塑性,若能在一定程度上改變大腦的電活動模式,就可安全地實現內涵型 AI 的某些目標。

早在 100 多年前,人們就發現人腦會發射很強的“腦電波”,而且腦電波還會隨著當事人的思想和心理狀態的改變而改變。目前科學家們已經可以利用腦電波來安全地控制遠端的計算機和假肢等,已實現了曾經是夢想的意念控制。隨著各種安全腦機接口技術的不斷發展,人與機器的安全融合程度將達到無與倫比的水平,因此,有理由相信,在不遠的將來,人機充分融合后,人類將在安全感知、分析和解決問題的能力方面,遠遠超過以往的單獨依靠電腦或人腦的智能水平,當然就不必擔心成為機器的奴隸了。

當然,若想不斷地推進上述目標,就必須在以下 3 方面繼續下功夫:一是充分利用電磁手段,更加安全而精準地獲取和理解腦電波;二是充分利用植入和非植入等方法,更加安全而精準地將相關電脈沖輸入或輸出大腦;三是充分利用各種微電子和虛擬現實等技術,更加安全而精準地復制和處理各種微弱電波等。

基于宏觀腦電波的內涵型 AI 的原理很簡單,即人腦是一個特殊的電網絡,既可以向該網絡注入相關電脈沖,以影響其既有的運行狀態;也可以從該網絡中取出相關的控制信號,然后利用這些信號去控制其他機器,甚至是控制其他人或動物。此外,實驗表明,大腦還是一個可塑性很強的電網絡,外界的安全輸入電脈沖只要足夠強和足夠持久(當然不能過分),大腦的既有網絡結構就可能被安全地永久性地改變,用行話來說,就是“一起發射(激活或興奮)的神經元會連接在一起”;因此,今后某天,也許人類能像電腦下載文件那樣,將任何知識,從電腦或他人的大腦中安全地注入自己的大腦,使得某人就像獲得了某種心靈感應一樣,突然就變成了“萬事通”的超人。

當然,原理簡單是一回事,具體的實現又完全是另一回事,其重點和難點之一便是安全而合適的腦機接口。隨著內涵型 AI 的不斷發展,腦機接口的種類將有很多,而且還會越來越多;既有植入式腦機接口,也有非植入式腦機接口。比如,人工耳蝸就是一個能讓失聰者恢復聽力的非植入式安全宏觀腦機接口,它利用麥克風采集到的聲音來產生一系列電脈沖,并用這些電脈沖去刺激聽覺神經,以重新產生“聽覺”。又比如,人們已能安全地在實驗室里用植入式宏觀腦機接口讓盲人“睜眼”。其工作原理是:利用腦機接口,把來自攝像機的視頻信號安全地輸入已經植入視網膜或視覺皮層的電極陣列中,從而激發相應的“視覺”。

目前,雖有不少成功而安全的植入式宏觀腦機接口案例,但必須強調,此類腦機接口其實才剛開始,困難很大,問題很多,絕不可隨意應用和推廣。幸好,人們可以利用已有的外延型 AI 的“機器學習算法”來識別與特定感覺或運動相關的腦電活動模式,并將這些模式作為確定性的電信號來安全地指揮假肢等各種外部設備,以實現相應的功能。當然,如果今后腦機接口所采集的腦電信號足夠全面和精準,那么直接將這些腦電信號安全地注入另一個人的相應神經回路而不做任何解碼,就完全可能實現一個人對另一個人的安全而精準的控制,例如舞蹈家用意念指導另一個外行一次性學會某個動作。

非植入式腦機接口技術無需任何手術,雖然它們的腦電波采集能力肯定遠不如植入式設備,但在某些精度要求不太高的情況下,特別是在宏觀情況下,仍然足夠有效。比如,有這樣一個非常簡單的基于腦電圖的非植入式腦機接口,它僅僅是基于如下事實:當你默想不同的單音節文字時,你的腦電圖中的響應波紋也不相同。于是,你只需要默想“前”“后”“左”“右”這 4 個字,通過貼在你外頭皮上的 5 個電極,就能以 90% 的準確度檢測并區分你的腦電圖模式。因此,在非植入式情況下,用意念控制玩具車前進、后退、左沖、右突就輕而易舉了。此類方法顯然不難擴展為意念下棋、走出迷宮、挪動鼠標等操作。更一般地說,該非植入式方法,能夠以較高的安全可靠性來實現任何命令數不多的意念控制場景。

當然必須指出的是,若僅僅采用非植入式腦機接口技術,雖然可以從大腦中讀出某些特定的信號,實現意念控制或心靈感應等,但它離真正的意念通信還差得很遠,畢竟讀取信號與全面通信根本就不是一回事。

總之,在非植入情況下,僅基于宏觀的腦電圖的內涵型 AI 的能力還是有限的,但是,積極繼續探索大腦的運行機制,積極在腦電圖的全面而安全的精準檢測、采集、處理、傳輸和注入等方面穩步前進,仍然可以取得許多重大的實用性成果,大大提升人類的整體智能和體能。

3

基于中觀大腦地圖的內涵型 AI 及安全

上一節敘述的內涵型 AI 始終只鎖定了神經電脈沖的宏觀形態,即所謂的“腦電圖”。這就意味著,一方面,輸出的腦電圖無法區分大腦電模式的許多中觀和微觀區別,因此很難精準地表達相關意念;另一方面,宏觀腦電圖幾乎不可能輸入,至少不能精準輸入到別人大腦中。總之,若想基于各種腦機接口來實現更高水平的內涵型 AI,顯然不能只停留在宏觀的腦電圖水平上,還需要分別鎖定中觀的大腦地圖和微觀的神經元電脈沖。

腦科學已揭示了兩個重要事實:一是腦電波很重要,它甚至能決定一個人的各種智能和技能水平,或者說,你若擁有了超人的腦電波,你便可以擁有超人的智能和技能;二是腦電波可以被重塑,因此,你若能重塑你的腦電波,使它們與愛因斯坦的腦電波相同,那你就能成為第二個愛因斯坦。于是,從理論上看,其實每個人都有機會成為愛因斯坦,只要你能巧妙而安全地重塑自己的腦電波。

既然安全重塑腦電波(或重塑大腦)如此重要,人們便會努力研究重塑大腦的思路。當然,人類在這方面的工作才剛開始,需要改進之處還有很多,實際上,內涵型 AI 能否成功,將主要取決于能否找到愉快而無害的方法,使得任何人的大腦能被迅速而安全地重塑,這種重塑既包括宏觀腦電圖在結構方面的重塑,也包括中觀大腦地圖在具體功能或技能方面的重塑,還包括微觀神經元的突觸導電性重塑,或由神經元的發射與抑制組合而成的神經回路重塑等。

重塑腦電波的最暴力手段,可能當數目前醫院針對精神病患者經常使用的電休克療法,即經過 10 余次電擊,腦電圖就可能被永久性地改變,顯然此法只適合于特定人群,且還不夠安全。其實對每個人來說,他從一出生,就已在不間斷地重塑自己的腦電波了,只不過是采用了最溫柔、最緩慢的腦電波重塑手段,那就是眾所周知的學習,既包括有意識的學習和無意識的學習,也包括自主學習和輔導學習等。實際上,大腦隨時都在因外界的刺激而安全地改變其神經回路的聯結,它是環境與基因互動的產物,即我們的觀念會產生行為,行為又反過來改變大腦的結構;先天的基因決定某個行為,該行為也會反過來改變大腦的聯結。

早在 1949 年,心理學家赫布就提出了“學習發生在細胞水平上”這一基本原則,或者說“一起發射的神經元就會連接在一起”,或者說“不一起發射的神經元就不會連接在一起”。因此,我們從小到大的學習過程,其實就是在以“隨風潛入夜,潤物細無聲”的方式安全地改變腦電模式,準確地說,學習改變了某些神經元的放電特性,改變了某些突觸的導電性等。所謂的“活到老,學到老”,就意味著人的大腦終生都可以被重塑,至少可以被緩慢而溫柔地重塑,各種學習就是溫柔的安全重塑過程。更極端地說,即使某人不想學習,但隨著年齡的增大,他大腦的自然退化也是一種重塑過程,只不過是有害的重塑而已。

諾貝爾獎得主、物理學家蓋爾曼曾在 1994年暢想到:今后某一天,人類能與計算機直接相連,彼此之間的思想與情感完全被共享,再也沒有語言上的選擇與欺騙。形象地說,蓋爾曼暢想的東西可以是某種“腦聯網”,它將人類的大腦連成一體,就像互聯網將電腦連成一體那樣。

欲實現“腦聯網”,就必須克服兩大難題:一是解決信息的安全輸出問題,即從大腦活動的樣本中安全地提取相關信息,并將由此產生的信息安全地傳輸給人造設備。這一點,在前面介紹的“意念控制”中,都在某種程度上初步實現了信息輸出。二是將外部信息包括他人的意念信息安全地輸入接受者的大腦,或更準確地說,安全輸入到接受者的神經系統中去。這其實是目前的難點和重點,所取得的實質性進展很少,比如,輸入信息的主渠道仍然是人類天生的視覺或聽覺等,這當然會限制腦聯網的深度開發,因為此時被輸入的信息只能以圖像或聲音的形式出現。

4

基于微觀神經脈沖的內涵型 AI 及安全

細心的讀者也許已經注意到,內涵型 AI的最終目的是要安全地制造超人,即在某些方面的智能和技能超強之人,甚至是各方面的能力都超強之人,當然,這種超人狀態也許只需維持很短一段時間,然后再恢復正常,畢竟超人狀態需要耗費太多的能量或需要犧牲其他方面的一些能力。內涵型 AI 制造超人所希望使用的手段主要是腦機接口,即利用輸入或輸出的電子接口,安全地將大腦或神經系統的潛能長期或短期地發揮到極致。既然是接口,就必須考慮相反的兩個方面,即安全輸出和安全輸入。

(1)關于安全輸出。若將大腦看成一個黑箱系統的話,該系統的安全輸入渠道有很多,包括但不限于聽、看、觸、嘗、嗅等;但安全輸出渠道卻很少,幾乎只有言和行。而“言”又受限于文字,經常會出現“只可意會不能言傳”的情況;“行”也受到身體的限制,經常會出現“力不從心”的情況。因此,若想更安全有效地打造超人,就必須開通大腦的更多輸出渠道,特別是要安全而精準地獲取或檢測神經元發射時所釋放的電脈沖。在宏觀情況下,這些電脈沖將以腦電波或腦電圖的形式被安全地獲取或檢測,比如,命令個數不多的意念控制系統,內容受限的意念通信系統,給定候選集合的猜心術,認定犯罪嫌疑人的超級測謊儀等。在中觀情況下,腦電脈沖將以大腦地圖的形式被安全獲取或檢測。在微觀情況下,腦電脈沖將以神經回路電活動的形式被安全獲取或檢測。

(2)關于安全輸入。雖然腦機接口的安全而快速簡捷的輸入很困難,但非常有趣的是,在宏觀和中觀情況下,大腦的安全輸入問題卻很簡單,比如,我們從小到大的所有學習和訓練過程,以及神經醫學中的許多醫療過程,其實都是在有意或無意地向大腦輸入腦安全電信號,而且還是可以精細到中觀層次的腦電信號,其結果就是安全地改變了相關的大腦地圖或腦電圖。但在微觀情況下,腦電信號的安全輸入卻是腦機接口的難點和重點,因為人類至今也不知道大腦到底是如何對腦電信號進行編碼和解碼的,所以,很難制造一段安全的人工電信號讓大腦讀懂,當然也就很難控制大腦了。但是,“不能制造安全的人工信號”并不意味著就無計可施,比如,從理論上看,我們可以將天才的某段腦電信號,在微觀情況下,安全地照搬到普通人身上,從而將后者打造成天才。如果在大腦里動手術太危險的話,也可以先在某些肢體上采取一些安全辦法,這也是微觀層次上內涵型 AI 可能會優先考慮的課題。比如,鋼琴家在彈奏某段曲譜時,他的大腦會向手部肌肉發出一系列神經電信號,若能將這一系列的神經電信號同時并安全地搭接到另一個人的手部,那么這個人也將不由自主地開始彈奏鋼琴。鋼琴在后者手上產生的感覺信息,將通過他自己天生的神經通道安全地上傳到大腦中,這當然可視為鋼琴家的腦電信號被間接、精準而安全地輸入到了另一個人的大腦中。其結果就是,后者也許很快就能學會彈鋼琴,并在自己的大腦中安全地形成新的表征鋼琴技能的神經回路。

5

結 語

曾經,“意念控制”被認為是癡人說夢,如今,它早已變得輕輕松松,甚至連老鼠和豬都能用意念玩轉游戲。曾經,“猜心術”被認為是騙人把戲,如今,它早已變成現實,只需掃描你的腦電圖,便可一眼看穿你的情緒和部分心思。曾經,人是人,機是機,人機彼此相分離;如今,人即是機,機即是人,小小腦機接口就讓你與機器密不可分。其實,這些都還不是最玄幻的事情,因為我們在《人工智能未來簡史》中,已經以嚴謹的科學態度,基于神經生物學、腦科學、微電子學和虛擬現實等領域的成就,展示出了一幅更玄幻的內涵型人工智能愿景。換句話說,也許在將來的某天,你可輕松成為全球第二的鋼琴演奏家和畫家等,更準確地說,你能在瞬間學會偶像的任何技能。也許在將來的某天,任何人都能輕松掌握全球的既有知識,輕松與他人進行不動聲色的意念通信。如此愿景到底能否實現,到底能在多大程度上實現,以及何時能實現等,其實既取決于腦機接口的進展(即人類能否更精準而全面地檢測、提取、產生、復制和輸入相關神經元的電脈沖,激活或重組某些神經回路),更取決于與腦機接口相伴的安全。畢竟,對普通信息系統來說,黑客攻擊要的是錢;而對腦機接口來說,黑客攻擊要的可是命!所以,腦機接口大規模應用的前提,就是與其相伴的信息安全能得到足夠的保障