當前,人工智能技術迅猛發展,并被廣泛應用于軍事領域。由于人工智能新技術本身的不確定性及其治理機制的不完善,人工智能技術的武器化應用將可能弱化人類對戰爭的把控權,增加戰爭發生的可能性,沖擊現有國際秩序的穩定性,挑戰國際法規的基本原則,甚至引發復合型危機。對此,國際層面、區域層面、國家層面的各相關行為體已開始著手探尋相關治理機制。但目前國際社會在全面禁止人工智能武器方面尚未達成共識,各國政府應創造性地利用好已有的軍控機制,通過官民協作致力于人工智能武器化的治理,并充分發揮科研人員在人工智能武器化過程中的決定性作用,合理、有效、安全地控制人工智能技術的發展。

人工智能武器化,即在現代及未來的武器系統中廣泛使用人工智能技術,以實現武器裝備的“數智化”。當前,人工智能化武器迅猛發展,其所具有的指揮高效、操作自動、行為智能、打擊精準等特點,能夠自主完成偵察、搜索、識別、瞄準、攻擊目標等任務,有的甚至還具有解讀自然語言的能力 。人工智能和武器系統愈加廣泛且深入的結合,不僅會對人類戰爭的模式產生重大影響,更將會給國際安全治理帶來諸多挑戰。本文在概述人工智能武器化應用現狀的基礎上,著重分析人工智能技術武器化所產生的國際安全影響及當前的治理機制,并嘗試探尋更為優化的治理路徑。

1

人工智能武器化的發展現狀

美國是首個將人工智能運用至軍事領域的國家,早在 1972 年,美軍便使用“靈巧炸彈”炸毀了越南清化大橋 。當前,隨著人工智能技術的發展,主要軍事大國均已將人工智能視為顛覆性改變戰爭規則的關鍵技術,紛紛投入大量資源,推進人工智能武器的研發與應用。

1.1 主要國家人工智能武器化的應用現狀

美國的人工智能武器,不管是其技術水平還是應用規模均居世界首位。在陸軍方面,美陸軍現已裝備一萬余套地面無人作戰平臺,其中多數已在伊拉克和阿富汗戰場上投入使用 。2030 年之前,美國陸軍計劃實現“有人作戰系統”與“無人作戰系統”相互連通、智能協作。在空軍方面,美國在 2018 年就已經擁有 8 000 多個空中無人系統,基本覆蓋了世界上現存的所有型號的空中無人作戰系統,且仍在推進算法戰、蜂群作戰、忠誠僚機等項目的開發 。2020 年12 月 15 日,美國空軍 U-2 偵察機裝上了人工智能系統,這也是美國軍用飛機首次實現人工智能自主控制軍用系統。在海軍方面,2020 年 12 月,美國政府公布了新的海軍長期發展計劃,其中無人系統的開發是重點。據悉,2022 年至 2026 年,美國將撥款 43 億美元,用于建造 12 艘大型無人水面艦艇、1 艘中型無人水面艦艇和 8 艘超大型無人潛航器 。此外,為進一步推進在人工智能武器化領域的縱深發展,美國在戰略、政策、科研等層面均采取了諸多措施。

除美國外,俄羅斯的人工智能軍事應用也較為成熟。在陸軍方面,俄羅斯已成功研發出了多種陸用智能化武器及地面作戰系統,如“天王星”系列陸戰機器人及無人戰車、運輸機器人、鏟車式機器人、菲多爾人形機器人等。在海軍方面,俄羅斯已將無人潛航器列為研發重點,并積極探究將核潛艇與無人潛航器深度融合的方式。此外,歐洲各國及日韓等亞洲國家也在積極研發、應用人工智能武器。中國亦高度重視人工智能的軍事化發展,已將無人系統應用于反恐、偵察、軍事訓練、邊境巡邏等領域。

1.2 人工智能武器化的主要特點

當前,人工智能武器化的研發與應用主要有以下特點。第一,以深度學習為基礎的專家決策系統,是人工智能武器化應用的一大特色。人工智能能夠通過經驗積累和自我學習不斷提升以戰場態勢的感知和評估為中心的“戰場思維”。同時,人工智能還可以利用自身所擁有的專家級推理分析能力,對各類戰場信息進行匯集、融合與分析。未來,人工智能武器被廣泛使用的信息化戰爭在一定程度上可以說是算法之爭,即誰擁有算法優勢,誰就掌握了戰爭主動權。第二,人工智能武器化意味著各軍種裝備的人工智能化、無人化、高效化。在空軍領域,作為“數智化”典型代表的無人機系統目前正在向全天候、小型化、集體化作戰方向發展,其殺傷能力也大幅提高,甚至還催生出了全新的“蜂群戰術”作戰理論。在“數智化”的陸軍系統中,單兵系統和地面無人作戰平臺(軍用智能機器人、無人戰車等)被廣泛用于反坦克、自行搬運戰場物資、突擊掃雷、戰場布雷、彈藥補給等方面。例如,英國的“泰坦”無人戰車可搭載遙控機槍武器站和反坦克裝備,進行地面戰斗等。海軍領域的“數智化”應用主要集中于水上和水下機器人、無人艦艇 3 個方面。例如,美國的“章魚”機器人可用以檢測敵軍水下目標等。此外,隨著精確制導武器技術的不斷進步,智能彈藥近年來也成為人工智能武器化的重要研發與應用領域。第三,人工智能武器化帶來了軍事網絡安全等領域的人工智能變革。網絡安全已成為各國軍事博弈的核心與焦點。利用人工智能制造病毒,代替人類黑客,可以對軍方的網絡通信系統造成巨大破壞。擁有高度智能的作戰指揮系統和武器平臺一旦被敵方黑客攻擊,將面臨著戰術失利、機器故障等后果,甚至使智能化系統因受干擾而失控。

2

人工智能武器化對國際安全的影響

人工智能武器的研發及應用均已取得相當程度的發展。但當前,人工智能新技術存在諸多不確定性,人工智能武器化的治理機制也尚不完善。在此背景下,人工智能武器化給國際安全帶來了許多潛在的風險。

2.1 弱化人類對于戰爭的把控權

人工智能武器化將使人類愈發依賴智能化系統所提供的自主性信息及手段,甚至將戰爭的決定權讓渡給機器,這最終將導致人類在戰爭中的能動性被弱化。盡管人工智能的算法優勢可以實現預先感知、預先決策,但隨著智能武器系統的廣泛使用,人類對戰爭準確認知的主動權也在遭受著侵蝕。算法優勢的運用將會導致從戰術決策到執行的時間越來越短,人類也將越來越難以適應快速的戰場變化,從而在戰爭中愈發被動。

不僅如此,人工智能武器的應用或將導致戰爭烈度升級,人類將難以控制沖突的規模與程度。首先,由于人工智能技術的自我學習功能以及其非理智的行為邏輯具有不可預測性,因此人類將難以準確把握人工智能決策的因果機制。人工智能武器化背景下,算法的安全性和數據的可靠性將直接決定人工智能系統的安全性。但目前各國的人工智能技術并不成熟,算法和數據都具有相當程度的脆弱性。例如,在算法方面,算法漏洞問題經常發生,這可能會引發人工智能武器的戰略誤判,或使人工智能武器遭到敵方的網絡入侵。在數據方面,常見問題有數據泄露、數據污染、數據偏差等,這些問題都可能會使系統陷入信息困境、數據欺騙等。例如,北約的無人機在敘利亞、利比亞等地實施空襲時,就因算法偏差造成了大量平民的傷亡。其次,人工智能武器化背景下,人類在戰術層面的影響也將被不斷削弱,以至于人類難以掌控戰爭的發展走向。在智能化武器集群攻擊中,人類操作員不可能控制每一個作戰武器,作戰部署系統只能由人工智能來操縱,人類的介入將越來越集中于作戰中的最高層環節,而在戰術層面的影響與控制能力則將被極大地削弱。

2.2 增加戰爭發生的可能性

人工智能武器化將會改變傳統戰爭的規則,降低戰爭門檻,大大增加戰爭爆發的可能性。人工智能武器化背景下,消滅敵方有生力量、破壞敵方傳統軍事戰爭體系等作戰法則將失去原有的意義。戰爭規則也將發生質變,傳統戰爭形態將演變為“機器代理人戰爭”。“機器代理人戰爭”為戰爭決策者提供了更為有效的軍事選擇。有研究認為,相較于無人機被擊落,軍事決策者更傾向于對有人駕駛的飛機被擊落采取激進的軍事反應 [7]。因為“機器代理人戰爭”削弱了戰爭規則和戰爭成本對決策層的威懾力,降低了決策者的擔憂,因此,當沖突發生時,決策者將會更傾向于使用智能化的軍事武器解決爭端。

同時,在智能化武器戰爭的背景下,民意對決策者動用武力的限制作用也將會被削弱。作戰平臺、精確制導導彈等技術的“數智化”,可以使作戰人員免于暴露于戰火之下,人員受傷概率也將隨之降低。由此,相較于派出作戰人員進行軍事行動,民眾將會更加支持政府在危險地區部署人工智能武器或者使用智能武器介入軍事沖突。

此外,致命性人工智能武器一旦被恐怖組織、極端主義分子所掌握,武裝沖突爆發的可能性將會大大增加。由于獲取路徑多樣、操作門檻較低,人工智能武器很容易通過黑市流入恐怖分子及極端主義分子之手。再加上人工智能武器能夠降低發動恐怖襲擊的風險和人員成本,恐怖極端主義分子或將在人工智能武器的加持下,更加肆無忌憚地發起武裝行動。

2.3 沖擊現有國際秩序

羅伯特·吉爾平認為,國家對科學技術的不同反應導致了不平衡的發展,而不平衡發展最終會導致權力的重新分配,進而影響國際體系的變革 。隨著全球化的發展,科技已成為大國博弈的前沿競技場。在人工智能武器化領域,美、英、法、德、日等大國紛紛制定并出臺了各種政策規劃。與此同時,人工智能技術也沖擊著傳統軍事力量的均勢格局。在各國戰略競爭的推動下,人工智能武器或將催生新的“國際安全困境”。

首先,人工智能技術強國在新一輪的科技競技中間接獲得了更多的相對權力,原有的國際安全格局受到了挑戰。為化解崛起中的人工智能強國所帶來的安全風險,其他國家需要將更多的資源投入到新一代的武器研發之中。如此,便極有可能引發新一輪的科技軍備競賽,從而沖擊國際關系的穩定。其次,人工智能武器化將會加劇國家間已有的資源不平等狀況,使國際關系的權力分布更加集中甚至極化。研發和應用人工智能武器需要數據、技術、人力、資本等諸多要素的支撐,而當前只有部分技術大國擁有相應的基礎與實力,弱小國家則面臨著被永久邊緣化的風險。在軍備競賽、技術鴻溝、權力分配不平等因素的共同作用下,國家間的互信將隨之減少,摩擦與沖突則將增加,最終現有國際秩序將會受到劇烈沖擊。

2.4 挑戰國際法規的基本原則

當前國際法對人工智能武器試驗、應用、追責的界定與規范尚不清晰,所以人工智能武器化給相關國際法及國際規范也帶來了嚴峻的挑戰。如前所述,“數智化”作戰系統的發展目標是無人作戰系統,即在大多數情況下無須人類的直接干預。這將導致國際法難以約束人工智能武器的使用,更難以判定人工智能武器的責任歸屬。當人工智能武器因決策錯誤或技術故障而違反國際法和國際規范時,其責任到底應該由誰承擔,是指揮官、士兵還是技術人員或是武器制造商,針對這一問題,既存的國際法規尚未有明確的規定。此外,人工智能武器尚不具備近人的判斷力,在戰場上無法有效識別平民和戰斗人員,從而可能造成大量平民死傷,釀成人道主義災難,而這有違于國際人道法的區分原則和比例原則。

此外,由于人工智能武器技術的軍民兩用性,某些人工智能技術甚至能夠作為民用品出口,這會導致相關武器在全球市場上交易與流通的泛濫,對規范常規武器貿易的《武器貿易條約》構成新的挑戰。如何有效地規范自主武器的購買、轉讓、擴散,是現有常規武器貿易管控機制所面臨的新問題。

2.5 引發復合型危機

人工智能技術與核武器、生化武器、網絡技術的結合將增加復合型危機發生的可能性。以核武器為例,為提高核武器的情報分析、輔助決策和對外反應能力,美、俄等核大國早已將人工智能技術應用到核武器的運載、預警及控制過程中。

然而,由于人工智能技術的不成熟、不可靠性,核武器的自動化系統暗藏著諸多風險。在發射權方面,若將核武器的發射權讓渡給人工智能,一旦出現意外事故或戰略誤判,人工智能控制的核武器發射很有可能產生災難性的后果。在日常管理方面,核武器的自動化系統涉及多個部門,難免存在安全漏洞。同理,人工智能技術若與生化武器結合,也可能會因技術故障、管理失效、風險控制不當、技術濫用等原因,釀成人道主義災難。

3

當前人工智能武器化的治理機制

當前,國際社會就全面禁止人工智能武器的問題尚未達成全球共識,但人工智能武器化所帶來的國際安全問題已受到國際組織、政府等相關主體的廣泛關注。在各方共同努力下,人工智能武器化問題的相關治理機制已初步形成。

3.1 國際層面的治理機制

3.1.1 聯合國層面

首先,《特定常規武器公約》(Convention on Certain Conventional Weapons,CCW)在限制人工智能武器化問題上發揮著一定的作用。關于自主武器系統的管控問題,《特定常規武器公約》的締約國已經召開了多次會議。2016 年,CCW 會議決定建立由民間專家與國家代表團成員組成的“致命自動武器系統監管專家組”(Group of Governmental Experts on Lethal Autonomous Weapons Systems,GGE),以便一同交流探討致命性自主武器系統的軍控問題。2019 年,CCW第八次政府專家組會議提出了規范“致命性自主武器系統”開發及應用的 11 條指導原則,涉及技術、法律規范、道德倫理等方面。2021 年12 月,CCW 第六次審議大會討論了限制“致命性自主武器系統”開發的事宜。

除《 特 定 常 規 武 器 公 約》 機 制 外, 聯 合國 人 權 理 事 會(United Nations Human RightsCouncil,UNHRC)、聯合國大會第一委員會(即裁軍與國際安全委員會)、聯合國安全理事會(United Nations Security Council,UNSC) 在 禁止自主武器方面的作用也不容忽視。2013 年 5 月,聯合國人權理事會“法外處決、即審即決或任意處決問題”調查員克里斯托夫·海恩斯強調稱,需要加緊考慮機器人技術的發展及其對法律、倫理和道德的影響 。自 2013 年以來,聯合國大會第一委員會每年都將自主武器問題作為國際議題之一展開討論。到 2019 年的年度會議為止,已有多達 93 個國家公開發表對致命性自主武器的觀點,有 30 個國家呼吁禁止致命性自主武器。聯合國安理會自 2021 年起也開始探討新興科技的開發利用。2021 年 5 月 17 日,在中國的倡議下,“新興科技對國際和平與安全的影響”阿里亞模式會議召開,與會各方一致認為應加強彼此合作交流,充分利用聯合國等多邊主義機制,有效推進新興科技全球治理。這也是聯合國安理會首次就新興科技問題展開討論。

3.1.2 國際非政府組織

除聯合國層面的機制外,國際非政府組織也致力于探究人工智能武器化的問題,在限制自主武器方面發揮著自身獨特的作用。例如,早在 2011 年,紅十字國際委員會(International Committee of the Red Cross,ICRC)就公開對自主 武 器 系 統 問 題 表 示 了 關 切。2015 年 以 來,紅十字國際委員會一直致力于敦促各國就自主武器系統問題確立國際公認的限制標準,通過多種方式在限制自主武器方面發揮著影響力。首先,紅十字國際委員會在人工智能自主武器系統所涉及的相關法律法規、道德倫理、技術發展及軍事影響等方面發揮著重要作用。其次,紅十字國際委員會還通過發布《對武器系統自主性的限制:明確人類控制的實踐要素》《國際人道法及其在當代武裝沖突中面臨的挑戰》等一系列與自主武器相關的報告,說明自主武器系統的獨特性及風險性,并呼吁國際社會關注人工智能武器化問題。再者,紅十字國際委員會還積極參與 CCW 專家會議。例如,針對 CCW 政府專家組所擬定的指導原則的評注部分,紅十字國際委員會就曾提出了其自身的建議。

2013 年,國際“殺手機器人禁令運動”組織成立,該組織旨在通過廣泛開展各類運動,給各國政府形成足夠大的壓力,以促使其就達成自主武器相關條約展開談判。此外,該組織還主張禁止研發人類無法有效控制的武器。目前,“殺手機器人禁令運動”已獲得來自 60 個國家的 130 多個團體的支持。

3.1.3 知識共同體

在規制人工智能武器化問題上,由人工智能研究者所組成的知識共同體也發揮著重要的作用。2015 年 7 月 28 日,2 000 余名研究人工智能的學者共同發表了一封公開信,呼吁國際社會采取措施防止自主性武器流向黑市、落入恐怖分子之手或引發軍備競賽 。此后,越來越多的來自不同國家、不同領域的科學家、企業家和工程師加入禁止自主化武器的行列,截至 2022 年 1 月,已有 4 500 多名相關學者在這封公開信上署名。

2018 年 7 月 18 日,國際人工智能聯合會議召開,與會的 2 000 多名人工智能領域的知名人士簽署了《致命性自主武器宣言》,誓言不參與也不支持開發、制造、交易或使用致命性自主武器。2020 年 6 月和 11 月,瑞典斯德哥爾摩國際和平研究所針對人工智能武器化的影響以及歐盟所應發揮的作用,發表了《人工智能對戰略穩定和核風險的影響》《負責任的人工智能軍事應用》兩份報告。

3.2 地區及國家層面的治理機制

3.2.1 地區層面的治理機制

與全球層面的治理機制相比,人工智能武器化的區域治理機制較少,目前只有區域一體化程度較高的歐盟嘗試出臺了相關方案。在《機器人民事法律規則》中,歐盟特別設定了“機器人憲章”“研究倫理委員會準則”等條款,還提出了成立統一的機器人技術和人工智能的監管機構,為復雜的自動化機器人創設“電子人”法律地位等內容 。2019 年,歐盟委員會制定了《可信任的人工智能道德準則》,其中就人工智能的倫理規范做了詳細說明。2020 年 2 月,歐盟發布了區域性文件之《人工智能白皮書》。此外,針對如何將致命性自主武器系統納入到歐洲法律框架下的問題,歐洲議會在 2020 年至2021 年曾多次進行了正式討論。

3.2.2 國家層面的治理機制

基于人工智能武器化可能帶來的諸多問題,一些國家也嘗試從國內立法和政策層面對人工智能武器的研發及使用進行規范。總體來講,各國對人工智能武器管控方案的核心在于保持人類對武器系統的控制,而其難點在于如何管控完全自主的大規模致命性武器的研發與應用。

美國早在 2012 年就發布了自主及半自主武器使用方面的政策指南,擬定了一些普遍適用的原則。2019 年 10 月,美國政府首次回應了人工智能武器化所可能導致的倫理問題,同時強調了在國防部設立人工智能指導委員會的必要性。2020 年 2 月,美國國防部正式確立了“負責的、公平的、可追溯的、可靠的、可治理的”等 5 項 人 工 智 能 軍 事 化 發 展 的 原 則。2021 年4 月,新美國安全中心(Center for a New American Security,CNAS)又提出了自主武器作戰使用的原則,強調了任何自主武器系統的使用須在有責任的人工指揮和控制鏈的指導下進行。

歐洲方面,英國上議院人工智能特別委員會于 2017 年發布了報告,討論了統一自主武器國際概念及如何控制、監督自主或完全自主武器的問題。法國于 2018 年制定了《人工智能技術國家標準化委員會出臺技術標準》,試圖通過研究倫理及實現標準化來構建可信的人工智能系統。法國國防部還于 2019 年底成立了軍事倫理委員會,對軍人進行國際人道法和倫理教育,通過將人的認知等要素標準化,使人工智能系統認知程序開發更加簡單化與均質化。德國政府也多次發表聲明,明確反對研發和使用完全自主性武器,提出應遵循“有所控制地發展人工智能武器”的原則。

此外,澳大利亞、加拿大、巴西等國也紛紛出臺相關政策,反對武器完全自主化,呼吁建立國際友好、數據開放的共享環境,防止人工智能武器的濫用及軍備競賽的出現。同時,我國也一向重視人工智能方面的治理。2019 年6 月,國家新一代人工智能治理委員會提出了“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理”等人工智能治理方面的相關原則。

4

人工智能武器化的治理路徑

如前所述,當前國際社會高度關注人工智能武器化的治理問題,相關治理機制也正在建立。基于既有的治理機制,本文將從宏觀的軍控機制、中觀的官民合作以及微觀的科研人員 3 個層面進一步探究人工智能武器化的治理路徑。

4.1 宏觀層面:充分利用及創新現有軍控機制

各國應充分利用現有的軍控機制及平臺,就人工智能武器化帶來的國際安全挑戰開展廣泛磋商,提高各方對人工智能及其所帶來的國際安全問題的重視,借鑒既有的同質軍控框架以早日達成人工智能武器領域的統一協定。

關于人工智能武器化的治理問題,國際社會已達成了一些共識,各國都同意必須始終對武器系統的關鍵性能進行有效且恰當的控制。基于現有共識,各國政府可在既有軍控機制下,進一步細化、深化相關行為準則。例如,各國政府可借《特定常規武器公約》政府專家組會議為平臺,進一步優化信任磋商機制,用制定成本較低的行為準則來代替制定成本較高的法律規范。另外,關于人工智能化武器的規制也可借鑒常規武器的規約。目前各國在常規武器和大規模殺傷性武器的應用方面已達成了一系列的軍備控制協議。在人工智能武器的軍控問題上,可以嘗試借鑒既有的常規軍控協議的框架和思路。

每個國家在人工智能領域的發展程度不同,先發國需要深化在人工智能領域內的合作。若是僅僅依靠技術處于相對弱勢的國家,限制人工智能武器的全球性協議將很難推動。即便勉強達成類似協議,其效果也極有可能無法達到預期。相反,少數優勢國家在維護全球戰略穩定性上有諸多共同利益可尋。出于對失去技術強國地位或軍備競賽成本過高的擔心,優勢國家可能更愿意簽訂雙邊軍控條約,以避免大國之間出現軍備競賽。因此,人工智能軍事強國可通過協商會談率先簽訂軍備控制的公報或協議,對軍備競賽加以限制。

4.2 中觀層面:官民協作共同規范技術發展路徑

政府部門及社會民眾應加強協作,共同致力于人工智能武器化的國際治理。各國政府應加強對于人工智能倫理道德及人工智能行為科學等問題的研究,探討人工智能的人格與數據安全問題,加大對武器系統的倫理與法律審查。例如,政府可以設立專門的倫理與審查委員會,制定統一的審查標準與分類標準。與此同時,各國還應加強公共教育,充分發揮輿論監督、民眾監督的作用,督促各國政府在社會的監督下開展武器研究與管控。此外,個人也應轉變觀念,充分認識到人工智能武器化對國際安全的挑戰,積極參與相關政策的提議與監督。在社會監督下,相關決策者需要充分考慮人工智能戰爭所帶來的負面社會效應及政治成本,從而在人工智能武器化議題中做出理性的選擇。

4.3 微觀層面:用科技制衡科技

用科技“制衡”科技的本質即發揮“人”在科技應用中的決定性作用,使人工智能武器永遠難以脫離人類的控制。當前,在各國爭相部署自主武器的背景下,民族主義和資本的結合一定程度上打破了知識共同體的統一陣線,一些國家出現了科技研發人員支持政府升級軍備的現象。但是,這并不意味著人工智能科技研發人員的態度與政府的主張完全一致。人工智能科技研發人員在國際治理中可在以下兩個方面發揮重要的作用。首先,科研人員可以規避危險的技術路徑,防止出現完全自主的致命性武器。其次,科研人員可以在人工智能武器研發環節遵守相關規則,恪守國際道義。

目前人工智能武器的研發透明度低,且缺少統一的監管標準,亟須強化科研人員的責任意識,明確生產商的權責,遵循技術向善的理路。例如,可以為武器研發的科研人員及制造商制定倫理標準和規范手冊,對智能化武器的操作人員實施必要的道德約束。同時,還應提高技術研發的信息透明度,要求科研人員和生產商公布實驗數據,確保人們明晰武器的實際殺傷力。在技術研究層面,對機器的倫理化改造難以完全實現,但科研人員仍可嘗試將戰爭及武裝沖突的規則通過代碼編寫算法的方式轉化為人工智能武器的邏輯指令,從而將國際人道法精神內嵌于人工智能武器之中,以建立起人工智能武器與國際人道法規則之間的對應關系,從根本上降低人工智能武器可能帶來的風險。

5

結 語

百年未有之大變局的時代背景下,以人工智能為中心的科學技術已成為各國打造新競爭優勢的關鍵。但人工智能不應成為一場零和游戲,科技的創新和突破最終應更好地造福人類。未來的戰爭是信息化的戰爭,人工智能與武器結合或已成為不可逆轉的時代趨勢。人工智能武器化的安全治理任重道遠,需要國際社會各參與主體貢獻集體智慧,共同推動人工智能武器化的安全發展。在人類命運共同體理念的指引下,各國應秉持全球安全觀,積極尋求人工智能武器化規范方面的新共識,以早日形成具有普遍適用性的國際規范。