一、引言
人工智能的快速發(fā)展,正在以前所未有的速度改變著各行各業(yè),軍事領域也不例外。在過去的十余年中,關于人工智能應用于軍事領域的討論主要集中于“致命性自主武器系統(tǒng)”(Lethal Autonomous Weapons Systems)。這主要是因為《特定常規(guī)武器公約》締約國對該問題進行了長期持續(xù)討論。然而近年來,人們越來越意識到武器系統(tǒng)只是人工智能在軍事領域應用的眾多形式之一,其實際應用范圍遠超于此。人工智能技術能夠有效提升對海量數(shù)據(jù)的快速分析能力,正被廣泛應用于各類軍事決策任務——從后勤補給、兵員征募到情報分析與目標鎖定等不同風險層級的領域,這類系統(tǒng)通常被稱為“人工智能決策支持系統(tǒng)”(Artificial Intelligence Decision Support Systems)。
事實上,美國、英國及北大西洋公約組織(North Atlantic Treaty Organization)的政策制定者已發(fā)布國防戰(zhàn)略,明確指出在未來十年中,數(shù)據(jù)(而非機器人技術或致命性自主武器)將成為關鍵性的使能因素(enabler)。與此同時,在烏克蘭和加沙戰(zhàn)場,人工智能決策支持系統(tǒng)所發(fā)揮的重要作用,遠遠超過了人工智能支持下的機器人系統(tǒng)或者自主武器系統(tǒng)。而更具爭議的是以色列在加沙地區(qū)軍事行動中所使用的多個人工智能系統(tǒng),因造成大量平民傷亡而遭致批評。盡管人工智能決策支持系統(tǒng)與致命性自主武器系統(tǒng)的底層技術非常相似,而且一些人工智能決策支持系統(tǒng)(如用于自動目標識別和定位的系統(tǒng))也可能成為自主武器系統(tǒng)的一部分,但是二者的軍事應用卻引發(fā)了不同的人道主義關切和法律問題。戰(zhàn)爭和武裝沖突的殘酷性意味著,當人工智能決策支持系統(tǒng)在武裝沖突中被用于作出使用武力的決策時,其引發(fā)的挑戰(zhàn)與風險很可能被急劇放大。鑒于這類決策對民眾生命尊嚴及社會群體可能造成的重大影響,其潛在隱患尤其值得警惕。
與致命性自主武器系統(tǒng)的情形一樣,仍然是紅十字國際委員會(ICRC)首先關注到了人工智能軍事決策支持系統(tǒng)的人道風險。該委員會在2019年6月發(fā)布研究報告《武裝沖突中的人工智能與機器學習:以人為本的方法》,較早地對人工智能用于軍事決策領域所產(chǎn)生的問題進行了探討。該委員會在2024年先后發(fā)布了專家咨詢報告《人工智能及相關技術在武裝沖突中使用武力的軍事決策中的應用:當前發(fā)展與潛在影響》和顧問報告《決策,決策,決策:軍事決策中的計算與人工智能》。這兩份報告全面研究了人工智能決策支持系統(tǒng)在軍事領域的應用情況,特別是提出了在武裝沖突中對使用武力的決策保留人類判斷力的必要性,以及應對人類與人工智能決策支持系統(tǒng)交互的現(xiàn)有挑戰(zhàn)的方法。這兩份報告對我們理解和研究人工智能用于軍事決策所產(chǎn)生的各種影響具有重要價值。同時,紅十字國際委員會還推出了名為“人工智能在軍事決策中的應用”的法律博客。該博客發(fā)表的一系列文章對于該問題的研究也頗有助益。此外,南丹麥大學戰(zhàn)爭研究中心(Center for War Study)于2024年11月發(fā)表的研究報告《人工智能在軍事決策支持系統(tǒng)中的應用:發(fā)展與爭論綜述》,回顧了截至2024年9月該報告撰寫時人工智能決策支持系統(tǒng)的主要發(fā)展情況,重點分析了此類系統(tǒng)各種具體應用帶來的機遇與挑戰(zhàn)的主要爭論,尤其對戰(zhàn)爭中人機交互問題進行了深入分析。該報告也是我們研究當前問題的一份重要文獻。最后,一些國際人道法學者受到俄烏沖突和加沙沖突引發(fā)的人道危機觸動發(fā)表的評論文章,也為研究當前問題的性質和范圍提供了重要參考文獻。
人工智能等新興技術的軍事化應用絕非必然。這是主權國家自主選擇的結果,此類選擇必須受限于現(xiàn)行法律規(guī)則,并充分考慮對平民及退出敵對行動的戰(zhàn)斗員可能造成的人道影響,同時兼顧更廣泛的“人性”與“公眾良知”要求。近期,一些國家或其有關部門制定了人工智能原則和政策來管控人工智能的軍事應用。中國外交部也先后發(fā)布了《中國關于規(guī)范人工智能軍事應用的立場文件》(2021年12月)、《中國關于加強人工智能倫理治理的立場文件》(2022年11月)以及《全球人工智能治理倡議》(2023年10月),全面闡述了中國在人工智能軍事應用問題上的觀點和立場。這些文件不僅為中國制定相關立法和政策提供了重要指引,而且為推動當前圍繞人工智能國際治理所進行的國際談判作出了重要貢獻。
人工智能用于軍事決策的問題在國際社會已經(jīng)引發(fā)廣泛討論,但是尚未引起中國國際法學者的充分關注。本文將首先考察人工智能軍事支持系統(tǒng)的概念及其應用場景,接著簡要介紹幾種當前在武裝沖突中實際部署的此類系統(tǒng)的代表類型,然后以這些系統(tǒng)的實際運行情況為依據(jù),重點分析人工智能決策支持系統(tǒng)所帶來的各種人道主義挑戰(zhàn)與風險,最后嘗試從技術和法律層面提出緩解人道風險的對策建議。
二、人工智能軍事決策支持系統(tǒng)的概念和應用場景
決策支持系統(tǒng)(Decision Support Systems)是通過呈現(xiàn)決策相關信息或提供備選方案,輔助人類完成復雜決策的計算機化工具(computerized tools)。此類系統(tǒng)廣泛應用于醫(yī)療、商業(yè)管理、物流等諸多領域,甚至日益融入日常生活。例如,旅游網(wǎng)站整合餐廳位置、價格及用戶評價輔助用餐決策;導航軟件基于實時路況(如擁堵、道路施工、測速攝像頭)規(guī)劃最優(yōu)路線。在軍事沖突中,決策支持系統(tǒng)在指揮鏈的多個層級和各種不同任務中發(fā)揮著與民用系統(tǒng)類似的功能。軍用決策支持系統(tǒng)的主要目的是為各級軍事決策者提供信息,幫助其作出有效、快速、合法的軍事行動決策。傳統(tǒng)非人工智能驅動的決策支持系統(tǒng),在處理復雜多變的情況時存在明顯的局限性,這是因為人類很難對各種變量進行編碼。而新一代的決策支持系統(tǒng)正在利用人工智能強大的計算能力,尤其是機器學習和深度學習技術,開發(fā)技術解決方案以協(xié)助人類作出軍事決策。隨著人工智能技術的跨越式進步,這種趨勢還在日益增強。
(一)人工智能軍事決策支持系統(tǒng)的定義和特征
隨著傳感器、無人機和物聯(lián)網(wǎng)在軍事領域的應用激增,各國收集數(shù)據(jù)(情報)的能力顯著提高,使得各級軍事單位均需要處理大量數(shù)據(jù),這樣就增加了對自動化處理數(shù)據(jù)的技術解決方案的需求。人工智能可以匯集不同來源的數(shù)據(jù)(主要包括衛(wèi)星圖像、無人機圖像、傳感器數(shù)據(jù)、社交媒體或者手機信號),并運用其機器學習(尤其是深度學習)能力,向決策者提供分析、建議和預測。對武裝部隊而言,人工智能決策支持系統(tǒng)相較于現(xiàn)有指揮和控制結構,可以大幅提升軍事決策效率并縮短決策周期。這將在武裝沖突中產(chǎn)生決定性的軍事優(yōu)勢。
簡而言之,人工智能軍事決策支持系統(tǒng)就是使用了人工智能技術的軍事決策支持系統(tǒng)。南丹麥大學戰(zhàn)爭研究中心組織編寫的一份報告將其定義為:“基于模型的程序集合,用于處理數(shù)據(jù)與研判結果,協(xié)助指揮鏈不同層級的決策者處理半結構化及非結構化決策任務。”紅十字國際委員會的兩位專家也提供了一個類似的定義:人工智能軍事決策支持系統(tǒng)“是運用人工智能軟件進行數(shù)據(jù)展示、整合與分析,并在某些情況下生成行動建議甚至戰(zhàn)局預判的計算機化工具,旨在輔助戰(zhàn)場環(huán)境下的人類作戰(zhàn)決策”。從技術角度講,人工智能技術的加入給原有的決策支持系統(tǒng)帶來了新的特征,這些特征對于使用了此類系統(tǒng)的人類指揮官在作出決策時是否能夠遵守國際人道法具有重大影響。其中有些方面,如加快數(shù)據(jù)處理與分析、增強態(tài)勢感知、進行預測與模擬、優(yōu)化資源分配、減少人為錯誤等,不僅可以提高軍事效能,而且有助于人類指揮官遵守國際人道法,而另一些技術特征則會對人道法的遵守和適用構成挑戰(zhàn)。人工智能軍事決策支持系統(tǒng)具有如下特征。
第一,人工智能決策支持系統(tǒng)具有不確定性(uncertainty)。許多傳統(tǒng)的決策支持系統(tǒng)采用基于規(guī)則的計算機模型和算法,其結果具有確定性。換言之,對于相同的輸入總是產(chǎn)生相同的輸出,因此,這類系統(tǒng)對用戶來說是可預測且易于理解的。傳統(tǒng)系統(tǒng)在處理復雜問題、考慮未觀察變量、計算大量條件和參數(shù)、解決“非結構化”問題,以及處理無法“腳本化”(即以特定規(guī)則編碼)到軟件中的動態(tài)情況時,能力相對有限。相比之下,基于機器學習的人工智能決策支持系統(tǒng)采用“非確定性”模型(亦稱“概率”模型或“隨機”模型),此類模型由計算機基于包含輸入和期望輸出示例的訓練數(shù)據(jù)集開發(fā)。這類系統(tǒng)無需編寫那些可能無法完全捕捉問題復雜性的抽象規(guī)則,因此,在處理復雜任務時的表現(xiàn)會更優(yōu)。然而由于模型引入隨機性以應對環(huán)境變量,相同或相似輸入可能產(chǎn)生不同輸出。這導致難以對系統(tǒng)決策邏輯進行解釋,且難以對在具體使用場景中的行為表現(xiàn)進行精確預測。這種不確定性是人工智能的技術特征所決定的,并進而產(chǎn)生了這種新型決策系統(tǒng)的另外兩個特征:不可解釋性(unexplainability)和不可預測性(unpredictability)。
第二,人工智能決策支持系統(tǒng)具有不可解釋性;跈C器學習模型的人工智能系統(tǒng)所產(chǎn)生的結果通常具有不可解釋性。這也被稱為“黑箱”困境,即人工智能系統(tǒng)的開發(fā)者和使用者無法對其產(chǎn)生的結果進行解釋。阿瑟·霍蘭德·米歇爾(Arthur Holland Michel)將計算領域的“黑箱”定義為“一個我們知曉輸入輸出,卻無法窺見其將前者轉化為后者過程的系統(tǒng)”。他還指出,人工智能系統(tǒng)——尤其是軍事領域應用的系統(tǒng)——應當做到“行為符合預期”(即可預測),且應基于可被人類理解的合理邏輯運行。由此引出一個法律難題:當人工智能系統(tǒng)的決策可能無法解釋時,在多大程度上允許使用嚴重依賴此類系統(tǒng)的武器或作戰(zhàn)方法。“黑箱”困境導致人類決策者更加難以恰當評估人工智能決策支持系統(tǒng)輸出結果的質量,也難以化解自身判斷與系統(tǒng)建議之間的潛在沖突。某些人工智能系統(tǒng)甚至對其創(chuàng)造者而言都難以破譯,更不用說那些沒有技術背景的使用者或受其決策影響的對象。然而,若不能解釋一個系統(tǒng)的運作邏輯,不僅難以評估其運行狀態(tài)是否正常,也難以預判系統(tǒng)的未來行為——這意味著增強解釋能力可提升預測能力。與此同時,開發(fā)“可解釋性”功能的嘗試也面臨艱難平衡——既要通過“解釋”使機器學習系統(tǒng)的輸出簡單易懂,又要避免因過度簡化而失真的風險。
第三,人工智能決策支持系統(tǒng)具有不可預測性?深A測性指系統(tǒng)輸出或效果可被預見的程度,即能夠回答“系統(tǒng)將執(zhí)行何種操作”的程度。缺少可預測性(即不可預測性)包含三重具有本質差異的維度。(1)技術維度的“可預測性”通常指系統(tǒng)執(zhí)行任務時保持與測試階段、先前應用場景(或機器學習系統(tǒng)中的訓練數(shù)據(jù))相同性能表現(xiàn)的能力。這種可預測性具體體現(xiàn)為:系統(tǒng)輸出結果的正確頻率(即準確度);隨時間推移維持相同準確度的能力(即可復現(xiàn)性與可重復性);以及系統(tǒng)對超出設計/訓練/測試數(shù)據(jù)范圍的輸入數(shù)據(jù)進行“泛化”處理的能力——即適應并有效處理與原始數(shù)據(jù)存在差異的新數(shù)據(jù)。(2)操作維度的“可預測性”指向自主系統(tǒng)具體行動的可預見程度。即使做到零故障且行動結果大體可預判,所有自主系統(tǒng)依舊會存在固有的操作不可預測性。舉例來說,設想一架完全自主的無人機被用于繪制地下隧道網(wǎng)絡的內部地圖。即使該無人機具有高度的技術可預測性和極高的可靠性,部署它的人也不可能準確預知它在隧道中會遇到什么,因此也無法事先知道它將采取哪些具體行動。這是因為技術上的可預測性僅關乎系統(tǒng)性能,而操作上的可預測性則同時受部署環(huán)境與任務特性制約。(3)技術與操作可預測性/不可預測性的交互產(chǎn)生了第三種一般意義上的可預測性/不可預測性:系統(tǒng)使用的結果或效果能夠被預期的程度。
(二)人工智能決策支持系統(tǒng)在軍事領域的應用場景
隨著決策支持系統(tǒng)的發(fā)展,特別是通過集成機器學習等強大的人工智能技術,多個技術領先的軍事強國開始在廣泛的任務類型和不同的指揮層級中追求和利用這一能力。上文對人工智能軍事決策支持系統(tǒng)給出了一個寬泛的定義,軍事決策范圍可以涵蓋從維護保障、后勤補給、人員與武器管理直至武力使用的廣泛領域,因此,此類系統(tǒng)在軍用領域有著廣泛的應用場景。
在戰(zhàn)略層面(strategic level),人工智能決策支持系統(tǒng)的應用包括行動方案分析、早期預警、跟蹤、指導以及用于兵棋推演模型的模擬。人工智能決策支持系統(tǒng)可以幫助重現(xiàn)潛在場景,預測對手可能的反應,并評估針對特定目標部署特定武器的可能效果和損害。在這些任務中使用人工智能決策支持系統(tǒng)有助于制定或調整軍事戰(zhàn)略。然而,對于在戰(zhàn)略層面使用人工智能決策支持系統(tǒng)的情況,公眾所知甚少。截至2024年9月,大多數(shù)報告提到的人工智能決策支持系統(tǒng)在武力使用決策中的案例集中在軍事行動和戰(zhàn)術層面。
在(整個)軍事行動層面(operational level),戰(zhàn)略目標和指導方針被轉化為戰(zhàn)術部隊的具體任務,這一過程包括多個武力使用的關鍵決策,如目標的分析、選擇和優(yōu)先級排序,以及選擇武器和評估附帶損害后果。決策者可以利用人工智能決策支持系統(tǒng)探測物體和人員,處理數(shù)據(jù)和情報,以及評估潛在目標的合法性。尤其是那些基于機器學習的系統(tǒng)還能通過社交網(wǎng)絡分析、預測個體行為特征。例如,依據(jù)目標人員在組織網(wǎng)絡中的關聯(lián)對象,推斷其與恐怖組織的疑似關聯(lián)度,或判定其在組織架構中的層級地位。
在戰(zhàn)術層面(tactical level),決策者需要評估目標的性質、所使用的各種武器及其各自的影響,以及任何潛在的意外后果。與此同時,決策者還決定是否需要調整裝備和軍事人員的部署,以符合法律、軍事原則或其他要求,并考慮戰(zhàn)場的實際情況。在執(zhí)行軍事任務時,決策者會收集和評估信息及情報,以識別和跟蹤目標,或進行附帶損害評估,以決定是否繼續(xù)攻擊,或暫停或取消攻擊。此時,融合了人工智能技術的決策支持系統(tǒng),可實時獲取戰(zhàn)場信息并為具體戰(zhàn)術決策提供可執(zhí)行建議。指揮官借助人工智能決策支持系統(tǒng),通過處理實時情報并綜合評估以下要素,確定所謂“最優(yōu)”武器選擇:(1)目標地理位置;(2)武器打擊效能;(3)平民傷亡最小化方案。
軍事行動層面和戰(zhàn)術層面的人工智能決策支持系統(tǒng)通常整合多源數(shù)據(jù),包括衛(wèi)星影像、地理定位信息、通信截獲情報。需要特別指出的是,部分系統(tǒng)僅提供態(tài)勢信息,而另外一些系統(tǒng)則具備生成情報的能力,可能對使用武力的決策產(chǎn)生實質影響。在軍事決策體系中,人工智能決策支持系統(tǒng)常被整合至所謂“OODA循環(huán)模型”,即“觀察(Observe)—調整(Orient)—決策(Decide)—行動(Act)”的動態(tài)決策框架。這一模型概述了隨著事件發(fā)生而不斷演變的軍事決策過程。在“觀察”階段,涉及收集相關數(shù)據(jù)和信息,這些數(shù)據(jù)和信息在對目標進行識別和定位(targeting)的時候被分析和處理。在“調整”階段,根據(jù)上一階段獲取的信息,對原有計劃進行調整。在“決策”階段,指揮官選擇最佳行動方案,而在“行動”階段,人員根據(jù)情況執(zhí)行或重新評估行動。理論上,人工智能決策支持系統(tǒng)可以在整個“OODA循環(huán)”中使用。這個所謂的“OODA循環(huán)”代表了軍事行動的整個決策過程。
絕大多數(shù)軍事決策均可被視為與武力使用存在直接或間接關聯(lián)。例如,后勤決策(如兵力部署規(guī)劃、武器裝備運輸調度)雖不直接涉及武力使用,卻通過保障作戰(zhàn)效能對其施加間接影響。然而,當前人工智能決策支持系統(tǒng)在軍事領域所引發(fā)的爭議主要集中于使用武力的決策系統(tǒng)。正如有學者所言,人工智能最具戰(zhàn)略意義的發(fā)展方向是軍事情報領域,尤其是用于目標識別和定位。因此,本文將聚焦于涉及目標識別、定位與武力使用等軍事決策環(huán)節(jié)的人工智能支持系統(tǒng)。
三、當前人工智能軍事決策支持系統(tǒng)的典型代表
在俄烏戰(zhàn)場上,無人機已造成七成以上傷亡,成為戰(zhàn)場殺傷的主要來源,烏克蘭與俄羅斯正深陷一場人工智能驅動的無人機對抗,雙方競相研發(fā)自主技術以奪取戰(zhàn)場優(yōu)勢。在另一個戰(zhàn)場上,以色列對哈馬斯等武裝組織的連續(xù)軍事行動,尤其是其所導致的大量平民傷亡引起國際社會的廣泛關注。以色列國防軍所使用的目標識別和定位機制——尤其是在作戰(zhàn)流程中使用的多款人工智能系統(tǒng)——已成為最具爭議的焦點。本文接下來將選取當今世界上最具代表性的幾種人工智能軍事決策支持系統(tǒng),簡要介紹其基本功能和技術特征。
(一)美國的“梅文”計劃
美國國防部長期致力于軍事決策數(shù)據(jù)的自動化處理與情報分析,其近期標志性行動是所謂“算法戰(zhàn)爭跨職能團隊”計劃(“Algorithmic Warfare Cross-Functional Team” programme),也稱為“梅文”(Maven)計劃!懊肺摹庇媱澥敲绹鴩啦坑2017年啟動的一項計劃,旨在自動化分析無人機視頻片段,以幫助識別敵方目標;訓練用于識別特征的算法幫助處理海量數(shù)據(jù)。作為國防部核心倡議,“梅文”計劃旨在通過計算機視覺和機器學習算法,基于無人機影像等預設數(shù)據(jù)庫實現(xiàn)實時目標識別。與多數(shù)人工智能系統(tǒng)相似,該計劃下開發(fā)的技術可用于多種用途,包括軍事行動規(guī)劃和目標識別與定位。
“梅文”計劃能夠識別和分類物體,準確區(qū)分坦克、卡車、雷達等系統(tǒng)。通過將這些數(shù)據(jù)整合到戰(zhàn)場指揮界面中,“梅文”計劃不僅能識別目標,還能推薦最佳打擊策略!懊肺摹庇媱澋墓δ茴愃朴诖笠(guī)模面部識別軟件,就像此類系統(tǒng)可以在機場分析人群以識別特定個體一樣,“梅文”計劃處理戰(zhàn)場數(shù)據(jù)流以定位潛在威脅。該系統(tǒng)的最重大進步之一是與地面移動目標指示(ground-moving target indicator)衛(wèi)星的整合,這些衛(wèi)星使用雷達探測運動,即使在云層或夜間也能持續(xù)跟蹤目標。這種能力使其克服了傳統(tǒng)光學系統(tǒng)的局限性,確保不間斷地監(jiān)控和識別地面目標。
“梅文”計劃現(xiàn)在使用更多類型的數(shù)據(jù):不僅包括衛(wèi)星圖像和無人機視頻,還包括紅外傳感器、地理位置標簽和多光譜傳感器等所收集的信息。處理后的信息隨后在“梅文”計劃中呈現(xiàn),該系統(tǒng)界面“整合了多個數(shù)據(jù)流”,使“指揮官能夠一覽整個戰(zhàn)場”。例如,一些黃色框會高亮顯示潛在目標,如船只或軍事基地,而其他藍色框則會劃定禁打擊區(qū)域,如民用基礎設施。隨后,指揮官將根據(jù)潛在行動方案作出決定,可能涉及使用武力。
(二)烏克蘭的“三角洲”系統(tǒng)和“復仇者”系統(tǒng)
2022年2月24日俄烏沖突爆發(fā)后,俄烏戰(zhàn)場成為了人工智能戰(zhàn)的“試驗場”,人工智能技術在武器系統(tǒng)(尤其是無人機)、情報分析和網(wǎng)絡安全等領域發(fā)揮了前所未有的作用。當前烏克蘭所使用的人工智能技術中,最為知名的當屬“三角洲”(Delta)系統(tǒng)和“復仇者”(Avengers)系統(tǒng),然而,由于安全和保密的緣故,公眾對于這兩個系統(tǒng)所知不多。
“三角洲”系統(tǒng)是烏克蘭軍事部門在俄烏沖突爆發(fā)后開發(fā)的一種態(tài)勢感知(situational awareness)和戰(zhàn)場管理系統(tǒng)。該系統(tǒng)整合來自軍事偵察單位、政府民事官員、外國情報伙伴等不同參與者的信息,其來源包括商業(yè)和軍用無人機、傳感器網(wǎng)絡、衛(wèi)星圖像和伙伴國的情報。該系統(tǒng)涵蓋了廣泛的戰(zhàn)場管理任務,包括作戰(zhàn)任務的規(guī)劃、單位間的協(xié)調以及關于敵方位置信息的加密交換!叭侵蕖毕到y(tǒng)所取得的成功引起了北約的關注,已有北約成員國計劃向烏克蘭購買該系統(tǒng)。
對于“復仇者”系統(tǒng)公眾所知更少。該系統(tǒng)是“三角洲”生態(tài)系統(tǒng)的重要組成部分,由烏克蘭國防部創(chuàng)新中心開發(fā),通過自動分析無人機和固定攝像機拍攝的視頻實現(xiàn)目標識別和目標鎖定。在“復仇者”系統(tǒng)的幫助下,操作員能夠更快速、更高效地作出決策,并降低因疲勞而犯錯的風險。同時,該平臺不斷提升對各種軍事裝備的探測能力,即使在復雜條件下也能有效發(fā)現(xiàn)隱藏在樹林中的坦克,或在泥濘道路上行駛的步兵戰(zhàn)車。據(jù)媒體報道,“復仇者”系統(tǒng)在視頻流中檢測出了70%的敵方裝備,僅需22秒即可鎖定單一目標。
(三)以色列的“福音”“薰衣草”和“爸爸去哪兒了”系統(tǒng)
雖然公眾對以色列的人工智能軍事決策支持系統(tǒng)的相關信息仍然所知不多,但是相較其他軍事強國而言,媒體對以色列的報道仍然是最為詳細的。而且,由于以色列與其交戰(zhàn)對手(例如哈馬斯)相比在軍事技術方面具有明顯的領先優(yōu)勢,因此它在戰(zhàn)場上也有余力使用融合了人工智能技術的精確打擊手段。目前,媒體提到以色列軍方使用的人工智能決策支持系統(tǒng)有七八種之多,本文挑選其中最具代表性的三種進行考察,它們分別是“福音”(The Gospel)系統(tǒng)、“薰衣草”(Lavender)系統(tǒng)和“爸爸去哪兒了”(Where’s Daddy?)系統(tǒng)。
“福音”系統(tǒng)通過算法處理監(jiān)控數(shù)據(jù)以生成目標清單。據(jù)媒體報道,該系統(tǒng)將非人員目標分為3類:軍事目標(含地道等地下設施)、涉恐嫌疑人住宅以及所謂“震懾目標”——即通過攻擊民用設施“制造沖擊”,從而“迫使平民向哈馬斯施壓”。相較于下文中將要介紹的“薰衣草”系統(tǒng),“福音”的運作機制公開信息要少一些,但是,二者很可能同樣采用正類無標簽學習技術(positive unlabeled learning)進行目標判定。該系統(tǒng)的實質功能是界定建筑屬于民用設施抑或軍事目標,這種區(qū)分正是國際人道法要求攻擊方必須履行的義務。
“薰衣草”系統(tǒng)運用機器學習技術,對加沙居民與武裝組織存在關聯(lián)的概率進行量化評分。據(jù)報道,以色列軍官負責設定判定閾值——超過該數(shù)值的個體即被鎖定為攻擊對象,以軍方曾含糊其辭地承認存在類似工具,僅稱其為“用于交叉驗證情報來源的數(shù)據(jù)庫”。根據(jù)媒體對以軍情報人員的訪談,“薰衣草”系統(tǒng)生成的行動建議會提交給以軍情報分析人員審核,審核后的建議有時會呈報軍事指揮官。最終是否對目標實施打擊的決定權由軍事指揮官掌握!稗挂虏荨毕到y(tǒng)基一種機器學習算法,其識別機制源于對多源數(shù)據(jù)的綜合分析,包括目標人物的家族關系、手機通信數(shù)據(jù)以及線上線下行為監(jiān)控。與僅用于區(qū)分戰(zhàn)場物體的分類算法不同,“薰衣草”系統(tǒng)的目標發(fā)現(xiàn)功能無法通過偶爾收集標注訓練數(shù)據(jù)或合成輸入數(shù)據(jù)來實現(xiàn)。從本質而言,此類系統(tǒng)必須依賴持續(xù)監(jiān)控目標群體的大規(guī)模監(jiān)控基礎設施,唯有通過這種不間斷監(jiān)控,系統(tǒng)才能檢測出可能的敵對行為、需要采取安全干預(包括致命性打擊行動)的異常行為模式。
“爸爸去哪兒了”系統(tǒng)利用了手機定位追蹤技術,當被鎖定為軍事目標的人員進入特定地點(報道稱多為家庭住所)時,該系統(tǒng)會實時向以軍操作員發(fā)出警報,該地點隨即成為可實施打擊的位置。對于以色列使用人工智能在加沙“摧毀家園”的報道,聯(lián)合國專家表示:“如果這一令人震驚的披露得到證實,即以色列軍方確實使用了‘福音’‘薰衣草’和‘爸爸去哪兒了’等人工智能系統(tǒng)實施攻擊,再加上以色列并未充分遵守人權盡職原則以避免或減少平民傷亡和基礎設施破壞,就可以解釋為何加沙的死亡人數(shù)和房屋破壞程度如此之高”,“我們尤其感到關切的是,以色列……對可能同在打擊范圍內或附近的平民的安危毫不關心”。
各國研發(fā)和部署各種人工智能軍事決策支持系統(tǒng),主要是著眼于其軍事利益,然而這些系統(tǒng)在實現(xiàn)人道主義目的方面的潛力也不容忽視。從軍事角度看,將人工智能決策支持系統(tǒng)融入武力使用決策的主要優(yōu)勢在于速度與規(guī)模的雙重提升,其核心價值正在于運用計算科學、人工智能及機器學習技術,協(xié)助處理分析跨源情報信息流,這在作戰(zhàn)與目標鎖定環(huán)節(jié)尤為關鍵。這是因為速度與效率被視為戰(zhàn)場制勝要素。采用人工智能系統(tǒng)加速信息處理,常與縮短“OODA循環(huán)”直接關聯(lián),使指揮官得以更快決策,進而推動其軍隊比對手更迅速達成作戰(zhàn)目標。與此同時,專家們也注意到了人工智能決策支持系統(tǒng)蘊含的實現(xiàn)人道主義目的的潛力。配備高效決策工具可提升遵守國際人道法的可能性,例如可以為確保有關決策遵守比例原則、區(qū)分原則及預防原則提供關鍵信息支撐。正如紅十字國際委員會所強調,基于人工智能與機器學習的系統(tǒng)“能夠加速擴大可用信息的收集與分析范圍”,從而“可以輔助人類在軍事行動中更好地遵守國際人道法,最大限度降低平民風險”。然而,同樣不容忽視的是日益復雜的嵌入式人工智能系統(tǒng)(尤其是基于數(shù)據(jù)驅動型人工智能系統(tǒng))已引發(fā)新的特定風險。此類挑戰(zhàn)與人工智能在其他領域的應用困境具有同源性,但在武裝沖突的特殊場景與軍事決策的緊迫性疊加作用下,其風險可能被顯著放大。鑒于此類決策攸關民眾生命尊嚴及社群存續(xù),這種風險放大效應尤需警惕。
四、當前人工智能軍事決策支持系統(tǒng)對國際人道法的挑戰(zhàn)
根據(jù)國際人道法,任何目標定位和攻擊均需遵守區(qū)分原則、比例原則,并應采取一切可行的預防措施降低對平民的傷害。因此,各國在研發(fā)各種人工智能軍事決策支持系統(tǒng)時,除追求軍事效能外,還應考慮如何遵守國際人道法;谌斯ぶ悄芎蜋C器學習的決策支持系統(tǒng),或許能通過更快、更廣泛地收集和分析可用信息,幫助人類在開展敵對行動時作出更優(yōu)決策,從而遵守國際人道法并減少對平民的風險。然而,過度依賴算法生成的分析或預測,也可能導致更糟糕的決策或違反國際人道法的行為,并加劇平民面臨的風險,尤其是考慮到當前技術存在的局限性(如不可預測性、可解釋性的缺失、偏見)更是如此。
(一)人機交互中的“語義鴻溝”風險
“語義鴻溝”(semantic gap)是指人工智能系統(tǒng)在抽象推理任務中的一種能力缺陷,即相較于人類決策者,人工智能決策支持系統(tǒng)雖能在技術上識別訓練過的目標,卻無法理解其深層含義與情境關聯(lián)。這種認知缺失將顯著提升系統(tǒng)“誤判”風險(例如對人員或物體的錯誤標定),而類似錯誤在人類決策中幾乎不會發(fā)生。在武力使用決策語境下,此類標定行為攸關生死。事實上,目標識別和定位的過程可能引發(fā)一系列國際人道法問題,包括對個體受保護地位的判定,而這一判定直接決定其是否可被合法攻擊。而且更深層隱患在于,國際人道法要求武力使用的法律評估必須由人類完成,且其核心規(guī)則依賴人類的價值判斷,例如“存疑時推定平民地位”原則,或對“預期附帶平民傷害是否過度”的裁量(需對照具體軍事利益進行評估)。人類決策者在這些價值判斷中面臨巨大挑戰(zhàn),此類主觀裁量本質上也無法被編碼為人工智能系統(tǒng)的機器流程,若允許人工智能系統(tǒng)執(zhí)行此類價值判斷,不僅將對民眾生命造成不可逆的影響,更可能侵蝕人類尊嚴的根基。例如有媒體報道,2023年沖突爆發(fā)的初期階段,以色列軍方采取了前所未有的舉措:每殺死一名“薰衣草”系統(tǒng)標記的哈馬斯初級分子,就允許殺死最多15—20名平民,而且,如果目標是哈馬斯營長或旅長級別的高級官員,以色列軍方曾多次授權在暗殺一名指揮官時殺死超過100名平民。然而,在哈馬斯實施“阿克薩洪水”行動之前,以色列軍方在暗殺低級別武裝分子時,不允許造成任何“附帶損害”。當前這種情況嚴重違反了保護平民的區(qū)分原則和比例原則,與國際人道法的宗旨背道而馳。
(二)自動化偏見的風險
自動化偏見(Automation bias)指人類過度依賴自動化系統(tǒng)的認知傾向。人們常將繁瑣任務委托給技術系統(tǒng),認為自動化分析能力具有天然優(yōu)勢。其典型表現(xiàn)為兩類失誤:遺漏型失誤(操作員忽略系統(tǒng)未能識別的異常)與盲從型失誤(操作員未經(jīng)審慎判斷即采納系統(tǒng)的錯誤建議);谌斯ぶ悄艿臎Q策支持系統(tǒng)以超高速率分析數(shù)據(jù)并提出行動方案,其準確性常優(yōu)于人類,導致用戶自然產(chǎn)生信任依賴。這可能使操作者背離專業(yè)訓練與戰(zhàn)場直覺,即使在不適用場景下仍盲從系統(tǒng)輸出。若系統(tǒng)建議恰好符合操作者偏好,由于用戶更傾向于接受“舒適區(qū)”內的方案,該偏見將顯著加劇。加之人工智能技術的“黑箱”特性使系統(tǒng)局限性與偏差難以察覺,認知鴻溝進一步催生非理性信任。在軍事決策中,自動化偏見將引發(fā)災難性后果:操作員若對人工智能的建議全盤接納,可能導致戰(zhàn)場附帶損傷與非必要毀傷,違反國際人道法的比例原則和區(qū)分原則,最終釀成不可逆的人道代價。
事實上,人工智能決策系統(tǒng)生成目標的速度和規(guī)模也幾乎沒有給人類判斷留有空間。人工智能系統(tǒng)的運行速度和規(guī)模使得人類操作員很難真正評估是否應當遵循某一目標定位建議。因此,在使用半自主系統(tǒng)時,操作員對結果的控制可能流于表面,操作員的作為和不作為可能無法為歸責提供充分依據(jù)。根據(jù)《+972雜志》報道,“福音”系統(tǒng)每天可以生成100個目標,而以色列軍方以往每年只能生成50個目標;而根據(jù)《+972雜志》的另一篇報道,以色列軍方在軍事行動初期全面批準軍官采用“薰衣草”系統(tǒng)提供的殺戮名單,無需徹底核實機器作出這些選擇的原因,也無需審查其所依據(jù)的原始情報數(shù)據(jù),人類操作員通常只是機器決策的“橡皮圖章”(a rubber stamp)。在通常情況下,盡管人類操作員已經(jīng)知道該系統(tǒng)存在大約10%的錯誤率,且偶爾會標記僅與武裝組織有微弱關聯(lián)或毫無關聯(lián)的人員,他們在授權轟炸前仍然只會親自對每個目標進行“20秒”左右的觀察,而其作用只是為了確!稗挂虏荨睒擞浀哪繕耸悄行浴
(三)算法偏見的風險
“人工智能偏見”經(jīng)常是指“算法偏見”(algorithmic bias),它是當前全世界人工智能法律與政策辯論的核心議題。事實上,算法偏見通常不是由算法本身引起的,而是由數(shù)據(jù)科學團隊收集和編碼訓練數(shù)據(jù)的方式導致的,具體原因包括如下4個方面。(1)訓練數(shù)據(jù)中的偏見。有缺陷的數(shù)據(jù)是指不具代表性、缺乏信息、有歷史偏見或其他“糟糕”的數(shù)據(jù)。它導致算法產(chǎn)生不公平的結果,并放大數(shù)據(jù)中的任何偏見。在訓練階段,如果數(shù)據(jù)分類或評估不正確,也會產(chǎn)生偏見。(2)算法設計中的偏見。算法設計(編程錯誤)也會帶來偏見,例如人工智能設計師在設計過程中對相關因素的權重不公平,可能在不知不覺中轉移到系統(tǒng)中。加權通常是一種避免偏見的技術,因為它涉及調整數(shù)據(jù)以更好地反映實際人群。然而,它可能需要設計人員作出假設,這可能導致不準確并引入偏見。開發(fā)人員還可能根據(jù)自己有意識或無意識的偏見,在算法中植入主觀規(guī)則。(3)代理數(shù)據(jù)中的偏見。人工智能系統(tǒng)有時使用代理作為受保護屬性的替代品,例如種族或性別。但是,代理可能會無意中產(chǎn)生偏見,因為它們可能與原本要替換的敏感屬性存在錯誤或意外的關聯(lián)。(4)評估中的偏見。如果對算法結果的解讀是基于相關個人的成見,而不是客觀的結果,就會出現(xiàn)評估偏見。即使算法是中立的、數(shù)據(jù)驅動的,個人或企業(yè)對算法輸出結果的應用也可能導致不公平的結果,這取決于他們如何理解輸出結果。
在武裝沖突中,很難獲得針對特定軍事決策任務的高質量、代表性訓練數(shù)據(jù)。而且,在軍事領域中,這些數(shù)據(jù)集及其包含的假設缺乏透明度。因此,人工智能決策支持系統(tǒng)生成“殺戮清單”(kill list)的能力尤為令人擔憂。事實表明,這一過程所依賴的數(shù)據(jù)輸入本身就帶有已存在的社會偏見。這類數(shù)據(jù)會包含各類代理標簽,例如用于識別恐怖分子嫌疑人的特定特征,而這些特征很可能隱含著既有的偏見,包括顯性和隱性的種族及身份刻板印象。算法偏見導致人工智能決策支持系統(tǒng)在識別真正目標時可能發(fā)生錯誤和偏差,進而削弱了依賴此類系統(tǒng)的人類操作員遵守國際人道法(尤其是區(qū)分原則和比例原則)的能力。
五、中國的應對策略
中國高度重視人工智能軍事應用帶來的安全風險,呼吁各國尤其是大國對在軍事領域研發(fā)和使用人工智能技術采取慎重負責的態(tài)度,反對利用人工智能技術優(yōu)勢危害他國主權和領土安全。雖然人工智能決策支持系統(tǒng)只是一種數(shù)字工具,而不是武器,但是它一旦應用于軍事領域就應當受到國際人道法的約束。正如紅十字國際委員會所強調:“任何新的戰(zhàn)爭技術都必須在使用時符合現(xiàn)有國際人道法的規(guī)則,并且必須能夠以符合這些規(guī)則的方式使用。這是最低要求!备鶕(jù)國際人道法,武裝沖突當事方歸根結底是人類,他們負有遵守法律的責任,且必須為違法行為承擔法律責任。因此,涉及攻擊合法性等法律問題時,必須由人類行使最終判斷權。當然,這并不意味著決策者不得借助人工智能決策支持系統(tǒng)等技術工具輔助武力使用決策,解決問題的關鍵在于,應當在國際人道法的框架下,保留人類的控制權。中國應采取如下應對策略。
(一)確保人類參與和作出判斷
國際人道法的約束對象是人類,遵守和執(zhí)行法律的主體是人類,因違法行為被追究責任的也必然是人類。尤其需要強調的是,作戰(zhàn)人員肩負著國際人道法對交戰(zhàn)規(guī)則所作要求的獨特裁量義務。這項責任既不能轉移給機器,也不能轉移給軟件程序或算法。中國明確提出,“研發(fā)主體不斷提高人工智能可解釋性和可預測性,提升數(shù)據(jù)真實性和準確性,確保人工智能始終處于人類控制之下,打造可審核、可監(jiān)督、可追溯、可信賴的人工智能技術”。在無法解決人工智能系統(tǒng)不確定性、不可解釋性和不可預測性的前提下,為了確保對人工智能軍事決策系統(tǒng)的使用符合國際人道法,就只能確保適當?shù)娜祟悈⑴c,保留人類發(fā)揮其應有的能動性。換言之,在開發(fā)與使用人工智能軍事決策支持系統(tǒng)的所有考量中,各國及武裝沖突當事方必須確保:當決策攸關受沖突影響民眾的生命權、自由權及人格尊嚴時,人類控制權與判斷權必須得到保留。包括基于機器學習的決策支持系統(tǒng)在內,所有人工智能系統(tǒng)均應定位為一種輔助支持工具,而非削弱或剝奪人類決策能力的手段。唯有如此,方能切實保障國際人道法得到遵守,并捍衛(wèi)基本倫理準則。
(二)探索技術解決方案
中國高度重視人工智能的技術安全,呼吁“各國應不斷提升人工智能技術的安全性、可靠性和可控性,增強對人工智能技術的安全評估和管控能力”。一般而言,人工智能決策支持系統(tǒng)輸出結果必須實現(xiàn)一定程度的可理解性和可預測性,在對武力使用作出決策時更是如此。因此,人工智能軍事決策支持系統(tǒng)的研發(fā)者和使用者在設計、開發(fā)和使用階段,不僅要考慮系統(tǒng)算法的先進性,從而實現(xiàn)研發(fā)該系統(tǒng)的軍事目的,還要考慮如何提高該系統(tǒng)遵守國際人道法的能力。
一方面,要確保用于訓練的數(shù)據(jù)的可靠性和代表性,降低出現(xiàn)算法偏見的風險。開發(fā)者和使用者應確保用于人工智能決策支持系統(tǒng)輸入的數(shù)據(jù)集可靠、來源符合倫理且經(jīng)過驗證,并能代表操作環(huán)境,包括該系統(tǒng)預期使用的人文環(huán)境和平民環(huán)境,這些數(shù)據(jù)對于區(qū)分軍事目標與民用物體以及確保遵守國際人道法至關重要。與此同時,開發(fā)者和使用者還應采取措施,減輕人工智能決策支持系統(tǒng)設計和使用中基于性別、種族、民族、殘疾等類似形式的偏見,包括底層數(shù)據(jù)集和訓練方法中的偏見。
另一方面,研發(fā)人員在開發(fā)階段要強化測試和驗證環(huán)節(jié),確保系統(tǒng)的可靠性。開發(fā)人員應確保人工智能決策支持系統(tǒng)在模擬武裝沖突復雜性的環(huán)境中接受嚴格測試和驗證,包括快速變化的操作環(huán)境、對手可能采取的行為和欺騙策略,以及現(xiàn)實中的平民存在、活動、行動和反應;還應確保在人工智能決策支持系統(tǒng)的預期用途發(fā)生變更,或進行可能導致功能及效果改變的調整時,必須重新實施系統(tǒng)測試。此外,當行動后評估、戰(zhàn)斗損傷評估或實際沖突運用中的經(jīng)驗教訓表明系統(tǒng)輸出未達預期時,開發(fā)方同樣應啟動重新測試程序。
(三)建立國內法律審查制度
1977年《第一附加議定書》第36條“新武器”規(guī)定:“在研究、發(fā)展、取得或采用新的武器、作戰(zhàn)手段或方法時,締約一方有義務斷定,在某些或所有情況下,該新的武器、作戰(zhàn)手段或方法的使用是否為本議定書或適用于該締約一方的任何其他國際法規(guī)則所禁止!彪m然,人工智能軍事決策支持系統(tǒng)本身并非武器,但是,它對武器的使用具有決定性的支持作用,而且,從廣義上講它實質上已經(jīng)構成了整個武器系統(tǒng)的一部分,因此毫無疑問應當遵守上述條款的規(guī)定。而且,還有學者認為,“第36條的適用范圍可以認為涵蓋不屬于‘武器’類別的人工智能應用,因為這類系統(tǒng)符合‘戰(zhàn)爭手段或方法’的定義”。事實上,“方法和手段”涵蓋了最廣義的武器和使用方式,將人工智能軍事決策支持系統(tǒng)視為廣義的“武器系統(tǒng)”的一部分,還是“作戰(zhàn)手段或方法”,在實踐中并沒有什么區(qū)別。
中國明確提出,“各國應確保新武器及其作戰(zhàn)手段符合國際人道主義法和其他適用的國際法,努力減少附帶傷亡、降低人員財產(chǎn)損失”。中國2010年頒布生效的《武器裝備管理條例》第2條規(guī)定,“本條例所稱武器裝備,是指實施和保障軍事行動的武器、武器系統(tǒng)和軍事技術器材”,“武器裝備以及用于武器裝備的計算機軟件、專用元器件、配套產(chǎn)品、原材料的質量管理,適用本條例”。這里的計算機“軟件”是與“硬件”相對應的概念,中國法律對“計算機軟件”規(guī)定的外延非常寬泛,足以涵蓋人工智能軍事決策支持系統(tǒng),因此,中國應當將人工智能決策支持系統(tǒng)納入新武器的法律審查制度,在其作為武器系統(tǒng)的一部分或作為武器系統(tǒng)設計或預期使用過程的一部分時更是如此。例如,有學者建議在國家層面立法制定出臺《人工智能武器研發(fā)和使用審查條例》,以加強對人工智能武器的法律監(jiān)管。這些審查必須考慮相關系統(tǒng)技術特性,以及用戶與其交互時的認知和行為傾向,如自動化偏差,以及在武裝沖突中使用這些系統(tǒng)所面臨的特殊挑戰(zhàn)。而且,當人工智能決策支持系統(tǒng)以新方式使用或被修改從而改變其功能或效果時,必須更新此類審查。
(四)加強對人類用戶的培訓,明確有關系統(tǒng)的使用場景
中國不僅重視“對操作人員進行必要的培訓”,還要求“各國應加強對人工智能潛在風險的研判”。因此,研發(fā)和部署人工智能決策支持系統(tǒng)的國家,應確保任何使用者接受特定培訓,以充分了解系統(tǒng)如何運作、如何生成輸出及其局限性和脆弱性(例如,易受對抗性攻擊的弱點)。培訓還應使使用者能夠識別和緩解與此類系統(tǒng)交互時可能出現(xiàn)的人類認知傾向(例如,自動化偏差)的影響。這應通過在現(xiàn)實環(huán)境中的持續(xù)培訓、演習和模擬來補充。與此同時,人工智能決策支持系統(tǒng)的使用必須限于經(jīng)過專門且嚴格測試的場景。例如,僅在晴朗天氣和白天操作中訓練和測試以識別坦克的計算機視覺系統(tǒng),不應在夜間操作或惡劣天氣條件下使用;基于同樣的理由,具有持續(xù)在線學習功能的人工智能決策支持系統(tǒng)因其不可預測性更高,故而要格外謹慎。有學者明確表示,不僅對人工智能決策支持系統(tǒng)在某些領域的使用要完全禁止,例如將其納入核武器的指揮和控制系統(tǒng)之中,而且,對于具有持續(xù)學習功能的人工智能決策支持系統(tǒng)的使用亦應受到限制。
(五)保持人類控制,確,F(xiàn)有國際法問責機制有效運行
中國明確宣布“各國應始終堅持人類是最終責任主體”,并且支持“建立人工智能問責機制”。對違反國際人道法的國家和個人進行問責,是確保國際人道法得到遵守的重要保障。人工智能輸出的各種技術指標永遠不能替代人類依法作出的判斷,例如判斷某人或某物是否可以成為合法攻擊目標。這些法律判定的責任和問責(accountability)在于個人及其指揮官,不能轉移給機器或計算機程序;因為必須由人類遵守國際人道法,所以需要人類對攻擊的合法性進行判斷。同時,人工智能決策支持系統(tǒng)的運作方式以及人類用戶與其輸出的交互方式可能對問責程序帶來挑戰(zhàn),在執(zhí)行個人刑事責任時更是如此。
隨著人工智能決策支持系統(tǒng)所承擔任務的數(shù)量和范圍的增加,以及其操作的算法架構變得更加復雜(包括通過使用機器學習),測試系統(tǒng)所有潛在錯誤來源或識別系統(tǒng)遇到未專門設計或驗證的情境變得更加困難,這導致對傳統(tǒng)戰(zhàn)爭責任追究渠道可能構成難題。特別是基于機器學習的系統(tǒng),由于其擴大了潛在不可追責的傷害范圍,更容易出現(xiàn)測試階段、先驗使用和評審中無法預料的錯誤模式,從而更傾向于以不可預測方式發(fā)生故障。而且,當單一系統(tǒng)錯誤貫穿決策全鏈條時,則可能觸發(fā)責任彌散效應:眾多參與者相互推諉,皆以“無法為情境判斷失誤導致的損害負全責”為由規(guī)避責任。鑒于失誤既可能源于技術缺陷,亦可能來自人機交互故障,責任認定還將延伸至系統(tǒng)開發(fā)商、制造商及數(shù)據(jù)供應商。但是,對遠離武力實施現(xiàn)場的這些主體追責面臨根本性困境。這些因素共同折射出與致命性自主武器系統(tǒng)如出一轍的“問責缺口”(accountability gap)風險。
六、結語
隨著人工智能技術在軍事領域日益廣泛的應用,它所帶來的各種人道風險應當?shù)玫礁叨戎匾。從本文的論述中可以看到,這種新技術在提高作戰(zhàn)效能的同時,也導致了人道災難(主要是巨大的平民傷亡)的發(fā)生。整合了人工智能技術的軍事決策支持系統(tǒng),已經(jīng)被相關國家在沖突中廣泛使用,但是并未像致命性自主武器系統(tǒng)那樣得到國際社會的重視。本文系統(tǒng)梳理了人工智能決策支持系統(tǒng)的主要應用場景和代表類型,深入分析了它所帶來的人道主義風險及其背后的技術和社會原因,并從中國的角度提出了應對策略,希望能夠為我們了解、重視和解決這個問題有所裨益。
作者:張衛(wèi)華,中國社會科學院國際法研究所助理研究員。
來源:《國際法研究》2025年第6期。
