內(nèi)容提要:在我國刑事司法領域,人工智能已高調(diào)介入,其初衷是“推進以審判為中心的訴訟制度改革”,而兩大具體要點則是“統(tǒng)一證據(jù)標準”和“防范冤假錯案”。但在實踐中,卻面臨著“簡易案件不需要,復雜案件不敢用”以及“補課而非升級”的尷尬境遇,效果不如預期。在探討所謂算法、技術(shù)之前,首先需要解決人工智能介入刑事司法的方向性問題,反思其與傳統(tǒng)刑事訴訟的基本原則和理論教義能否兼容。否則,人類的認知偏見即可能轉(zhuǎn)移給人工智能產(chǎn)品,進而形成“算法偏見”。確保人工智能“無偏見”地助力刑事司法,應當從形式意義上的證據(jù)指引轉(zhuǎn)向?qū)嵸|(zhì)意義上的證明輔助,實現(xiàn)基于證明原理的全面升級、基于證據(jù)評價的概率測算以及基于整體主義的認知監(jiān)控;同時,不得動搖人類作為司法決策者的主體地位,接受來自算法的支持而非支配,避免隱藏在人工智能產(chǎn)品中的“認知偏見”對司法實踐帶來難以控制的負面效應。
關(guān)鍵詞:人工智能;大數(shù)據(jù);算法;司法證明;認知偏見
一緣起:法律人工智能中的“偏見”
當前法學界乃至整個中國社會對于人工智能的關(guān)注,可謂前所未有。盡管有關(guān)計算機技術(shù)如何影響司法,抑或機器能否取代法官的討論,在域外已經(jīng)持續(xù)半個世紀,但直到今天,我們才在生活中如此真切地感受到人工智能所帶來的強烈沖擊。習近平總書記在主持中共中央政治局學習時就曾強調(diào):“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,加快發(fā)展新一代人工智能是事關(guān)我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機遇的戰(zhàn)略問題……要整合多學科力量,加強人工智能相關(guān)法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德!边@也意味著,人工智能作為近年來最熱的社會話題和理論熱點之一,已經(jīng)得到了最高層的重視。在司法領域,最高人民法院院長周強也曾表示,中國法院著力推動現(xiàn)代科技與法院工作深度融合,為審判工作插上現(xiàn)代科技翅膀,法院信息化3.0版主體框架已經(jīng)確立,智慧法院建設格局初步形成;將積極推動大數(shù)據(jù)、云計算、人工智能在司法領域的全面運用,著力把現(xiàn)代科技從強調(diào)工具性的淺層運用推向更深層次的規(guī)則治理和制度構(gòu)建,破解傳統(tǒng)手段無法有效解決的訴訟難題,實現(xiàn)訴訟制度體系在信息時代的跨越發(fā)展。
增效、減負、輔助、監(jiān)督,這是人工智能之于我國司法的基本定位,也是對其實踐效果的現(xiàn)實預期。盡管這并不能完全滿足基于人工智能的法律想象;但在探索之初,無疑是較為穩(wěn)妥的。強調(diào)“穩(wěn)妥”,雖然可以最大限度地避免錯誤,但人工智能的負面效應,卻并非只有明顯的“錯誤”方能造成。換言之,某些人工智能難以避免的“副作用”,或許不是一般意義上的“錯誤”,但也足以對司法決策產(chǎn)生誤導。例如,近期有研究發(fā)現(xiàn),在域外刑事司法領域逐步興起的人工智能評估系統(tǒng)可能誤導法官、檢察官以及警察產(chǎn)生偏見,這種偏見主要針對有色人種,是基于算法本身而形成的。實際上,但凡是人類作出的判斷和決策,就可能存在認知偏見,司法領域亦是如此。所謂“認知偏見”,即是可能導致系統(tǒng)發(fā)生錯誤的思維方式,而這種思維方式在大多數(shù)情況下是合理并且可以得到理解的。在此意義上,認知偏見所造成的錯誤,并不意味著其依附的認知系統(tǒng)總是錯誤或不可靠的;相反,正是認知偏見的存在,讓我們有條件更深入地了解認知系統(tǒng)的運作方式,進而對認知偏見加以控制。自然地,當人類回溯過往數(shù)據(jù)進而將其寫入算法時,人類的認知偏見便會轉(zhuǎn)移給人工智能產(chǎn)品。吊詭之處在于,人工智能介入司法,其本身一大目的即是消除司法人員決策過程中可能存在的認知偏見;而現(xiàn)實卻是,人類在設計算法的過程中,將其認知偏見“灌輸”給人工智能產(chǎn)品,以致人工智能產(chǎn)品以“中立”“客觀”“自動化”的姿態(tài)將這一偏見延續(xù)甚至放大。因此,倘若我們試圖讓人工智能系統(tǒng)在司法領域發(fā)揮原本應有的作用,即需要正視并理解其可能存在的“算法偏見”,首先防范或控制這一偏見對司法可能產(chǎn)生的負面效應,方能真正實現(xiàn)借助人工智能消除司法人員之認知偏見的實踐初衷。這也是在法律人工智能發(fā)展之初,我們應當正視并重視的課題;否則隨著法律人工智能的深入演進,一旦所謂“算法權(quán)力(agorithmic power)”形成,人類即會被視為受到計算、預測和控制的“客體”而非“主體”。倘若那時再試圖消除“算法偏見”,顯然制度和技術(shù)成本將會大大提高。
無論域外抑或我國,人工智能之于司法實踐可能產(chǎn)生的負面效應,目前更多地顯現(xiàn)于刑事司法領域。刑事司法關(guān)乎打擊犯罪與保障人權(quán)的平衡,稍有偏差即可能釀成不可挽回的錯誤和損失,因而也更為“敏感”地感知著新鮮事物帶來的各方面影響。因此,本文將論域集中于刑事司法,嘗試從人工智能介入刑事司法的實踐探索出發(fā),研判其實質(zhì)效果是否有如預期,算法偏見是否已然凸顯,進而對刑事司法領域的人工智能進行理論反思,并勾勒出人工智能之于我國刑事司法的未來圖景和發(fā)展方略。
二.人工智能介入刑事司法的實踐探索
在我國刑事司法領域,人工智能已然高調(diào)介入,并積累了一定的經(jīng)驗。具體而言,介入我國刑事司法的人工智能系統(tǒng)大體可以區(qū)分為兩類:一是司法領域普遍探索并可能影響刑事司法的,例如“類案智能推送系統(tǒng)”“訴訟服務系統(tǒng)”“法律機器人”等;二是僅限于刑事司法領域的人工智能系統(tǒng),以上海、貴州探索的刑事案件智能輔助系統(tǒng)為典型。囿于篇幅,本文之探討僅限于后者。
。ㄒ唬┬淌滤痉ㄒ肴斯ぶ悄艿幕疽c
按照時任中央政法委書記孟建柱在調(diào)研時給上海高院下達的任務,要求其研發(fā)“推進以審判為中心的訴訟制度改革的軟件”。這套系統(tǒng)“要解決刑事案件辦案中存在的證據(jù)標準適用不統(tǒng)一、辦案程序不規(guī)范等問題”,要“具有校驗、把關(guān)、監(jiān)督功能,可以及時發(fā)現(xiàn)證據(jù)中的瑕疵與矛盾,及時提示辦案人補正或作出說明,確保提請逮捕、移送審查起訴的案件符合法律規(guī)定的標準”;從而提升辦案質(zhì)量和效率,實現(xiàn)防止冤假錯案,減少司法任意性,推進以審判為中心的刑事訴訟制度改革落地見效的目標。由此可見,人工智能介入刑事司法的初衷是“推進以審判為中心的訴訟制度改革”,這也是十八屆四中全會以來我國刑事司法改革所遵循的基本脈絡;而借助人工智能所試圖提升的兩大具體要點則是“統(tǒng)一證據(jù)標準”和“防范冤假錯案”。
然而,關(guān)于前述之“統(tǒng)一證據(jù)標準”“防范冤假錯案”兩大具體要點,在理論上并非毫無爭議:其一,“以審判為中心”是否需要“統(tǒng)一證據(jù)標準”?由個案觀之,不同案件之間存在差異,是否類案均以同一標準收集證據(jù)方為正當,不無疑問;從縱向訴訟進程來看,“統(tǒng)一標準”并不符合訴訟規(guī)律,訴訟是一個遞進的過程,對于事實的認知也應當循序漸進,而不是自偵查始即一成不變,反而需要通過遞進式訴訟程序形塑遞進式證據(jù)(證明)標準。其二,“以審判為中心”是否緣于“防范冤假錯案”?如果僅僅聚焦于程序是否可能導致冤假錯案,隨之而來的問題可以非法證據(jù)排除為例:一旦非法程序取得的證據(jù)是真實的、不會導致冤假錯案,是否依然應當排除?是否可以據(jù)此認定事實?就此而言,唯有將程序正義、人權(quán)保障作為推進“以審判為中心”之緣由,方能有效回應上述疑問:無論證據(jù)是否真實、是否可能導致冤假錯案,只要取證手段違反正當程序、侵犯基本人權(quán),就應當予以排除,不得據(jù)此認定事實。在堅持程序正義、人權(quán)保障的基礎上,通過規(guī)范司法行為,自然能有效實現(xiàn)防范冤假錯案的效用;但不能就此混淆其因果關(guān)系,而將“防范冤假錯案”作為“以審判為中心”的根本目的和價值。
一項新的技術(shù)被運用至任何一個領域,均應當是問題導向的,人工智能之于刑事司法亦不例外。既然投入大量人力、物力、財力研發(fā)刑事司法領域的人工智能技術(shù),那么必然存在試圖借助人工智能解決的具體問題。但開篇之分析表明,將“推進以審判為中心的訴訟制度改革”作為人工智能介入刑事司法之初衷本無可厚非,而“統(tǒng)一證據(jù)標準”與“防范冤假錯案”作為其兩大要點是否合理,卻是值得商榷的。更重要的是,一旦人工智能運用的方向在初始階段即存在偏差,其究竟能獲取多少收益,較之成本是否仍然可觀,均有待實踐檢驗。
。ǘ┬淌滤痉ㄟ\用人工智能的實踐效果
源自貴陽市委政法委的數(shù)據(jù)顯示,自2017年政法大數(shù)據(jù)辦案系統(tǒng)正式運行以來,截至當年7月,共辦理刑事案件419起480人,同類案件的辦案時間同比去年縮短30%,因證據(jù)不足退回補充偵查率同比去年下降25.7%,因證據(jù)不足不批捕率同比去年下降28.8%,服判率同比上升8.6%,因證據(jù)不足作出無罪判決的案件“零發(fā)生”。顯而易見,從數(shù)據(jù)上看,大數(shù)據(jù)與人工智能的運用,在刑事司法實踐中的效果顯著。但吊詭的是,在2017年的一系列集中報道后,刑事司法領域的人工智能系統(tǒng)近期稍顯沉寂,現(xiàn)實中一線辦案人員似乎也并沒有得到預期的便利。以致于有學者指出,我國在頂層設計、官方政策、學術(shù)界研究方面對人工智能的重視程度超過不少國家,其話語熱度持續(xù)升溫,但卻在司法實踐運用效果層面遭受冷遇;相比之下,不少域外國家所呈現(xiàn)出的政府層面支持力度與廣度均頗為有限,但地方實踐中卻不乏亮點。
1.“簡易案件不需要,復雜案件不敢用”
在人工智能的具體運作樣態(tài)上,以上海的“206”系統(tǒng)為例,其將命案分成4種類型:第一種是現(xiàn)場目擊型,也就是現(xiàn)場有目擊證人或者有監(jiān)控錄像,能夠完整反映案件情況的命案類型;第二種是現(xiàn)場留痕型,比如現(xiàn)場有血指紋、血腳印等能夠證實犯罪嫌疑人作案的客觀性證據(jù)的命案類型;第三種是認罪供述得到印證型,也就是主要依靠犯罪嫌疑人的供述與其他證據(jù)印證從而定案的命案類型;第四種是拒不認罪型。而盜竊模型按照證據(jù)數(shù)量和種類的不同,分為當場抓獲型、重要線索型和網(wǎng)絡犯罪型三種類型。根據(jù)初步設想,證據(jù)模型不僅要有證據(jù)指引功能,還要有單個證據(jù)合法性校驗功能,證據(jù)和證據(jù)間互相印證的功能,以及證據(jù)之間邏輯判斷的功能。按證據(jù)數(shù)量和種類對犯罪進行分類的邏輯,在實踐中可能遭遇適用困難,例如獲悉一起網(wǎng)絡犯罪的重要線索,然后伏擊當場抓獲,應屬于上文中的何種類型?一起謀殺案,既有現(xiàn)場目擊者亦有現(xiàn)場留痕,但嫌疑人拒不認罪,又應當歸于何種類型?
這不難理解,為何有辦案人員在訪談中表示:“簡易案件不需要,復雜案件不敢用。”面對案件事實清楚、證據(jù)確實充分的簡易案件,其類型往往是辦案人員日常接觸較多且較為熟悉的。需要何種證據(jù)、證明力需要達到何種程度,辦案人員往往能夠如同條件反射一般熟練操作。這原本就不需要人工智能系統(tǒng)進行指引和輔助。而在復雜案件中,辦案人員當然會投入更多的精力,其審查程度自然也更高,在面對并不熟悉的人工智能系統(tǒng)時,辦案人員也更愿意相信自己的大腦而不是眼前的機器。“說實話我們自己也不知道這個系統(tǒng)的原理是什么,有時候我們覺得證據(jù)夠了,但系統(tǒng)覺得不夠;有時候我們覺得證據(jù)之間還有些矛盾,但證據(jù)規(guī)格符合系統(tǒng)要求,系統(tǒng)也沒有進行提示”,一位受訪檢察官說道。
人工智能系統(tǒng)的證據(jù)指引作用,主要是基于所謂“證據(jù)規(guī)格”而設計的,前已述及,其目的之一即是“統(tǒng)一證據(jù)標準”!白C據(jù)規(guī)格”本是源自我國刑事司法實踐而產(chǎn)生的概念,系對某類案件中所必須收集的證據(jù)及其基本形式、取證要求所作出的規(guī)范。但顯然,“證據(jù)規(guī)格”只是輔助性或指導性的,并非強制性的,目的是便于實踐操作和降低錯誤可能。因為,證據(jù)規(guī)格不能等同于證明標準,更不是證據(jù)判斷的全部內(nèi)容;單個證據(jù)之證據(jù)能力、證明力判斷以及全案證明標準、證明責任分配等問題,除了應當依據(jù)法律規(guī)范、經(jīng)驗法則、邏輯法則進行評價,還需要借助法律解釋和論證融入價值判斷,而這顯然是人工智能所力不能及的。簡言之,在具體案件中,可能超出“證據(jù)規(guī)格”的基本要求而收集“額外”的證據(jù),也可能毋需滿足“證據(jù)規(guī)格”的形式要件即可達到證明目的。但如今,人工智能系統(tǒng)以“證據(jù)規(guī)格”為基礎,對刑事案件進行監(jiān)控,在簡易案件中其實作用并不顯著,而在復雜案件中也不可能窮盡案件的一切可能。是故,當前基于“證據(jù)規(guī)格”而設計的人工智能系統(tǒng),似乎有著“雞肋”般的尷尬。甚至系統(tǒng)的設計者對此也不自信,就曾有系統(tǒng)設計者在為辦案人員培訓系統(tǒng)操作時表示:“當前系統(tǒng)存在不少問題,可能確實不太好用,我們也希望大家更多地反饋問題和需求,以便我們?nèi)蘸蟾纳。?/p>
2.“補課而非升級”
一線辦案人員對于人工智能系統(tǒng)的另外一個直觀感受是“補課而非升級”,即對過往刑事司法領域的不規(guī)范行為進行查漏補缺,而沒有實質(zhì)性地提升辦案質(zhì)量或效率。有關(guān)報道透露,“206”不僅能發(fā)現(xiàn)單一證據(jù)的瑕疵,還能發(fā)現(xiàn)證據(jù)之間的邏輯沖突之處:例如發(fā)現(xiàn)個案中7次供述的作案動機前后不一致,存在矛盾,需要辦案人員進一步查證;又如,《法庭科學DNA檢驗報告》顯示,公安機關(guān)共送檢了14處血跡,但是《現(xiàn)場勘查筆錄》顯示,從案發(fā)現(xiàn)場僅提取了11處血跡,送檢材料中多出來的3處血跡從何而來,需要辦案人員進一步說明。但這對于辦案人員而言,并非必須借助人工智能方能發(fā)現(xiàn)的瑕疵,倘若真的沒有發(fā)現(xiàn),只能說明相關(guān)辦案人員的能力或態(tài)度存在問題,當然不能以智能輔助不到位作為借口。易言之,人工智能并沒有帶給刑事司法本質(zhì)上的“升級”,就此而言,其仍然是工具范疇的“弱人工智能”。同時,刑事司法領域的人工智能系統(tǒng)似乎更關(guān)乎“公正”,即“防范冤假錯案”,而非“效率”。辦案人有任何一步不符合標準的要求,倘若沒有進行合理解釋就走不到“下一步”。這當然可能確保案件質(zhì)量、防范冤假錯案;但從辦案人員的反饋來看,僵化的系統(tǒng)設計,反而在某種程度上增加了負擔,并沒有實質(zhì)提升效率。例如一位受訪辦案人員就曾抱怨道:“我有一個盜竊案,206系統(tǒng)識別出卷宗缺少鑒定意見,這個案子盜竊的是包,確實沒注意做鑒定,多虧了系統(tǒng)提醒;另一個盜竊案,還是識別出缺少鑒定意見,但盜竊的是人民幣,這是不需要鑒定的,系統(tǒng)卻要求我進行解釋。為什么系統(tǒng)犯錯需要我來解釋?這就很不合理,從那以后我再也沒用過這個系統(tǒng)。”
由此可見,一方面,人工智能系統(tǒng)基于“證據(jù)規(guī)格”試圖“統(tǒng)一證據(jù)標準”,但即便同樣是盜竊案件,其所需要收集的證據(jù)也可能是不同的,并非類案即有統(tǒng)一的證據(jù)標準;另一方面,當前人工智能系統(tǒng)在實踐中的確可以提示辦案人員存在的疏忽,但也可能因為自身系統(tǒng)的僵化而降低效率,甚至增加不必要的工作量,與其“增效”“減負”的初衷相違背。在大數(shù)據(jù)、人工智能時代,任何技術(shù)的運用都應當充分平衡成本與收益,避免人力、物力、財力的浪費。倘若人工智能的高調(diào)介入,只能為刑事司法帶來“補課”而非“升級”,那這樣的收益顯然是不如預期的。
三.人工智能介入刑事司法的理論反思
有學者曾擔憂,人工智能的介入,正逐步使得法院成為判決工廠、法官如同流水作業(yè)線上進行操作的技工、審級制度的意義削弱、公檢法司不同角色的協(xié)同性和統(tǒng)一性加強,等等。但由前述之人工智能實踐效果觀之,至少在刑事司法領域,事實上尚未引發(fā)如此深刻的變革。當然,實踐探索效果不如預期,其原因可能是綜合的,技術(shù)不成熟、操作不順暢等問題在人工智能介入我國刑事司法之初期并不意外。畢竟,當前人工智能系統(tǒng)開發(fā)仍面臨著一系列技術(shù)障礙,諸如圖譜構(gòu)建過度依賴人工干預、情節(jié)提取的自然語義識別技術(shù)準確度不足、類案識別的準確率偏低、模型訓練的樣本瑕疵、算法的非可視化、偏離度預警的顆粒度悖論,等等。更何況,正如有學者指出的那樣:首先,當前我國法律領域并不擁有優(yōu)質(zhì)且海量的法律數(shù)據(jù)資源,數(shù)據(jù)不充分、不真實、不客觀以及結(jié)構(gòu)化不足的問題存在已久;其次,法律界并未形成合適且高效的大數(shù)據(jù)算法。近年來,人工智能領域?qū)儆诼?lián)結(jié)學派的深度學習算法獲得了重大突破,但并非深度學習就是人工智能。每種算法派別針對的數(shù)據(jù)領域、數(shù)據(jù)特點各不相同,在一個領域獲得突破的算法不見得就能適用于其他領域;加之,缺乏優(yōu)秀、適格的法律與計算機復合型人才,法律與計算機的對話才剛剛起步。上述多方面因素的綜合作用,導致了當前人工智能的些許尷尬。然而,在我們探討所謂算法、技術(shù)之前,首先需要解決人工智能使用的方向性問題,尤其是其介入刑事司法領域,與傳統(tǒng)刑事訴訟的基本原則和理論教義能否兼容,是需要進行理論反思的;否則一旦在初始化階段即走向錯誤方向,其成效自然很難符合預期。申言之,人類認知偏見是否可能通過人工智能影響刑事司法,首先需要借助刑事訴訟的基本原則和理論教義加以判斷,因為諸如審判中心、控辯平等、裁判中立等要素,本身即是致力于在刑事訴訟程序中排除偏見,進而實現(xiàn)司法公正的。
。ㄒ唬┤斯ぶ悄苁欠裼兄趯徟兄行?
前已述及,我國刑事司法領域引入人工智能的初衷即是“以審判為中心的訴訟制度改革”!耙詫徟袨橹行摹狈戏ㄖ螄易肪糠缸、保障人權(quán)的時代要求,符合現(xiàn)代刑事司法的自身規(guī)律;因此許多國家盡管國情有別、制度各異,但其訴訟程序都遵循或體現(xiàn)以審判為中心的理念。而“以審判為中心”的核心在于“以庭審為中心”,重在實現(xiàn)庭審的實質(zhì)化,保障控辯有效對抗和當庭質(zhì)證。過往,“以偵查為中心”的刑事訴訟造成庭審過分依賴偵查卷宗筆錄等書面材料,庭審流于形式。而“以審判為中心”正是強調(diào)克服庭審的形式化,防止將偵查、起訴中帶有明顯追訴傾向的意見簡單地、不加甄別地轉(zhuǎn)化為庭審結(jié)果,要求充分發(fā)揮庭審在事實認定和保障人權(quán)、實體公正和程序公正、有效防范冤假錯案等方面的決定性作用。因此,人工智能是否有助于推進“以審判為中心”,其關(guān)鍵要素在于是否能扭轉(zhuǎn)“以偵查為中心”“以案卷為中心”“以口供為中心”的實踐樣態(tài),進而保障庭審實質(zhì)化;否則,倘若人工智能反而加劇了“以偵查為中心”“以案卷為中心”“以口供為中心”的實踐弊病,無異于認知偏見以“算法”的形式隱藏于刑事訴訟程序之中,并且將其進一步強化。
就理想狀態(tài)而言,人工智能當然可能在推進“以審判為中心”的進程中發(fā)揮實質(zhì)效用,其積極影響包括但不限于:第一,人工智能可以對偵查階段即存在的主觀臆斷或傾向性意見進行有效提示,利用相對客觀中立的監(jiān)控,對認知偏見進行干預;第二,人工智能可以對證據(jù)的似真概率進行推算,避免辦案人員片面相信或否定某一證據(jù)之證據(jù)能力或證明力;第三,人工智能可以對訴訟過程中的不規(guī)范行為進行監(jiān)控,避免人為因素干擾程序公正與實體公正的兌現(xiàn)。但就當前我國刑事司法領域的人工智能系統(tǒng)而言,恐怕尚未達到上述之理想狀態(tài);凇白C據(jù)規(guī)格”而設計的系統(tǒng),雖然關(guān)注點主要在于證據(jù)指引,但其“統(tǒng)一證據(jù)標準”的出發(fā)點,反而使得偵查結(jié)論可能以更順暢的方式被審判所確認,不利于扭轉(zhuǎn)“以偵查為中心”的實踐樣態(tài)。申言之,經(jīng)過人工智能系統(tǒng)監(jiān)控的證據(jù)材料,如同包裝上了“經(jīng)由人工智能檢驗”的外衣,一方面,辦案人員可能對此放松警惕,降低進一步審查判斷及分析矛盾的積極性;另一方面,人工智能系統(tǒng)作為尖端科技,可能被賦予支配性的微觀權(quán)力,既然受其檢驗后不存在異議,辦案人員可能即會對其證據(jù)能力及證明力作出正面、肯定的判斷。須知,“以審判為中心”本質(zhì)上呼喚的是一種遞進式訴訟程序,各階段層層推演,從偵查到審查起訴再到審判,在認識上由淺入深、從感性認識過渡到理性認識,有別于不分主次的傳統(tǒng)訴訟階段論。但在僵化的人工智能系統(tǒng)指引下,證據(jù)體系是否在后續(xù)程序中仍然可能發(fā)生動搖和變化,判決的作出是否仍然依據(jù)案件最終發(fā)展的態(tài)勢進行終局判斷,而不是簡單地對偵查結(jié)論及人工智能檢驗結(jié)果加以確認,均存在疑問。
。ǘ┤斯ぶ悄苁欠裼兄诳剞q平等?
庭審實質(zhì)化強調(diào)控辯有效對抗和當庭質(zhì)證,其前提即是控辯平等?卦V和辯護作為刑事訴訟中兩項基本權(quán)能,既是審判權(quán)產(chǎn)生的基礎,也是保障審判權(quán)客觀公正運行的前提。二者之間具有本能對抗性和目標一致性,而本能對抗性是實現(xiàn)目標一致性之前提,缺少控辯有效對抗,就不可能兌現(xiàn)刑事訴訟的民主和公正;目標一致性又為雙方的對抗提供了保障,促進其在共同的目標和方向下大膽地辯論和反駁。平等的訴訟權(quán)利,是控訴與辯護進行有效對抗的基礎,倘若控辯雙方在訴訟中一強一弱,強勢一方即會在訴訟中占據(jù)支配地位,其意見自然會左右裁判者對案件的認識,甚至產(chǎn)生偏見。38因而,在大數(shù)據(jù)與人工智能時代,技術(shù)應當成為保障雙方訴訟權(quán)利平等的輔助工具,而不是片面地增強一方訴訟實力,否則即可能違背包括控辯平等原則在內(nèi)的傳統(tǒng)刑事訴訟原理。人工智能之于控辯平等的影響,可以從平等武裝和平等保護,亦即實質(zhì)平等與形式平等兩個層面加以理解。
平等武裝,意味著控辯雙方擁有平等的攻防手段,可以平等參與訴訟并擁有贏得訴訟的機會和能力,這是一種基于雙方實力的實質(zhì)平等。在平等武裝的前提下,人工智能的介入,需要保證控辯雙方共享技術(shù),這不僅僅是我國當前和未來會面臨的問題,在域外同樣如此。因為人工智能毫無疑問是一種高消費產(chǎn)品,往往只有偵、控、審三方有條件和能力運用,即使一些律師事務所也已開始購買人工智能產(chǎn)品,但這一產(chǎn)品的成本可能需要轉(zhuǎn)嫁在被追訴人身上,被追訴人作為個體在大多數(shù)情況下其實很難負擔這一額外費用。實際上,域外不少刑事司法智能系統(tǒng)或技術(shù)是由私人開發(fā)和生產(chǎn)的,但政府作為研究資助者和技術(shù)的主要購買者,具有獨特的運作優(yōu)勢。倘若共享人工智能技術(shù),承擔高額開發(fā)成本的一方顯然是不情愿的,無論是起步之初的我國,抑或探索已久的域外,人工智能技術(shù)上的平等武裝在短時間內(nèi)或許很難實現(xiàn),這就需要以形式平等彌補實質(zhì)平等的缺憾,即提供平等保護。
平等保護,意味著訴訟程序予以控辯雙方平等的機會和條件,裁判者予以控辯雙方平等的關(guān)注和傾聽,這是一種基于權(quán)利保障的形式平等。在平等保護的前提下,人工智能的介入,應當遵循科技正當程序(technological due process),即保障技術(shù)運用的透明度(transparency)、準確性(accuracy)以及可問責性(accountability),倘若控辯一方對于技術(shù)運用存有異議,則是可以提出反駁的。一旦控方利用人工智能進行證明輔助抑或訴訟決策,而辯方無法進行有力反駁,則控辯雙方的實力差距可能越來越大,某些原本存在偏見的認知也會被視作理性。例如,當前美國刑事司法中將算法運用于風險評估系統(tǒng),進而影響司法決策。但這一系統(tǒng)的運作有賴于數(shù)據(jù)輸入,也就是被追訴人接受風險評估訪談時提供的信息。而不透明的技術(shù)和決策過程,使得被追訴人越來越容易在無意中自證其罪,算法不過是涉及強制的諸多潛在工具之一。正因如此,有美國學者開始主張將憲法第五修正案和米蘭達規(guī)則運用于風險評估訪談,賦予被追訴人在訪談時保持沉默的權(quán)利,進而避免形成所謂“算法的強制”,為被追訴人提供平等保護,控制不透明的技術(shù)中可能存在的偏見。
。ㄈ┤斯ぶ悄苁欠裼兄谒痉ü?
前文提到人工智能系統(tǒng)之所以不能取代證據(jù)評價的方方面面,一個重要的因素即是其無法作出必要的價值判斷。但這里所謂的價值判斷是一般意義上的,即受到社會普遍認可的價值判斷。而人工智能系統(tǒng)本身并非完全沒有價值取向,系統(tǒng)基于算法進行運作,而設計者在設置系統(tǒng)算法的時候,其實就將自身的價值判斷灌輸于系統(tǒng)之中了。這也是為什么機器抑或算法的偏見,已經(jīng)開始受到廣泛關(guān)注。正如前文提到,當前美國刑事司法中運用的風險評估工具對被追訴人中的有色人種存有偏見,并認為幾乎所有基于算法的風險評估工具都存在這種偏見。就此而言,美國刑事司法長期以來的種族偏見問題在算法中同樣有所體現(xiàn),這一點上,機器與人類并無二致,甚至可能帶來違憲問題。增加算法的透明度,以及設計算法以消除原始數(shù)據(jù)中預先存在的偏差,是提升人工智能系統(tǒng)可信度與中立性的基本路徑,有助于確保算法符合憲法要求,并且得出更公平和更準確的測算結(jié)果。關(guān)于此項爭議,Wisconsin v. Loomis案即是典型。法官量刑時不僅要考慮對罪行的適當懲罰,還要預測犯罪者再犯的可能性,因而時常借助評估工具預測風險。但本案被告Loomis在判決后提出救濟之動議,辯稱法院對風險評估工具的依賴違反了他的正當程序權(quán)利。最終威斯康星州最高法院認為,法院在量刑中使用基于算法的風險評估工具并未違反被告的正當程序權(quán)利,即使這一評估方法既未向法院披露,也未向被告披露。雖然法院向被告提供了程序保障措施,用書面建議的方式提醒法官注意評估工具的危險性;這樣的“建議”卻并不太可能促使法官產(chǎn)生有實質(zhì)意義的懷疑,對評估工具的批評力度不足,亦未考慮到法官使用評估工具時承受的內(nèi)部與外部壓力。至少從學理上看,一項評估方法和原理作為商業(yè)秘密而進行非透明化運作的評估系統(tǒng),究竟是否存在偏見,是否可能影響司法公正,均是值得懷疑的。
當然,算法偏見在我國當前的人工智能系統(tǒng)中表現(xiàn)得并不那么明顯,很大一方面原因是當前所使用的算法其實并不明確,甚至較為低效,加之本質(zhì)初衷在于“補課”而非“升級”,因而更多地是朝規(guī)范和指引司法行為的方向設計,而非實質(zhì)性地影響司法決策。但未來隨著算法的升級和系統(tǒng)設計方向的改變,人工智能系統(tǒng)可能實質(zhì)性地影響事實認定、證據(jù)評價以及量刑等具體問題。至于是否有助于司法公正,關(guān)鍵取決于其角色定位于輔助還是決策,一旦替代人的決策主體地位,潛在的風險或許就難以控制。
四.人工智能介入刑事司法的未來圖景
盡管人工智能在我國刑事司法領域才剛剛起步,且實踐效果尚不如預期,未來的運用前景仍然是不可估量的。正如本文開篇所言,人工智能運用的方向不能在初始階段即存在偏差,否則即會形成“算法權(quán)力”以及“算法偏見”;其究竟能獲取多少收益,較之成本是否仍然可觀,均存在變數(shù)。因此,人工智能介入刑事司法的未來發(fā)展進路,應當至少滿足三方面基本要素:首先,遵循刑事訴訟基本原理,在推進“以審判為中心”的訴訟制度改革進程中,保障無罪推定、控辯平等、控審分離、審判中立等原則不受違背;其次,吸收域外人工智能探索的經(jīng)驗與教訓,遵循科技正當程序,保障技術(shù)運用的透明度、準確性、可問責性以及可反駁性;最后,正確把握我國刑事司法的現(xiàn)實需求,從最亟需人工智能加以輔助的領域著手,實現(xiàn)有效“升級”。申言之,我國刑事司法領域的人工智能系統(tǒng)以“統(tǒng)一證據(jù)標準”和“防范冤假錯案”為主要抓手,其核心關(guān)注點在于證據(jù),而在不久的將來,首先需要從形式意義上的證據(jù)指引轉(zhuǎn)向?qū)嵸|(zhì)意義上的證明輔助,邁出“升級”的第一步。更重要的是,所謂“證據(jù)指引”或多或少有一種“居高臨下”之感,司法人員面對人工智能的證據(jù)指引,倘若不選擇遵從,按照現(xiàn)有系統(tǒng)設計需要給出合理解釋,否則無法進行下一步程序;而“證明輔助”既然強調(diào)人工智能承擔輔助事項,即意味著司法人員仍然是作出最終決策的主體,即便與人工智能的計算和預測存在出入,也不必向人工智能進行所謂“解釋”,其目的之一自然是避免“算法偏見”主導訴訟程序。同時,刑事司法中的人工智能也能由此回歸其介入初衷,對司法人員在決策過程中可能存在的錯誤和偏見加以提示,以“中立”“客觀”“自動化”的姿態(tài)為司法人員提供智識參考和輔助。
。ㄒ唬┗谧C明原理的全面升級
長期以來,我國理論研究及司法實務中呈現(xiàn)出“重證據(jù)、輕證明”之趨勢,證據(jù)法學理論成果雖汗牛充棟,卻多為規(guī)則層面之探討,少有關(guān)注證明方法與原理的研究。證據(jù)規(guī)則依附于訴訟規(guī)則,但證明方法與原理并非規(guī)則所能囊括,對其缺乏理論關(guān)切的直接后果即是規(guī)則在實踐中難以貫徹。這一問題,在人工智能介入刑事司法的探索中同樣有所顯現(xiàn)。當前,我國刑事司法領域人工智能系統(tǒng)的成績主要體現(xiàn)在證據(jù)的數(shù)據(jù)及合法性規(guī)范方面,但也遇到了如何教會機器審查判斷證據(jù)的關(guān)聯(lián)性、真實性的挑戰(zhàn);而在證據(jù)合法性自動審查方面取得的進步主要體現(xiàn)在形式審查方面,在實質(zhì)審查方面仍有障礙。倘若試圖提升實質(zhì)效用,僅僅借助“證據(jù)規(guī)格”在“證據(jù)指引”向度進行“補課”是遠遠不夠的,利用人工智能在刑事證明中為裁判者提供輔助和參考,應當成為未來的“升級”方向;而不僅僅局限于“統(tǒng)一證據(jù)標準”,使得相互印證的證據(jù)鏈條在刑事訴訟進程之初即“排除合理懷疑”。畢竟,以審判為中心的刑事訴訟制度并不必然意味著“統(tǒng)一證據(jù)標準”,靜態(tài)而非動態(tài)的標準,在過往司法實踐中反而是助長“偵查中心主義”的;尤其是在大案、要案中,審判活動淪為對偵查結(jié)論的審查和確認,冤錯案件時有發(fā)生,而人工智能介入我國刑事司法的另一基本要點卻恰恰是“防范冤假錯案”。
“證據(jù)規(guī)格”本身更多地只是關(guān)注證據(jù)量和證據(jù)種類,即便涉及證據(jù)能力之審查,大多也止步于形式審查。以此為基礎所設計的人工智能系統(tǒng),顯然只是作為工具的“弱人工智能”。須知,證據(jù)能力之有無,需要形式審查與實質(zhì)審查相結(jié)合;且證明力之評價不在于“有無”而在于“強弱”,需要綜合整個司法證明過程加以判斷。我國刑事司法領域的人工智能系統(tǒng)倘若試圖走出“弱人工智能”的現(xiàn)狀,實現(xiàn)全面“升級”,則需要更多關(guān)注證明原理,在證明過程中給予實質(zhì)輔助。事實上,使用算法模擬和運行司法證明過程中的證據(jù)推理并非不切實際,早在十余年前即有域外學者對此加以闡釋,只是對于其可靠性始終存在爭論。當然,作為輔助的人工智能系統(tǒng)本就不是決策者,可以對其適用進行限制以避免喧賓奪主,但不應忽視其可能帶來的積極作用。具體而言,人工智能系統(tǒng)在司法證明過程中的輔助事項,包括但不限于:其一,針對證據(jù)能力之有無、證明力之強弱,給出概率上的參考。人工智能系統(tǒng)借助算法在綜合全案信息的基礎上,模擬和運行司法證明過程,進行證據(jù)推理,進而可以對證據(jù)能力與證明力作出具有實質(zhì)意義的審查判斷,并為決策者提供概率上的參考。之所以強調(diào)是概率上的參考,是因為人工智能系統(tǒng)本就作為輔助者且存在出錯的可能,尤其是針對證明力強弱,只能給出一個幅度區(qū)間,而不能作出絕對的評價。其二,知識上的補充;诖髷(shù)據(jù)樣本和人工智能系統(tǒng)的深度學習能力,人工智能系統(tǒng)比人類擁有更廣更深的知識儲備并不意外,司法證明過程不僅要遵循法律規(guī)范、經(jīng)驗法則和邏輯法則,還需結(jié)合大量法律以外的知識進行分析,因而作為輔助者的人工智能應當為決策者提供知識上的補充。其三,重復性事項,以及倘若沒有人工智能,辦案人員完成起來有一定難度的其他事項。辦案過程中有一些重復性、格式化的步驟,盡管沒有難度,但辦案人員仍需消耗時間、精力完成,而這類事項不涉及決策同時錯誤可能較低,可以探索由人工智能系統(tǒng)代為完成。而一些其他事項,辦案人員普遍反映有一定難度且容易疏忽,例如實物證據(jù)與電子數(shù)據(jù)鑒真、案件資金流與通訊記錄梳理、訊(詢)問記錄關(guān)鍵信息提取等,對此也可以考慮用人工智能系統(tǒng)加以輔助。
針對上述三點,結(jié)合現(xiàn)有技術(shù)以及國內(nèi)外實踐觀之,其可操作性亦是較為可觀的:首先,針對證據(jù)能力之有無、證明力之強弱,給出概率上的參考。即便是2015年的前南昌大學校長周文斌受賄案中,雖然并沒有借助人工智能系統(tǒng),被告人周文斌亦可以結(jié)合數(shù)學和概率知識進行計算,只是作為被追訴人一方其計算是否客觀存在疑問。但僅僅從技術(shù)上而言,人工智能的測算能力顯然是強于自然人的,司法人員運用人工智能系統(tǒng)針對證據(jù)之證據(jù)能力、證明力之概率進行測算,并無操作上的障礙。其次,關(guān)于訴訟程序中的重復性事項、格式化步驟,人工智能已經(jīng)證明了具有良好的執(zhí)行力和執(zhí)行效果。例如,美國諸多大型律師事務所已經(jīng)運用人工智能系統(tǒng)完成大量重復性工作,并且展現(xiàn)出超強的效率和準確性,使得律師可以將時間和精力投入其它難度更高的事項,進而合理分配工作重點。因此,只需要對已運用在大型律所的人工智能系統(tǒng)稍加改進,即可適應訴訟程序中重復性事項、格式化步驟的需要。最后,關(guān)于知識上的補充,則是難度最大的一項。因為即便人工智能具備強大的知識儲備和深度學習能力,但為了避免人工智能存在“認知偏見”,其深度學習的樣本及模式,以及運用的限度,均需要審慎把握,況且當前法律人工智能實踐中尚未普遍深入至如此程度,但可以確定的是,這種知識上的補充只是一種輔助,不能代替司法人員的決策。
。ǘ┗谧C據(jù)評價的概率測算
晚近英美證據(jù)法學轉(zhuǎn)型的標志,是從證據(jù)規(guī)則到司法證明過程的研究轉(zhuǎn)向,即“新證據(jù)學(New Evidence Scholars)”的興起。自此,數(shù)學知識和定量方法--如概率論、統(tǒng)計學和決策理論--開始被探究其可以給予司法證明何種指引。而在上世紀末,域外學者開始將司法證明與人工智能相聯(lián)系的時候,也是因為人工智能與“新證據(jù)學”一樣倡導廣泛使用數(shù)學方法。甚至,人工智能在對待數(shù)學知識上更加執(zhí)著,不僅將計算視為人工智能技術(shù)的核心,還認為其領域更合適的名稱是“計算智能(computational intelligence)”。實際上,法律從來離不開數(shù)學的幫助,而在未來,由于人工智能的連接作用,法律和數(shù)學的關(guān)系可能更加密切。當然,倘若盲目地相信數(shù)學公式,試圖得到效率和收益的最大化,即可能忽視數(shù)學“壞”的一面,尤其是帶有偏見的算法。對此,需要變通地看待司法證明中的概率測算,概率高不一定代表確信,但概率低卻可以說明合理懷疑的存在。如果說上述問題在過往還屬于理論層面的探討,尚未在我國刑事司法實踐中真正出現(xiàn),那么在周文斌案之后,司法證明中的概率測算則成為了需要切實面對的問題。周文斌在庭審中運用數(shù)學和概率知識對控方證據(jù)的證據(jù)能力與證明力提出了質(zhì)疑,還自制證據(jù)評價表,輸入各種評價指標和數(shù)據(jù),對證據(jù)是否屬實進行評價。最終,法庭并沒有對周文斌的質(zhì)疑進行直接回應,實際上這可能并非不愿回應,而是缺乏足夠的知識加以回應,周文斌憑借所掌握的數(shù)學知識質(zhì)疑控方證據(jù),但檢察官、法官并沒有等同的知識背景。因而,值得我們思考的是,未來面對這樣的局面,是否可能借助人工智能輔助來回應或者證實基于概率測算的證據(jù)質(zhì)疑。
在上述理論假設下,人工智能輔助實際上扮演的是知識補充的角色。而司法場域中,辦案人員的知識短缺并不僅僅在于概率測算或數(shù)理統(tǒng)計,更普遍的是面對“專門知識”時的無力。畢竟,“專門知識”作為刑事司法場域中建構(gòu)起的一種非常態(tài)話語,獨立于法律知識,因而產(chǎn)生特殊的權(quán)力關(guān)系。對于法官而言,“專門知識”是相對陌生的,影響其判斷的因素往往并非知識本身的正誤,法庭調(diào)查中的知識碰撞,甚至是細微之語言態(tài)勢、眼神交流也可能表現(xiàn)為知識的運行軌跡,進而造就支配關(guān)系。實踐中諸多案例表明,在鑒定意見業(yè)已取得“證據(jù)能力”并與其他證據(jù)“相互印證”的基礎上,即使控辯雙方就“證明力”展開知識上的交鋒,鑒定意見中“專門知識”的支配性權(quán)力依然主導著裁判的生成。那么,人工智能是否也可能在這方面提供輔助?答案是肯定的。域外實踐中,“專家機器人(expert robot)”已經(jīng)悄然進入理論視野。這種基于人工智能系統(tǒng)的“專家機器人”在運行過程中會對特定專業(yè)領域內(nèi)的已出版文獻進行檢索,以此為基礎,“專家機器人”會對專家證言及其科學依據(jù)進行系統(tǒng)評估,通過比對分析,專家證言所使用的詮釋方法在這一特定專業(yè)領域是否被廣泛接受、是否合乎邏輯、是否存在偏見,均會被“專家機器人”以法官所希望得到的詳盡程度加以呈現(xiàn)。同時,為了應對不斷更新的案件類型和實踐樣態(tài),并保持人工智能系統(tǒng)本身的精確性,“專家機器人”會基于強大的深度學習能力,吸收新的判例、規(guī)則、科研成果,以保證在評估專家證言可采性時盡量貼近現(xiàn)有標準。需要強調(diào)的是,“專家機器人”不會篡奪法官或陪審團作為事實發(fā)現(xiàn)者的主體地位,只會在對復雜的科學技術(shù)問題進行評價時提供完全中立、客觀的輔助。換言之,“專家機器人”既不是裁判者也不是專家本身,其所提供的輔助意見并不是某項科學技術(shù)問題的對與錯,而是科學證據(jù)本身成立與否在概率上的大或小。
。ㄈ┗谡w主義的認知監(jiān)控
作為一種證明模式,“整體主義”強調(diào)證據(jù)之證明力源于所有已輸入信息之間的相互作用,任何特定的證據(jù)原子之意義與價值在于和其他所有證據(jù)關(guān)聯(lián)、并為解釋者所用時扮演的角色,換言之,一個特定證據(jù)作為分析對象的證明價值,從根本上取決于其他所有證據(jù)!罢w主義”有別于形式化的“印證證明模式”,并非多個證據(jù)包含相同信息即可證明待證事項。將所有證據(jù)關(guān)聯(lián)并評價其相互作用,需要充分考慮存在的多種可能并進行證據(jù)矛盾分析,達到高度的認知融貫性方能作出肯定之判斷。其實,辦案人員很難在個案中均投入大量精力,進行如此精細的證據(jù)分析,此時即可發(fā)揮人工智能的輔助和監(jiān)控作用。更何況,認知科學研究表明,認知能力的有限性迫使我們使用策略或啟發(fā)式方法(heuristics)來幫助識別和使用關(guān)鍵數(shù)據(jù),進而解決所面臨的問題。實際上,這種所謂策略不僅對人類重要,人工智能亦然,只是人工智能的信息處理能力更為強大。此外,我們在探求事實真相的過程中還可能會不同程度地浪費認知資源,這時更需要選擇策略,是繼續(xù)補充我們已有的證據(jù)信息,還是找到?jīng)Q策所依據(jù)的關(guān)鍵證據(jù)信息即可。但可以肯定的是,辦案人員總是可能不得不放棄一些證據(jù)信息,以便明智地分配認知資源并做出相對正確的決定。此時,人工智能的介入,目的即是借助更為強大的信息處理能力,使得辦案人員可以將認知資源合理分配至關(guān)鍵信息的處理上,并提示其可能存在的信息遺漏、證據(jù)矛盾和認知偏見。
對于人類而言,信息加工過程受到多方面因素干擾,可能因此產(chǎn)生不同的認知結(jié)果。啟動理性認知系統(tǒng)抑或感性認知系統(tǒng),認知流暢度是高還是低,以及是否存在認知偏見,這些因素都可能影響認知融貫性和決策準確性,甚至導致錯誤認知。但人工智能系統(tǒng)的核心是算法,信息加工過程即是計算的過程,相對封閉,并不會像人類那樣受到諸多認知行為以外的因素干擾。因此,人工智能系統(tǒng)的模擬和計算結(jié)果,對于辦案人員相當于多了一個輔助參照系,當認知結(jié)果與系統(tǒng)計算結(jié)果存在較大出入時,即可提示其開啟理性認知系統(tǒng)并重新反思認知過程中是否存在認知偏見,以保證認知融貫性與決策準確性,避免錯誤認知。域外經(jīng)驗顯示,借助人工智能實現(xiàn)對裁判結(jié)果的預測,早在上世紀末即已開啟探索。法律人工智能不僅可以模擬法律推理和論證,還能對特定法官的裁判風格和偏好進行總結(jié),同時對過往判例進行類比、區(qū)分,進而得出更精準的裁判預測。這類人工智能產(chǎn)品不僅逐漸開始被部分法院所接納,成為法官的輔助工具,還被一些律師加以運用進而制定有針對性的訴訟策略,此外立法機關(guān)、行政機構(gòu)等也可以借此對法律的實施情況進行監(jiān)控。需要說明的是,復雜性是司法證明過程所必須面對的難題,也正是其魅力所在,人工智能系統(tǒng)不能代替人類的認知決策,更無法將案件的復雜性加以綜合考量;但一方面可以保證整體主義進路之下的信息完整性,另一方面可以作為輔助者提示決策者在面對復雜性時所可能產(chǎn)生的認知偏見。
五余論:算法的支持抑或支配?
除了證明輔助,人工智能在刑事司法領域還可以輔助偵查破案、風險評估、裁判預測以及同案同判等。本文之所以著重強調(diào)從“證據(jù)指引”轉(zhuǎn)向“證明輔助”,主要是基于我國現(xiàn)有人工智能系統(tǒng)之主要特點--以“證據(jù)規(guī)格”為基礎--而言的,至于其他領域的探索當然同樣值得理論關(guān)注。但一項基本原則是,不得動搖人類作為司法決策者的主體地位。人工智能可以作為輔助,進行知識上的補充和計算上的支持,卻不能被寄希望于成為司法決策的“自動售貨機”。正如有論者所言,算法權(quán)力作為一種新興權(quán)力并不把人類視為“主體”來對待,而是作為可計算、可預測、可控制的客體。大數(shù)據(jù)掌控者們借助越來越智能化的算法分析以及數(shù)據(jù)化的人類經(jīng)驗,持續(xù)開發(fā)著人工智能產(chǎn)品,在為人類生活提供越來越多便利的同時影響著人類的選擇和決策,并在此過程中積累起日益膨脹的財富、技術(shù)和人力資源。倘若放任“算法權(quán)力”的支配,則隱藏在人工智能產(chǎn)品中的“認知偏見”將會對司法實踐帶來難以控制的負面效應。對此,有必要強調(diào)的是,基于大數(shù)據(jù)分析和深度學習,即便人工智能系統(tǒng)確實可能在對同類案件的處理上減少偏差,但法律總是不斷面臨著全新的問題,因而大數(shù)據(jù)或人工智能不能取代獨立、理性的法律判斷,作出判斷的主體仍然是人類。一旦人工智能系統(tǒng)不再扮演指引者,而是作為訴訟進程中辦案人員的輔助者,那么這種輔助即是沒有強制性和支配力的,辦案人員可以選擇是否接受,即使不接受,也不需要進行所謂解釋。簡言之,進行司法決策的是人,承擔司法責任的也是人。
需要說明的是,本文絕非否定人工智能介入刑事司法領域的嘗試,不過是提出初步疑問,期望在未來得到回應。畢竟,當Alphgo接連完勝李世石、柯潔,成為圍棋“霸主”的同時,人工智能在我國刑事司法領域的探索才剛剛起步。正如同柯潔在輸給Alphago之后所感嘆的:“我相信未來是屬于人工智能的。可它始終都是冷冰冰的機器,與人類相比,我感覺不到它對圍棋的熱情和熱愛。”同樣,法律并非程式化的計算,在面對世間冷暖時,需要體現(xiàn)出應有的溫度,而這只有人類才有能力賦予。正因如此,至少在未來很長一段時間里,司法領域的人工智能仍是人類的輔助者,而非足以“戰(zhàn)勝”人類的挑戰(zhàn)者。司法當然需要得到來自算法的支持,但絕不是接受算法的支配。
【作者】謝澍(中國政法大學刑事司法學院副教授,法學博士)
