9月25日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能倫理規(guī)范》(以下簡(jiǎn)稱《倫理規(guī)范》),明確規(guī)定了人工智能活動(dòng)應(yīng)當(dāng)遵循的六大基本倫理規(guī)范,包括增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確?尚趴煽、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)。這六大基本倫理規(guī)范主要指向人工智能可能存在的缺乏人文關(guān)懷、產(chǎn)生偏見(jiàn)歧視、侵犯隱私與個(gè)人信息權(quán)、消解人的主體地位以及難以追責(zé)等諸多倫理風(fēng)險(xiǎn)問(wèn)題。這些問(wèn)題在當(dāng)下蓬勃發(fā)展的司法人工智能領(lǐng)域也不同程度存在,比如適用于審判領(lǐng)域中事實(shí)認(rèn)定和法律適用的“人工智能法官”裁判等。筆者認(rèn)為,“人工智能法官”的算法裁判要想取得主體地位,必須突破程序正義不足、缺乏人文關(guān)懷、隱私安全隱憂和可問(wèn)責(zé)性難題四大倫理障礙。
程序正義不足的倫理問(wèn)題!叭斯ぶ悄芊ü佟钡乃惴ú门兄阅鼙挥械膶W(xué)者支持以及司法實(shí)務(wù)接受,非常重要的一個(gè)理由或論據(jù)是“人工智能法官”所做裁判的準(zhǔn)確率與人類裁判的準(zhǔn)確率相當(dāng),甚至在某些對(duì)比測(cè)試中還遠(yuǎn)高于人類裁判者。但這只是看到了“人工智能法官”裁判所具有的某種程度的實(shí)體公正,卻忽視了現(xiàn)代法治理念更重視和追求的程序公正。具體表現(xiàn)在三方面:一是“人工智能法官”可能存在算法歧視與偏見(jiàn),這意味著其會(huì)沖擊法官中立性這一程序正義的基本要素;二是“人工智能法官”的“算法黑箱”會(huì)消解司法程序的透明性、公開性;三是“人工智能法官”的算法裁判是基于以往判決的大數(shù)據(jù)分析推導(dǎo)案件如何判決,這雖然符合類案同判要求,但它無(wú)法對(duì)當(dāng)前案件中當(dāng)事人和律師辯論、辯護(hù)爭(zhēng)議點(diǎn)和觀點(diǎn)進(jìn)行充分的識(shí)別、理解與回應(yīng),這使其忽視了當(dāng)事人的程序參與權(quán),裁判說(shuō)理也嚴(yán)重不足。
缺乏人文關(guān)懷的倫理難題。作為人類社會(huì)交往過(guò)程中最重要的糾紛解決方式之一,司法審判不僅要以法律為基本依據(jù),情和理也是重要的參考因素。裁判的效果應(yīng)該是法律效果、政治效果與社會(huì)效果的統(tǒng)一,這不僅要求在司法裁判過(guò)程中嚴(yán)格適用法律,還要有情理的溫度和人文的關(guān)懷!叭斯ぶ悄芊ü佟痹谒惴ú门羞\(yùn)作中能否考慮以及在多大程度上可以根據(jù)案件的具體情況考慮人文關(guān)懷或者釋法說(shuō)法?目前,已有的“人工智能法官”系統(tǒng)或者類人工智能法官系統(tǒng)還難以達(dá)到相關(guān)要求。
侵犯隱私安全的倫理隱憂。目前,“人工智能法官”裁判是以裁判文書類司法大數(shù)據(jù)的深度挖掘?yàn)榛A(chǔ)而產(chǎn)生的算法系統(tǒng)。但這種大數(shù)據(jù)挖掘會(huì)涉及裁判文書中法官、當(dāng)事人、其他訴訟參與人的隱私權(quán)與個(gè)人信息知情、同意權(quán)保護(hù)問(wèn)題。比如,法國(guó)2019年頒布的《司法改革法》第33條明令禁止基于法官“畫像”的大數(shù)據(jù)應(yīng)用(包括比較、評(píng)估、預(yù)測(cè))。違反者,最高將被判處5年有期徒刑及30萬(wàn)歐元的罰金。因此,基于裁判文書類司法大數(shù)據(jù)深度挖掘的“人工智能法官”很可能在某種程度上侵犯法官隱私權(quán)。
可問(wèn)責(zé)性難題的倫理風(fēng)險(xiǎn)。眾所周知,人類法官裁判案件時(shí)勤勉盡責(zé)不僅僅是職業(yè)倫理要求,也是因?yàn)橛邢鄳?yīng)的司法責(zé)任制度予以規(guī)范。但若由“人工智能法官”進(jìn)行實(shí)質(zhì)性審判得出錯(cuò)誤裁判結(jié)果時(shí),該由誰(shuí)來(lái)承擔(dān)相應(yīng)的責(zé)任?司法責(zé)任制能夠?qū)θ祟惙ü侔l(fā)揮作用,主要在于責(zé)任追究的“譴責(zé)”機(jī)制會(huì)給人類法官帶來(lái)身體的、精神的、財(cái)產(chǎn)的剝奪性、限制性“痛苦”等,但這對(duì)“人工智能法官”而言毫無(wú)意義。因此,該由誰(shuí)來(lái)承擔(dān)“人工智能法官”裁判錯(cuò)誤責(zé)任,值得深思。
針對(duì)前述“人工智能法官”面臨的四大倫理障礙,《倫理規(guī)范》已經(jīng)給出了一個(gè)制度規(guī)制的基本路徑,未來(lái)應(yīng)該在《倫理規(guī)范》明確的六大基本倫理規(guī)范以及相應(yīng)具體規(guī)范的基礎(chǔ)上,構(gòu)建適用于法律人工智能甚至司法人工智能這一特殊領(lǐng)域的專門的倫理規(guī)范。此外,從類型化角度看,“人工智能法官”的四大倫理障礙又可以分別納入到技術(shù)倫理障礙與責(zé)任倫理障礙之中,例如程序正義、人文關(guān)懷等問(wèn)題指向人工智能的技術(shù)與風(fēng)險(xiǎn)問(wèn)題;侵犯隱私、可問(wèn)責(zé)性難題涉及的是責(zé)任倫理障礙。這或許可以分別從技術(shù)升級(jí)改造層面、責(zé)任理論與分配機(jī)制重構(gòu)角度尋找突破口。
(作者:□特約撰稿 羅恬漩 段陸平 作者單位分別為同濟(jì)大學(xué)法學(xué)院、廣州大學(xué)法學(xué)院)
