摘 要:由于行政處罰的負擔行政屬性,部分自動化是現(xiàn)階段自動化行政處罰的主流形態(tài)。自動化行政方式的高效可能導致處罰密度失衡,需要建立處罰標準動態(tài)調(diào)整機制予以平衡。在自動化行政時代需要堅持和發(fā)展正當程序原則,以解決在程序與證據(jù)方面面臨的挑戰(zhàn)。自動化行政對于數(shù)據(jù)的依賴與行政處罰中的數(shù)據(jù)特殊限制形成了悖論,應(yīng)當通過將數(shù)據(jù)納入公物法規(guī)制與擴張個人數(shù)據(jù)權(quán)利等方式,完善數(shù)據(jù)法治。責任方面,自動化行政處罰錯誤時的責任主體仍然是行政主體,歸責原則應(yīng)當采用無過錯責任。
關(guān)鍵詞:自動化行政 行政處罰 人工智能 《行政處罰法》修改
引言
隨著圖像識別等人工智能技術(shù)的不斷推進,自動化行政的適用場景更是愈發(fā)廣泛。在行政處罰領(lǐng)域中,自動化行政也早已屢見不鮮,可以從兩個案例中一窺端倪。第一個案例是2005年的杜寶良案。杜寶良每日駕駛機動車在同一地點違反禁行規(guī)定,均被電子監(jiān)控裝置抓拍,累計105次,均未得到及時通知。直到他順帶查詢違章時才發(fā)現(xiàn),被公安交通部門共處以罰款10500元的行政處罰。后交警部門以內(nèi)部執(zhí)法監(jiān)督的方式對行政處罰予以糾正,隨即杜寶良撤訴。第二個案例是發(fā)生在2018年的聲吶電子警察第一案。何先生駕車時忽然收到交警支隊的短信通知,提醒其涉嫌違法鳴笛。交警支隊提供的關(guān)鍵證據(jù)為聲吶電子定位系統(tǒng)的定位與識別抓拍。何先生對處罰不服,提起行政訴訟。最終一審法院認為證據(jù)確實,程序正確,駁回了原告的訴訟請求。
這兩個案例一舊一新,在許多方面反映出了自動化行政方式對已有行政處罰制度的挑戰(zhàn)。作為一類重要的也是經(jīng)典的負擔行政行為,行政處罰的法學理論與法律制度構(gòu)建都相對較為完整。但隨著技術(shù)和社會的不斷發(fā)展,自動化行政方式逐漸普及和加強,這使得行政處罰的形態(tài)發(fā)生了改變,也隨之帶來了新的法律問題,亟需理論上與制度上的回應(yīng)。恰逢《行政處罰法》頒布22年來的首次大修,對行政處罰制度變革的探討正當其時。
一、自動化行政方式下的行政處罰形態(tài)
所謂自動化行政,就是一種人工智能在行政領(lǐng)域中的具體運用,是指行政程序中特定環(huán)節(jié)或所有環(huán)節(jié)由人工智能或者說自動化系統(tǒng)代為處理,而無需人工的個別介入,從而實現(xiàn)部分或全部無人化的行政活動。依據(jù)自動化系統(tǒng)與人的分工情況、適用場景等因素,可以將自動化行政區(qū)分為自動化輔助行政、部分自動化行政、無裁量能力的完全自動化行政、有裁量能力的完全自動化行政等多個級別。
(一)部分自動化——自動化行政處罰的主流形態(tài)
在判斷自動化行政的級別,尤其是區(qū)分部分自動化與完全自動化時,需要對行政活動的具體環(huán)節(jié)進行進一步區(qū)分,從而判斷自動化系統(tǒng)與人在具體環(huán)節(jié)中的分工。從信息處理的角度,對于一項特定的行政執(zhí)法活動,可以將其具體區(qū)分為識別與輸入(surveillance)、分析與決定(analysis)、輸出與實現(xiàn)(action)三個環(huán)節(jié)。在杜寶良案與聲吶電子警察案中,自動化系統(tǒng)對違章車輛進行了識別與證據(jù)固定,獨立完成了信息的識別與輸入。而在聲吶電子警察案中,系統(tǒng)還自動推送了違法通知短信,實踐了信息的自動輸出與實現(xiàn)。但在這兩個案例中,分析與決定環(huán)節(jié)仍然需要由人工完成。這也與《道路交通安全違法行為處理程序規(guī)定》中所設(shè)計的現(xiàn)行制度精神相一致。在現(xiàn)階段,這兩個行政處罰案例均屬于部分自動化行政行為,尚未實現(xiàn)行政程序全過程的完全自動化。
(二)不具有裁量能力的完全自動化——行政處罰領(lǐng)域的特別限制
實踐中,一些其他行政行為類型的自動化行政程度要走的更遠。廣西、深圳等地的行政許可已經(jīng)在特定事項上實現(xiàn)了無人干預自動審批,在分析與決定環(huán)節(jié)也實現(xiàn)了無人化,達到了完全自動化。這些自動審批事項一般比較簡單,不存在裁量空間,屬于無裁量能力的完全自動化級別。但是在行政處罰中適用完全自動化行政方式(即使是無裁量的情況下),仍需高度謹慎。與一般性的行政許可不同,行政處罰是負擔行政,將會對相對人的權(quán)利產(chǎn)生結(jié)果性的不利影響。因此其在正當程序上比一般性的授益行政行為的要求更高。在行政處罰的過程中,應(yīng)當詳細說明理由、展示證據(jù),充分保障相對人的申辯權(quán)。這是現(xiàn)階段的自動化行政難以做到的。更進一步說,即使技術(shù)上可以實現(xiàn),還需要考慮到相對人的可接受度。行政處罰中行政主體與相對人的關(guān)系相對緊張,新技術(shù)手段的運用需要更為謹慎,以降低相對人的疑慮。在聲吶電子警察案中,當事人的一大不滿就在于對聲吶證據(jù)的技術(shù)可靠性的懷疑。如果行政處罰實現(xiàn)完全無人化,這種疑慮將更為激化。這種心理上的疑慮和可接受度也應(yīng)該當被納入考量范圍,正義不僅應(yīng)得到實現(xiàn),而且要以人們看的見的方式實現(xiàn)。因此現(xiàn)階段自動化行政處罰仍然主要限于部分自動化方式,自動化行政尚未在主體論方面給行政處罰制度帶來質(zhì)的沖擊。其在主體方面的影響主要局部體現(xiàn)在技術(shù)主體的介入對責任主體的影響。這部分將在后文予以進一步探討。
(三)具有裁量能力的完全自動化——對自動化輔助異化的警惕
現(xiàn)階段由于技術(shù)和制度的限制,自動化系統(tǒng)還難以對不確定法律概念、效果裁量這樣的不完全信息做出妥善的決策,因此還尚未出現(xiàn)里程碑式的能夠自我進行裁量的完全自動化行政行為,甚至在代表性國家的行政程序法中更是明確規(guī)定自動化行政只能適用于不存在裁量的情況。對于行政處罰來說,正當程序的要求更高,距離這種更高級別的完全自動化行政的還尚遠。
但是,從國內(nèi)外實踐來看,利用人工智能算法做出決策參考的情況已經(jīng)逐漸出現(xiàn),包括利用人工智能算法協(xié)助特定地區(qū)交通管制措施的確定;指導犯罪預防措施的實施;甚至是輔助刑事司法裁判。我國的《新一代人工智能發(fā)展規(guī)劃》中也提出要進一步開發(fā)適于政府服務(wù)與決策的人工智能平臺,研制面向開放環(huán)境的決策引擎,在復雜社會問題研判、政策評估、風險預警、應(yīng)急處置等重大戰(zhàn)略決策方面推廣應(yīng)用。在行政、司法、城市管理、環(huán)保等多方面發(fā)揮人工智能的作用,實現(xiàn)社會治理智能化。
這種算法的決策輔助,從形態(tài)上看,嚴格來說只是屬于自動化輔助行政,各個環(huán)節(jié)最終還是由人工把關(guān),自動化的級別并不高。然而實踐中很有可能出現(xiàn)由于對人工智能的信任,對機器的建議不加懷疑接納的情況,使得人工智能的決定在事實上就已經(jīng)變得自動存在了。甚至當人類質(zhì)疑人工智能的自動化決策建議時,會反而被視為魯莽行事。在行政處罰中應(yīng)當對此尤為警惕,應(yīng)當通過程序的周密設(shè)置,對人工智能的自動化決策進行有效監(jiān)督,對個案情境進行充分考察。
二、處罰密度失衡——處罰標準的動態(tài)調(diào)整
(一)高效帶來的處罰密度失衡
自動化行政方式具有高效、客觀等固有優(yōu)勢,因此很快在各個行政領(lǐng)域中普及開來,這也包括行政處罰。但也帶來了大量挑戰(zhàn),這些挑戰(zhàn)需要相應(yīng)的制度回應(yīng)。有趣的是,本文將探討的第一個挑戰(zhàn)卻正來源于自動化行政的最大優(yōu)勢——高效。高效在節(jié)約成本帶來便利的同時,卻使得行政處罰的疏密程度嚴重失衡,產(chǎn)生了實質(zhì)性的處罰不當問題。
杜寶良案就是一個典型。在自動化行政方式出現(xiàn)之前,交通違章等行政處罰的執(zhí)法工作主要由人力完成,執(zhí)法成本相對較高。如果想要對所有的交通違法行為都予以處理,其需要投入的人力成本將會是天文數(shù)字。因此在人力執(zhí)法時代,交通違章實際上是一種“抽查”。違章十次,可能僅僅會被抓住一次。從經(jīng)濟學的角度,要實現(xiàn)對違法行為的利導,就應(yīng)當保障“違法損失期望>違法收益”,而“違法收益”又等于“被處理的概率”乘以“被處罰的力度”。在人力執(zhí)法中,由于被處罰的概率遠遠小于百分之百,因此為了實現(xiàn)“違法損失期望>違法收益”,就必須相應(yīng)地提高“被處罰的力度”。
而交通抓拍等自動化行政方式的出現(xiàn),從根本上改變了這一局面。自動化系統(tǒng)一旦設(shè)置,就可以風雨無阻的24小時進行監(jiān)控,違法行為被處理的概率在特定條件下將被大大提升,甚至提升到接近百分之百。而此時,原有的處罰力度卻沒有得到相應(yīng)的調(diào)整,最終從整體上看,行政處罰的密度嚴重失衡,執(zhí)法畸重。
(二)處罰標準動態(tài)調(diào)整下的再平衡
從“被處理概率*處罰力度=違法損失期望”這一模型中,亦可以探尋到兩種解決處罰密度失衡的思路。第一種是降低自動化行政處罰的效率,從而緩解處罰過密的問題。這一方法看似因噎廢食,但是從特定角度上看,卻有一定意義。比如有美國學者指出,“低效和不確定性”看似是缺點,但也更有利于情境化的決策、可以一定程度上降低技術(shù)對隱私等的危害、在輕微違法上給予公民相對更多的自由空間。這種觀點如果用一種更加東方的表述,那就是“法理不外乎人情”,通過適當降低自動化行政的效率來緩解自動化執(zhí)法的僵化。但這種方法的調(diào)整程度和范圍都相當有限,否則不僅影響自動化行政方式高效優(yōu)勢的發(fā)揮,更可能破壞行政執(zhí)法的嚴肅性與可預測性。
因此本文提出的回應(yīng)方式主要還是基于第二種思路:隨著處罰概率的提升相應(yīng)降低處罰力度,換言之,建立行政處罰標準動態(tài)調(diào)整機制。傳統(tǒng)的行政處罰的處罰程度由法律法規(guī)所設(shè)定的具體條件、行為、情節(jié)、結(jié)果所限定。這個范圍一般是靜態(tài)的,且相對固定。如果出現(xiàn)原有靜態(tài)標準中沒有明確的因素,行政機關(guān)可以進行裁量,但行政機關(guān)的裁量不得突破原有標準的上下限。這個上下限的范圍一般不會太寬,否則會賦予行政機關(guān)過大的裁量權(quán)。而在傳統(tǒng)行政處罰的靜態(tài)標準之下,被處罰概率這一因素并未被納入處罰程度的考量。當技術(shù)手段極大地提高了被處罰概率時,行政機關(guān)能做的也僅僅是在不大的裁量范圍內(nèi)進行平衡,而這對于自動化行政方式下被處罰概率動輒數(shù)十倍甚至上百倍的提高來說是遠遠不夠的。
靜態(tài)標準的不足也不僅限于自動化行政領(lǐng)域。行政處罰實踐中經(jīng)常出現(xiàn)的另一個問題是,作為處罰依據(jù)的法律法規(guī)規(guī)定了具體的處罰額度,但是由于經(jīng)濟發(fā)展、通貨膨脹、地區(qū)發(fā)展不均衡等原因,許多原有額度已經(jīng)明顯過低,無法起到足夠的懲罰效果。想要調(diào)整處罰額度,就必須通過法律法規(guī)修訂來完成,這存在不可忽視的周期與成本,甚至可能剛剛修訂就已經(jīng)滯后。這反映了靜態(tài)標準的本質(zhì)缺陷:靜態(tài)的標準無法適應(yīng)日新月異的動態(tài)社會。
為了解決這些問題,應(yīng)該建立行政處罰標準的動態(tài)調(diào)節(jié)機制。法律法規(guī)在設(shè)定行政處罰額度時,不再局限于條件、行為、情節(jié)、結(jié)果等固定指標,還應(yīng)該加入處罰概率、經(jīng)濟發(fā)展情況等可變指標,從而使得行政主體在進行法律適用時,可以根據(jù)當前情況進行裁量。需要注意的是,從理論上,這并未增加行政主體的裁量空間,只是將其限定因素從固定指標變成了可變指標,而這些可變指標在每個特定時間是可以根據(jù)一定計算方式確定的。換言之,關(guān)于可變指標本身,行政機關(guān)的裁量權(quán)并沒有增加。但從實踐上,這種可變指標的確定過程的確可能給了行政機關(guān)一定“活動”的空間。為了防止這種情況的出現(xiàn),必要時可以通過裁量基準來對可變指標進行確定,然后定期對裁量基準進行更新。裁量基準的修訂成本要遠低于立法修改,從而實現(xiàn)靈活性與確定性的平衡。
三、處罰程序與證明方式的挑戰(zhàn)——正當程序原則的新發(fā)展
(一)現(xiàn)有程序制度在自動化行政處罰中的貫徹不足
行政處罰程序體系構(gòu)建相對比較完善,《行政處罰法》及相關(guān)法律法規(guī)中對告知、說明理由、當事人陳述和申辯、聽證等具體程序制度進行了規(guī)定,這些具體程序在限制行政權(quán)、保護相對人權(quán)益、增強行政行為的確定性與合法性等方面發(fā)揮了重要作用。自動化行政方式并沒有改變行政處罰的行為性質(zhì),其仍然屬于一種行政處罰行為,那么《行政處罰法》等法律法規(guī)中規(guī)定的相應(yīng)程序性要求就應(yīng)當也適用于自動化行政處罰。雖然比較法上,有國家允許對某些批量做出的自動化行政行為予以一定的程序豁免,如無需簽名、特定情況下可以不說明理由、無需事先聽證等,但這種程序豁免都具有很大的局限。尤其是行政處罰屬于負擔行為,如果沒有特別的理由,且未經(jīng)過立法明確,不應(yīng)減損自動化行政處罰的程序要求。
自動化行政處罰的實踐,尤其是早期實踐中,部分環(huán)節(jié)的無人化使得一些現(xiàn)有程序制度未能在自動化行政中得到完全的貫徹。比如杜寶良案中相對人之所以會被接連處罰105次而不自知,正是因為其沒有及時地被告知。傳統(tǒng)的人力執(zhí)法,現(xiàn)場開設(shè)罰單并送達當事人,通過執(zhí)法者與相對人的直接接觸,可以對告知、說明理由、陳述與申辯等程序環(huán)節(jié)予以現(xiàn)場實施。而自動化行政處罰所實現(xiàn)的無人化,喪失了這種人與人之間的直接接觸,繼續(xù)適用傳統(tǒng)的現(xiàn)場執(zhí)法程序難以再滿足要求。
這種現(xiàn)有程序制度貫徹不足的問題,其解決的基礎(chǔ)思路有三:其一,需要在理念上認識到,自動化行政處罰是一種行政處罰行為,因此應(yīng)當適用行政處罰法律體系中規(guī)定的相應(yīng)程序制度,并不因為行政方式的改變而降低行政主體的程序義務(wù)。其二,應(yīng)當通過新的技術(shù)手段和程序規(guī)定,在具體制度上實現(xiàn)現(xiàn)有程序要求。比如通過短信的即時推送來實現(xiàn)及時告知。在聲吶電子警察案中,相對人就通過短信、道路電子屏等方式即時獲悉了自己的受罰情形。其三,自動化行政處罰具有的非現(xiàn)場性、高效性等特征,使得部分程序制度的實現(xiàn)方式可能改變。最典型的趨勢在于說明理由、陳述和申辯等程序的重心可能后移,從事前、事中程序變?yōu)槭潞蠹m正程序。比如一項交通違章處罰,在人力執(zhí)法時代,現(xiàn)場處罰能夠即時進行說明理由并聽取陳述、申辯。而在自動化行政方式下,執(zhí)法者可以事先通過短信等方式進行簡單通知,當事人如果不服,可以通過網(wǎng)絡(luò)平臺、行政服務(wù)中心等媒介獲取違法事實證據(jù)材料等更多信息,提出自己的申辯,并要求人工介入,對可能的錯誤進行糾正。從而在保障相對人程序權(quán)利的同時,發(fā)揮自動化行政處罰的高效優(yōu)勢。
(二)證據(jù)形態(tài)與證明方式改變所帶來的可接受性與正當性難題
除了現(xiàn)有程序制度的貫徹不足,自動化行政所引發(fā)的程序挑戰(zhàn)更體現(xiàn)在其帶來了證據(jù)形式與證明方式方面的全新問題。在前述聲吶電子警察案中,核心爭議在于聲吶抓拍的證據(jù)證明力,其本質(zhì)是:在自動化行政方式下,隨著新技術(shù)的不斷運用,證據(jù)的形態(tài)與證明方式發(fā)生改變。這種改變帶來了證據(jù)形式的法律認可問題與公眾接受度的難題。對于前者,可以通過法律法規(guī)的修訂予以解決,但是后者的矛盾則沒有這么簡單。
在自動化行政的早期運用中,自動化系統(tǒng)生成的證據(jù)往往比較直接、明了,符合人們的常識,如交通抓拍中所抓拍到的闖紅燈照片。但隨著技術(shù)的進步,越來越多超越人們常識的方式也開始出現(xiàn),比如聲吶電子警察。這一方面正說明了技術(shù)進步使得自動化行政可以完成那些人工難以完成的任務(wù),但也恰恰挑戰(zhàn)了人們的可接受度。人們會本能地對這種新技術(shù)手段作為證據(jù)的可靠性存在一定懷疑。
如果說聲吶電子警察尚且還屬于“看得見、聽得到”這樣的常識邊緣,人工智能技術(shù)的進一步發(fā)展將會進一步挑戰(zhàn)人們的接受極限。比如人臉識別,人工智能基于各種算法,其對人的識別方式與人類并不相同,因此很多時候人眼所無法識別的差異,卻可以被人工智能區(qū)分;而當人眼被變裝所欺騙的時候,人工智能卻可能“透過現(xiàn)象看到本質(zhì)”。這是技術(shù)的進步,但也是一個“反常識”的證據(jù)。
有些表面上反常識的證據(jù)形式和證明方式,仍然可以通過一定方法予以解釋。但隨著機器學習等人工智能算法的發(fā)展,部分人工智能算法可以自發(fā)學習和演進,其決策方式不是簡單的線性一對一,而是變得撲朔迷離,也就是所謂的“算法黑箱”。人們只知道其輸出了特定結(jié)果,這個結(jié)果從統(tǒng)計學上看大概率正確,至于為什么得出這個結(jié)果,人們卻可能一無所知。此時可接受度所受到的挑戰(zhàn)就將十分巨大。特別是在行政處罰中,如果不能得到一個讓相對人可以理解的解釋,僅僅用概率上的正確,是無法讓被處罰人滿意的。這種可接受性上的缺失,也將直接影響到行政處罰的教育與利導效果。
更進一步說,算法黑箱對于行政處罰正當性的影響還在于關(guān)系到在特定行政處罰中,證明標準是否達到。關(guān)于行政處罰的證明標準學界尚未有統(tǒng)一觀點,但一般認為,像拘留、吊銷證照等對相對人人身、財產(chǎn)權(quán)利有重大影響的重大行政處罰案件,應(yīng)當適用確鑿證據(jù)標準,也就是需要能夠排除任何合理懷疑。那么一個難以被解釋、難以被理解的、仿佛來自黑箱之中的人工智能算法所作出的結(jié)論,能否構(gòu)成確鑿證據(jù)標準的基礎(chǔ)?換言之,對于這樣算法黑箱的質(zhì)疑是否構(gòu)成一種合理懷疑?從這個角度上看,新技術(shù)使用所產(chǎn)生的黑箱問題,至少在行政處罰領(lǐng)域中存在巨大的潛在正當程序問題。
(三)自動化時代的正當程序原則
技術(shù)的發(fā)展帶來治理模式的轉(zhuǎn)變,自動化行政方式下的行政處罰制度發(fā)展也出現(xiàn)了一定的變化性與不確定性。為了在這樣的變化中保護相對人的基本權(quán)利,需要構(gòu)建一定的程序底線,不管技術(shù)如何變化,相對人可以通過程序的保護來獲得應(yīng)有的公正。在自動化行政時代,正當程序原則還將繼續(xù)發(fā)揮重要作用。這一方面要求現(xiàn)有的行政處罰程序制度在沒有特別理由、未經(jīng)立法改變之前,應(yīng)當同樣適用于自動化行政處罰;另一方面正當程序原則的具體內(nèi)容也產(chǎn)生了相應(yīng)的發(fā)展,提出了一些新的要求:
1. 透明度與可解釋性
提高包括人工智能算法在內(nèi)的各種自動化行政技術(shù)手段的透明度和可解釋性,是解決算法黑箱、提高技術(shù)接受度的一種直覺性的解決方式。因此雖然部分學者對算法透明的必要性提出異議,但是主流學術(shù)和立法都對自動化決策中的透明度與可解釋性提出了相應(yīng)要求,成為了一種重要的發(fā)展趨勢。
所謂透明度和可解釋性就是指,當自動化決策可能對相對人的權(quán)益產(chǎn)生重大影響時,應(yīng)當對其作出決定的過程作適當?shù)慕忉,使自動化決策能夠被人類所識別、追蹤和理解。在這一要求下,自動化行政處罰中如果在程序、證據(jù)等方式中使用了包含人工智能算法等在內(nèi)的新技術(shù),當這種新技術(shù)對相對人權(quán)益產(chǎn)生重大影響時,應(yīng)當對這種技術(shù)影響處罰決定的方式做出解釋,或者說,至少保有解釋的能力。其制度建設(shè)可以部分參考說明理由制度。現(xiàn)行的說明理由制度包括說明事實依據(jù)、法律依據(jù)以及其他理由。透明度和可解釋性在一定程度上可以視為對說明理由制度的拓展,其制度價值是相似的。但其與一般的說明理由不同的是,由于技術(shù)的復雜性,如果要求對每一技術(shù)細節(jié)處處進行事前解釋,無疑成本高昂且冗長。因此正如本文前述的那樣,關(guān)鍵是保留解釋的能力,而具體解釋的環(huán)節(jié)可以后移至事后,即當相對人存在異議的時候,對個案進行事后監(jiān)督。
2. 技術(shù)運用中的形式公平
正當程序原則要求程序公正,在形式意義上與平等保護原則是一致的,即同樣情形下的同樣事情,應(yīng)當在程序上獲得相同的處理,不得考慮不相關(guān)的因素。然而人工智能算法卻存在著個性化、定制化等特征,可以根據(jù)對象的不同,進行區(qū)別化處理。如果發(fā)揮這種優(yōu)勢,可以實現(xiàn)良好的精準治理,但是反過來,卻也會產(chǎn)生程序不平等的問題。為了解決這一問題,至少在行政處罰這樣的負擔行為中應(yīng)當建立起一系列程序公平的具體要求,從而使得新技術(shù)平等的適用于每一個體,程序的設(shè)計不會特別地不利于特定的人。這些具體要求應(yīng)當包括:每一個決策都應(yīng)該適用相同的策略或規(guī)則;在識別被決策主體身份前就事先明確決策策略(并且可靠的記錄這一策略選擇),從而降低通過設(shè)計程序來歧視特定個體的可能;每一項決策都可以依據(jù)特定的決策策略和特定的輸入信息予以重現(xiàn);如果一個決策中存在一定隨機性(比如抽簽),那么這種隨機信息不能受到任何利益相關(guān)方的控制。
3. 評估與認證
一個人類完成特定的專業(yè)工作前需要進過一定的考試或評估并通過相應(yīng)的認證,特定的技術(shù)手段在承擔自動化行政的特定任務(wù)前也同樣如此。這種評估與認證程序構(gòu)成了自動化行政方式下正當程序原則的重要一環(huán)。比如在聲吶電子警察案中,相對人對聲吶定位的可靠性提出質(zhì)疑,作為答辯,行政機關(guān)提出了違法鳴喇叭抓拍設(shè)備均已通過國家權(quán)威機構(gòu)檢測的證據(jù)。最終法院采納了行政機關(guān)的觀點。實際上,由于自動化行政中各種新技術(shù)的高度復雜性,普通人是難以理解也難以對其進行實質(zhì)性審查的。這也是為什么部分學者認為將透明度普及到普通公眾并沒有意義。在這種情況下,專業(yè)機構(gòu)與專業(yè)人士的評估與認證,將會起到關(guān)鍵作用。通過他們對技術(shù)手段予以測試,交流和發(fā)布可能存在的風險,滿足正當程序的需求,同時提高公眾的可接受度。此外,對于有些確實存在可解釋性難題,但是又確有存在必要的特定技術(shù),也可以通過一些專業(yè)技術(shù)工具的運用,在信息不完全的前提下對算法等新技術(shù)的實效進行檢驗,從而滿足正當程序原則的基礎(chǔ)要求。
四、自動化行政處罰的大數(shù)據(jù)悖論——對數(shù)據(jù)法治的再認識
(一)數(shù)據(jù)依賴與數(shù)據(jù)特殊限制之間的悖論
自動化行政時代在一定意義上同時也是數(shù)據(jù)時代。自動化系統(tǒng)做出各種判斷的基礎(chǔ)是數(shù)據(jù)庫中的各類信息,而非工作人員的肉眼與經(jīng)驗,這產(chǎn)生了極強的數(shù)據(jù)依賴。一方面放大了數(shù)據(jù)出現(xiàn)錯誤時可能導致的不利后果。另一方面更是讓行政活動中的數(shù)據(jù)需求劇增,使得數(shù)據(jù)的互聯(lián)互通成為了自動化行政方式中的一個重要方向。
但這卻形成了一個悖論:自動化行政要求數(shù)據(jù)的互聯(lián)互通,但行政處罰的特性卻對特定數(shù)據(jù)的使用進行了限制:即使某些數(shù)據(jù)為真,也不得使用。比如《統(tǒng)計法》中規(guī)定,統(tǒng)計調(diào)查中獲得的能夠識別或者推斷單個統(tǒng)計調(diào)查對象身份的資料,任何單位和個人不得對外提供、泄露,不得用于統(tǒng)計以外的目的。《全國經(jīng)濟普查條例》和《人口普查條例》更是明確規(guī)定,經(jīng)濟普查和人口普查獲得的數(shù)據(jù)嚴格限定用于特定用途,不得作為行政處罰依據(jù)。
之所以對數(shù)據(jù)的使用進行這樣的限定,有幾個原因:其一,保證統(tǒng)計數(shù)據(jù)、普查信息的準確性。如果可能成為懲罰的依據(jù),那么必然會影響相對人申報信息時的真實程度。其二,防止誘導性的強迫自證其罪。相對人如實提供統(tǒng)計與普查信息,之后卻以此為依據(jù)受到懲罰。這種懲罰超出了相對人提供信息時的預期,屬于一種非自愿的自證其罪。其三,對于數(shù)據(jù)的認識逐漸出現(xiàn)轉(zhuǎn)變。隨著現(xiàn)代生活中數(shù)據(jù)的重要性愈發(fā)提高,人們對于數(shù)據(jù)的重視逐步增加,對數(shù)據(jù)的濫用危害也日益警惕。
(二)政務(wù)數(shù)據(jù)的公物法規(guī)制與個人數(shù)據(jù)權(quán)利的擴張
應(yīng)當認識到,在對大數(shù)據(jù)時代予以歡呼的同時,數(shù)據(jù)泛濫同樣可能是一場災難。尤其是在行政處罰領(lǐng)域中,前述悖論的存在,使得我們有必要對看似美好的數(shù)據(jù)互聯(lián)互通予以一定的限制。這種限制可以基于兩種路徑:
1. 將政務(wù)數(shù)據(jù)納入公物法規(guī)制——政務(wù)數(shù)據(jù)的合目的性限制
政務(wù)數(shù)據(jù)具有很強的公共性,不管其來源如何,其并不屬于政府的私產(chǎn)。政府對于數(shù)據(jù)的控制和管理,并不是基于一種類似于私法所有權(quán)的支配權(quán),而是一種基于特定公共目的管理權(quán)。從這個意義上來說,政務(wù)數(shù)據(jù)是一種特殊的“公物”。和其他有形公物一樣,政務(wù)數(shù)據(jù)處于行政主體支配之下,直接服務(wù)于公共利益,供公眾按照一定程序予以直接使用,或者是服務(wù)于行政活動。與私物不同,公物上承載了特定的公共目的,其使用受到事先所確定的特定公共目的的合目的性拘束。換言之,作為一種特殊公物的數(shù)據(jù),其承載的公共目的應(yīng)當事先明確,之后行政機關(guān)僅能在設(shè)定的目的內(nèi)使用這些數(shù)據(jù)。通過將數(shù)據(jù)納入公物法的規(guī)制領(lǐng)域,可以很好的限制行政機關(guān)對于數(shù)據(jù)的濫用。而為了平衡數(shù)據(jù)聯(lián)通互通的需求,可以針對各種政務(wù)數(shù)據(jù)的具體情況,在命名時設(shè)置或廣或窄的公共目的范圍,從而實現(xiàn)精準控制。
2. 個人數(shù)據(jù)權(quán)利的擴張
傳統(tǒng)上,對于個人數(shù)據(jù)的保護主要基于隱私權(quán)。但傳統(tǒng)隱私權(quán)不及于公共空間,因為你不可能要求公共空間的路人或者警察為了你“關(guān)閉自己的眼睛”。換言之,傳統(tǒng)隱私權(quán)所能保護的范圍是非常有限的,至少對于大量公共領(lǐng)域監(jiān)控攝像頭或者是網(wǎng)絡(luò)空間所留足跡這樣的信息就無法予以控制。但隨著人們對于信息重要性的認識逐步提高,個人信息與數(shù)據(jù)逐漸獲得了超越普通個人隱私的相對獨立地位。像歐盟《通用數(shù)據(jù)保護條例》這樣的標志性立法中,更是賦予了個人以數(shù)據(jù)的更正權(quán)與被遺忘權(quán)。這些個人數(shù)據(jù)權(quán)利的擴張將有利于解決自動化行政處罰中數(shù)據(jù)依賴所產(chǎn)生的如數(shù)據(jù)錯誤等問題,也將從另一個角度限制政府對個人數(shù)據(jù)的使用。
五、責任界定問題——責任主體與歸責原則的確定
責任界定一直是自動駕駛等自動化技術(shù)普及過程中受到廣泛關(guān)注的一個焦點問題,在自動化行政處罰中也不例外。在自動化行政處罰過程中,如果因為自動化系統(tǒng)的原因產(chǎn)生處罰錯誤,責任界定就可能出現(xiàn)兩個有待解決的難題。
(一)外部技術(shù)主體的介入所產(chǎn)生的責任主體問題
自動化行政處罰中的自動化系統(tǒng)往往不是由行政機關(guān)自行研制和開發(fā),而是由外部技術(shù)主體提供。他們對自動化系統(tǒng)予以設(shè)計、安裝、運作和維護,對系統(tǒng)的了解往往比直接操作系統(tǒng)的行政機關(guān)工作人員更多。這就使得外部的企業(yè)與人員實質(zhì)性的介入了行政處罰的特定環(huán)節(jié)之中,比如聲吶電子系統(tǒng)的可靠性,就與技術(shù)提供方密不可分。這些技術(shù)主體將會通過自動化系統(tǒng)對行政程序產(chǎn)生一定的潛在影響,但卻又并非行政機關(guān)的一部分,一旦因為自動化系統(tǒng)故障而導致了行政處罰錯誤,責任又該如何界定?
應(yīng)當認識到,行政主體作為一種法律擬制,解決的就是行政法律關(guān)系中公權(quán)力方的主體問題。因此不管行政行為的方式如何改變,無論行政行為的具體承擔者是個人、集體亦或是自動化系統(tǒng),從法律意義上,作為行政法律關(guān)系一方的始終是行政主體。因此在不斷變化的自動化行政方式中,行政主體仍然是責任界定不變的基點。
對于自動化行政處罰中的相對人來說,其無需關(guān)心到底哪些主體介入了行政程序之中,只需要針對行政行為法律意義上的主體尋求救濟即可。而對于行政機關(guān),一方面其有權(quán)力選擇是否適用自動化系統(tǒng)、選擇采用什么樣的系統(tǒng)、選擇如何進行自動化行政以及對最后的處罰決定進行把關(guān),因此行政機關(guān)仍然是自動化行政行為真正的最終控制者;而另一方面,即使有外部技術(shù)主體的合作,行政機關(guān)仍然有義務(wù)對自動化行政的各個環(huán)節(jié)進行系統(tǒng)性的監(jiān)督,確保行政任務(wù)的恰當完成。因此由行政機關(guān)承擔自動化行政處罰錯誤時的直接責任具有正當性。
至于處罰錯誤的原因到底歸因于行政機關(guān)還是外部技術(shù)主體、行政機關(guān)如果承擔了責任是否可以向技術(shù)主體追責的問題,其實并不屬于行政處罰關(guān)系中需要解決的問題。這一問題涉及的是技術(shù)主體與行政主體之間的技術(shù)法律服務(wù),屬于一種行政協(xié)議關(guān)系。如果技術(shù)主體存在過錯,其按照行政協(xié)議中的具體約定承擔相應(yīng)責任即可。
(二)責任類型之辨與歸責原則的確定
大陸法系的行政賠償制度中,一般可以將行政賠償責任分為公務(wù)員違法侵權(quán)的“人的行為”責任和公共設(shè)施設(shè)置和管理有欠缺所產(chǎn)生的“物的瑕疵”責任兩大類型。兩者的構(gòu)成要件與救濟程序并不完全相同。自動化行政處罰主要還是處于部分自動化階段,尚不適用完全自動化,距離具有所謂獨立人格的強人工智能更是遙遠。因此在現(xiàn)階段的行政處罰中,自動化系統(tǒng)出現(xiàn)錯誤所導致的責任形式還難以以“人的行為”作為類比,而更多地接近于“物的瑕疵”。
這對于自動化行政處罰賠償責任的歸責原則的確定有很大意義。由“人的行為”導致的賠償,其歸責原則為違法責任,需要行政過程中有行為違法性的存在,通常還要求存在故意或過失。而“物之瑕疵”導致的賠償則屬于無過失責任(也就是危險責任),其成立不需要過失或違法性。只要行政機關(guān)設(shè)置公共設(shè)施并提供給國民,就負有保護其安全性的義務(wù),對于該設(shè)施產(chǎn)生的一切危險負擔全部責任。自動化系統(tǒng)作為一種新技術(shù)的運用,過程中難免存在一定的瑕疵,這是一種社會發(fā)展難以避免的風險。即使行政機關(guān)守法謹慎,不存在違法與過錯,這種風險很多時候也難以避免。如果適用違法責任,則意味著要讓相對人自行承擔社會一般性的技術(shù)風險在他身上的特別體現(xiàn),這實際上就構(gòu)成了一種特別犧牲。因此從這個角度上看,自動化行政處罰的賠償責任中采用無過錯責任更為恰當。
不過也應(yīng)當注意到,自動化系統(tǒng)錯誤所導致的行政賠償責任與一般的物之責任還是存在明顯不同。比如按照我國現(xiàn)行法,公共設(shè)施致害的“物的瑕疵”責任不納入國家賠償?shù)姆秶前凑彰袷鲁绦蛱幚怼_@對于行政處罰錯誤的責任和救濟來說是明顯不合適的。隨著技術(shù)的不斷發(fā)展,這兩種責任之間的不同還將愈發(fā)明顯。因此從長遠上看,將自動化系統(tǒng)錯誤導致的責任予以單獨類型化,確定專門的責任構(gòu)成要件,是一種更為可取的路徑。
結(jié)語
以人工智能為代表的新技術(shù)正在深刻的改變?nèi)藗兊纳睢N覀兊恼卜e極擁抱這種改變,通過自動化行政等方式改善治理模式,更好的實現(xiàn)行政任務(wù)。但這種改變所帶來的法律挑戰(zhàn)也是深遠和全面的。行政處罰作為一種適用最為廣泛、制度相對最為完善的負擔行政行為,其制度上的回應(yīng)需求也最為迫切。在未來《行政處罰法》的修訂中,應(yīng)當充分認識到自動化行政方式所帶來的巨大挑戰(zhàn)與回應(yīng)需求,在制度上予以完善。還應(yīng)當注意到,技術(shù)的發(fā)展仍然在不斷前進中,甚至越來越快。因此應(yīng)該堅持正當程序等基本原則,為變化的社會帶來相對穩(wěn)定的保障;同時在具體制度上留有一定發(fā)展和創(chuàng)新的空間,構(gòu)建出具有一定發(fā)展彈性的自動化行政處罰制度體系。
