算法治理應(yīng)首先立足保障算法權(quán)利。算法權(quán)利是指?jìng)(gè)體享有的,用于知曉、參與或改變、拒絕算法自動(dòng)化決策的權(quán)利,目的是確保個(gè)體利益不受到算法自動(dòng)化決策的侵害,以及受到侵害后能夠獲得救濟(jì)。算法權(quán)力是指公共機(jī)構(gòu)和平臺(tái)通過(guò)一定算法面向相對(duì)人、用戶和公眾主動(dòng)施加的一系列作用和影響,這種作用和影響借助精心設(shè)計(jì)的算法模型和互動(dòng)機(jī)制體現(xiàn)并實(shí)施了公共機(jī)構(gòu)和平臺(tái)的意志。
在算法治理體系中,算法權(quán)力是算法治理的直接抓手,卻并非最佳發(fā)力點(diǎn)。過(guò)于將算法風(fēng)險(xiǎn)防范與治理寄托于算法權(quán)力規(guī)制,會(huì)忽視算法權(quán)利保障同樣是風(fēng)險(xiǎn)重要成因,也脫離了算法治理的最終目標(biāo)——保障個(gè)體在數(shù)字時(shí)代的福祉。
權(quán)利保障機(jī)制薄弱同樣是風(fēng)險(xiǎn)成因
算法權(quán)利保障而非算法權(quán)力監(jiān)管應(yīng)當(dāng)成為算法治理的首要立足點(diǎn)。算法權(quán)利并非創(chuàng)制,而是具有傳統(tǒng)權(quán)利的邏輯基礎(chǔ),用以調(diào)適算法自動(dòng)化決策中畸輕的個(gè)體權(quán)利,如此方可消弭法律實(shí)然權(quán)利與應(yīng)然權(quán)利的鴻溝,在人工智能時(shí)代以新的制度來(lái)實(shí)現(xiàn)古老的平等、自由、正義的目標(biāo)。目前,“算法歧視”“算法霸權(quán)”等算法權(quán)力失范現(xiàn)象,現(xiàn)實(shí)地影響用戶權(quán)益和公民權(quán)利。很多學(xué)者主張算法權(quán)力監(jiān)管應(yīng)當(dāng)成為算法治理立足點(diǎn),實(shí)踐中算法權(quán)力監(jiān)管的相關(guān)制度也成為現(xiàn)階段防范算法風(fēng)險(xiǎn)的主要路徑。然而,不可忽視的是,算法權(quán)利保障機(jī)制的薄弱同樣是風(fēng)險(xiǎn)成因。
近年來(lái),我國(guó)算法治理體系的思路緊緊圍繞算法權(quán)力規(guī)制展開(kāi)。如2022年我國(guó)頒布實(shí)施了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《規(guī)定》),充分把握了算法的內(nèi)生性風(fēng)險(xiǎn)和應(yīng)用型風(fēng)險(xiǎn),圍繞算法權(quán)力的監(jiān)管有針對(duì)性地設(shè)計(jì)了風(fēng)險(xiǎn)防范規(guī)則。但遺憾的是,我國(guó)算法治理體系中缺乏有效的私權(quán)救濟(jì)路徑,而個(gè)體多樣化的損害無(wú)法通過(guò)算法權(quán)力規(guī)制獲得有效救濟(jì)。在算法自動(dòng)化決策中,隱私、個(gè)人信息保護(hù)、消費(fèi)者保護(hù)和平臺(tái)勞工權(quán)益等多樣化的權(quán)利,勢(shì)必?zé)o法被算法權(quán)力監(jiān)管制度一一周全覆蓋。目前算法權(quán)利的私權(quán)救濟(jì)路徑不暢造成了此類損害的救濟(jì)過(guò)于倚重行政監(jiān)管,形成路徑依賴。然而受制于資源,行政監(jiān)管往往不充分。且公法手段須以有法律明文規(guī)定處罰為限,應(yīng)對(duì)靈活多變的實(shí)踐問(wèn)題難免捉襟見(jiàn)肘。一方面是人工智能時(shí)代給原有法律權(quán)利體系帶來(lái)的挑戰(zhàn),另一方面是算法權(quán)力監(jiān)管無(wú)法完全覆蓋算法風(fēng)險(xiǎn)的預(yù)防與損害的救濟(jì),這促使了 “算法權(quán)利”在學(xué)理層面的出現(xiàn)。
現(xiàn)階段算法治理應(yīng)立足算法權(quán)利保障機(jī)制
算法權(quán)利應(yīng)該成為下一階段算法治理的立足點(diǎn)。算法權(quán)利中,既有傳統(tǒng)法律權(quán)利在人工智能時(shí)代的延續(xù),如個(gè)體依據(jù)合同制度、消費(fèi)者權(quán)益保護(hù)制度、行政法制度本應(yīng)享有的權(quán)利;也有為應(yīng)對(duì)人工智能時(shí)代的挑戰(zhàn),基于政策考量和利益衡量并經(jīng)特別制度設(shè)計(jì)的權(quán)利。算法權(quán)利的目的是確保個(gè)體利益不受到算法自動(dòng)化決策的侵害,以及受到侵害后能夠獲得救濟(jì)。算法權(quán)利近年來(lái)逐漸被各國(guó)立法認(rèn)可與確定,但其種類、內(nèi)涵與外延尚存爭(zhēng)議。在各國(guó)立法中,較早提出算法權(quán)利的是2018年實(shí)施的歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡(jiǎn)稱GDPR)中關(guān)于數(shù)據(jù)主體對(duì)算法自動(dòng)化決策的相關(guān)請(qǐng)求權(quán)。例如在GDPR的背景序言第71條提出數(shù)據(jù)主體具有知曉算法自動(dòng)化決策的權(quán)利:“應(yīng)該采取適當(dāng)?shù)谋U洗胧WC數(shù)據(jù)主體獲得對(duì)此類評(píng)估之后達(dá)成的決定的解釋,并對(duì)決定提出質(zhì)疑! 《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》)、我國(guó)《電子商務(wù)法》以及《信息安全技術(shù)個(gè)人信息安全規(guī)范》等法律法規(guī),也賦予個(gè)體在算法自動(dòng)化決策中的知情權(quán)、解釋權(quán)、脫離自動(dòng)化決策權(quán)等相關(guān)權(quán)利!秱(gè)人信息保護(hù)法》第24條規(guī)定:“個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正,不得對(duì)個(gè)人在交易價(jià)格等交易條件上實(shí)行不合理的差別待遇。通過(guò)自動(dòng)化決策方式向個(gè)人進(jìn)行信息推送、商業(yè)營(yíng)銷(xiāo),應(yīng)當(dāng)同時(shí)提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向個(gè)人提供便捷的拒絕方式。通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定。”
第一,算法權(quán)力重在限制與規(guī)范,而算法權(quán)利可兼顧保障與救濟(jì)。算法權(quán)利并非憑空創(chuàng)制,而其中每一項(xiàng)權(quán)利既有著傳統(tǒng)權(quán)利的制度基礎(chǔ),也體現(xiàn)了法律制度應(yīng)對(duì)人工智能時(shí)代算法決策大規(guī)模應(yīng)用的因應(yīng)性變革。算法權(quán)利本質(zhì)是請(qǐng)求權(quán),當(dāng)個(gè)體成為或即將成為算法自動(dòng)化決策的對(duì)象,即享有了相關(guān)的算法權(quán)利。在商業(yè)算法自動(dòng)化決策中,個(gè)體通過(guò)用戶協(xié)議與算法應(yīng)用者締結(jié)合同關(guān)系,基于合同制度而生的意思自治、信賴?yán)娴葯?quán)益生成了算法解釋權(quán)、算法決策拒絕權(quán)等。進(jìn)而商業(yè)自動(dòng)化決策算法應(yīng)用者與個(gè)體的不對(duì)稱權(quán)力關(guān)系,使得個(gè)體也具有消費(fèi)者的法律地位,算法解釋(知情)權(quán)、算法決策拒絕權(quán)本質(zhì)上是由消費(fèi)者權(quán)益保護(hù)制度中的消費(fèi)者知情權(quán)、自主拒絕權(quán)、公平交易權(quán)演變而來(lái)。在行政算法自動(dòng)化決策中,算法解釋(知情)權(quán)是行政公開(kāi)原則的應(yīng)有之義,算法決策拒絕權(quán)也可在對(duì)行政相對(duì)人的救濟(jì)中找到請(qǐng)求權(quán)基礎(chǔ)。因此,算法權(quán)利本質(zhì)是一組被算法自動(dòng)化決策的個(gè)體所享有的請(qǐng)求權(quán),兼具保障與救濟(jì)個(gè)體權(quán)益的功能。
第二,如果說(shuō)規(guī)制算法權(quán)力是要求算法“不作惡”,立足算法權(quán)利則是要求算法“做好事”。算法權(quán)利是施加于算法應(yīng)用者的法律負(fù)擔(dān),目的在于分擔(dān)算法決策的一部分社會(huì)風(fēng)險(xiǎn)。算法權(quán)利要求算法應(yīng)用者向個(gè)體告知、解釋算法決策,并提供個(gè)體參與和提出異議的機(jī)會(huì),以及為個(gè)體提供退出算法決策的選擇。將算法決策的風(fēng)險(xiǎn)分配給算法的開(kāi)發(fā)者和使用者出于如下考慮:其一,算法的開(kāi)發(fā)和使用者具有分散風(fēng)險(xiǎn)的能力。相對(duì)人的力量過(guò)于弱小,應(yīng)把風(fēng)險(xiǎn)分配給技術(shù)力量更為強(qiáng)大的算法開(kāi)發(fā)者和使用者,可誘導(dǎo)可控制風(fēng)險(xiǎn)之人盡可能初期就降低風(fēng)險(xiǎn)以避免損害發(fā)生。其二,保護(hù)個(gè)體對(duì)算法自動(dòng)化決策的信賴?yán)媸撬惴ㄩ_(kāi)發(fā)者和使用者需承擔(dān)相關(guān)算法義務(wù)的基礎(chǔ)。合理信賴之保護(hù)的不斷加強(qiáng)一直是法律現(xiàn)代化進(jìn)程中的主線之一。個(gè)體基于信賴?yán)嫖兴惴☉?yīng)用者利用個(gè)人數(shù)據(jù)進(jìn)行自動(dòng)化決策,因此有理由期望在發(fā)生危害和錯(cuò)誤時(shí),算法應(yīng)用者以公正和負(fù)責(zé)任的態(tài)度做出回應(yīng)。這種合理要求并不因法律或用戶協(xié)議沒(méi)有專門(mén)提及或排除而消失。法律這樣分配風(fēng)險(xiǎn)有助于形成人對(duì)算法自動(dòng)化決策的基本信任,而工業(yè)的發(fā)展、科技的研發(fā)等都需要一種信任模式的建立和良性運(yùn)作。
第三,在已有足夠算法權(quán)力規(guī)制的背景下,應(yīng)及時(shí)構(gòu)建算法權(quán)利作為算法治理的“安全網(wǎng)”!鞍踩W(wǎng)”一詞常被用于描繪社會(huì)保障體系的作用,指當(dāng)公民遭遇變故與不幸時(shí),社會(huì)保障體系能夠滿足公民基本需求,緩解社會(huì)焦慮。如果算法治理體系中的一系列事前的風(fēng)險(xiǎn)防范制度、事中的正當(dāng)程序以及事后問(wèn)責(zé)制度都未能起到作用,私權(quán)利性質(zhì)的算法權(quán)利就成為保護(hù)用戶個(gè)人權(quán)利、恢復(fù)社會(huì)信任的最后一道防線。因此,“安全網(wǎng)”一詞形象地描述了算法權(quán)利在算法治理體系的定位。算法權(quán)利行使的成本可通過(guò)具體制度的設(shè)計(jì)而逐步降低,但不能以此作為其沒(méi)有制度價(jià)值的理由,至少其能宣告?zhèn)體權(quán)利,彰顯法律態(tài)度。正如為了實(shí)現(xiàn)產(chǎn)品質(zhì)量安全,法律設(shè)計(jì)了多層次的制度體系,包括事前的行業(yè)準(zhǔn)入制度、產(chǎn)品質(zhì)量體系標(biāo)準(zhǔn),事中的行政部門(mén)質(zhì)量抽查檢測(cè),事后的刑事、行政責(zé)任以及產(chǎn)品侵權(quán)責(zé)任。雖然不能寄希望于以私權(quán)性質(zhì)的產(chǎn)品侵權(quán)責(zé)任發(fā)揮最為重要的作用,但產(chǎn)品侵權(quán)責(zé)任作為私權(quán)救濟(jì)路徑有其必要的存在價(jià)值。
過(guò)于偏重規(guī)制算法權(quán)力會(huì)忽視算法治理最終目標(biāo)
首先,算法治理的最終目標(biāo)是個(gè)體的平等及其合法權(quán)益的保障。算法被平臺(tái)公司與公共部門(mén)廣泛用于處理海量數(shù)據(jù),作出瞬時(shí)性的自動(dòng)化決策,個(gè)體處于被決策的地位。算法通過(guò)對(duì)數(shù)據(jù)的占有、處理與結(jié)果輸出成為調(diào)配資源的新興力量,演化為資源、商品、財(cái)產(chǎn)、中介甚至社會(huì)建構(gòu)力。如在平臺(tái)架構(gòu)中,算法直接成為行為規(guī)范,影響和控制個(gè)體行為。在政府部門(mén)中,算法輔助甚至代替公權(quán)力,作出具有法律效力的自動(dòng)化決策。一旦算法作出不公正的決策,則有可能因其廣泛適用于海量用戶造成嚴(yán)重的社會(huì)后果。例如在美國(guó),私營(yíng)企業(yè)和政府公共部門(mén)采用算法和大數(shù)據(jù)作出的自動(dòng)決策,曾使得數(shù)百萬(wàn)人無(wú)法獲得保險(xiǎn)、貸款、出租房屋等一系列服務(wù),如同被監(jiān)禁在“算法監(jiān)獄”。平等的內(nèi)涵隨著時(shí)代變遷不斷改變,早已從強(qiáng)調(diào)自由和人權(quán)的政治平等,擴(kuò)展到強(qiáng)調(diào)資源和福利的經(jīng)濟(jì)平等,進(jìn)而到強(qiáng)調(diào)機(jī)會(huì)和能力平等的社會(huì)平等。人工智能時(shí)代產(chǎn)生了新的不平等,而這種不平等更加隱蔽和嚴(yán)重——知識(shí)、信息獲得和掌握的不平等。這種數(shù)據(jù)、算法與算力的不平等,嵌入了社會(huì)固有的權(quán)力架構(gòu),使得本就弱勢(shì)的個(gè)體可能受到的不公平待遇更加隱蔽。而算法權(quán)利則是個(gè)體在人工智能時(shí)代的數(shù)字生產(chǎn)體系與數(shù)字政府治理中應(yīng)享有的必要權(quán)利。無(wú)論是與掌握數(shù)字生產(chǎn)的平臺(tái)相比,還是與在數(shù)字治理中效率極大提升的政府相比,個(gè)體都居于極為弱勢(shì)的地位。因此,算法治理的最終目標(biāo),是個(gè)體的平等及其合法權(quán)益的保障。
其次,唯有算法權(quán)利是用戶啟動(dòng)的算法治理路徑。算法權(quán)利的設(shè)置正是為了平衡算法決策使用者和個(gè)體之間這種極為懸殊的權(quán)力關(guān)系,為可能受到不利的算法決策的個(gè)體提供救濟(jì),從而達(dá)到法律所追求的平等。在現(xiàn)有的算法治理體系中,算法問(wèn)責(zé)制、算法透明度、平臺(tái)自律等制度要么由政府以監(jiān)管為目標(biāo)推進(jìn),要么代表算法應(yīng)用者的立場(chǎng)。在政府、平臺(tái)和用戶三方力量的對(duì)比中,個(gè)體既沒(méi)有政府公權(quán)力那樣強(qiáng)大的力量抗衡平臺(tái),也沒(méi)有技術(shù)力量做自動(dòng)化決策算法的審查,甚至沒(méi)有力量用腳投票離開(kāi)平臺(tái)。唯有算法權(quán)利是可以由用戶啟動(dòng)的算法治理路徑。因此,私權(quán)利保護(hù)路徑具有不可替代的作用。為此,我國(guó)算法治理制度中,也針對(duì)未成年人、老年人、勞動(dòng)者和大數(shù)據(jù)殺熟等場(chǎng)景,分別配置相應(yīng)的行為規(guī)則(《規(guī)定》第19條至第21條)。為了實(shí)現(xiàn)自下而上的算法治理,《規(guī)定》通過(guò)權(quán)利路徑,賦予個(gè)人對(duì)抗算法決策的權(quán)利。
最后,算法權(quán)利制度能夠更好救濟(jì)“數(shù)字弱勢(shì)群體”。由于搜索、掌握、處理、使用信息設(shè)備的知識(shí)能力的差別,某些個(gè)體成為“數(shù)字弱勢(shì)群體”,并極易被不均衡的技術(shù)權(quán)力所操控!皵(shù)字弱勢(shì)群體”的產(chǎn)生除主體自身原因外,更重要的還在于技術(shù)發(fā)展所帶來(lái)的社會(huì)秩序變革、 社會(huì)矛盾轉(zhuǎn)變和社會(huì)結(jié)構(gòu)革新等,使得原有社會(huì)制度供給與新的公眾訴求不匹配。算法權(quán)利可保障數(shù)字弱勢(shì)群體有獲得幫助的權(quán)利,從而實(shí)現(xiàn)個(gè)體在人工智能時(shí)代獲取、運(yùn)用技術(shù)上的平等。具體包括獲得接入網(wǎng)絡(luò)的權(quán)利,也包括獲得在數(shù)字中基于幫助享有同等法律權(quán)益的權(quán)利,其目的在于實(shí)現(xiàn)社會(huì)的數(shù)字平等。
。ㄗ髡呦抵袊(guó)政法大學(xué)數(shù)據(jù)法治研究院教授)
