【中文摘要】人臉識別技術(shù)雖可提升服務(wù)質(zhì)量,但也產(chǎn)生了技術(shù)濫用風(fēng)險,部分公共場所、經(jīng)營場所的管理者出于節(jié)省成本等方面的考量,在未經(jīng)告知或獲得同意的情況下采用人臉識別技術(shù),對個人權(quán)益產(chǎn)生了不利影響。然而,在立法層面,完全禁止或完全允許技術(shù)應(yīng)用均是不可取的,如何兼顧此中的個體、產(chǎn)業(yè)、社會公眾等多方利益成為現(xiàn)實難題。對法律價值位階層面的公共利益與個人利益比較與平衡并不足以為實踐指明人臉識別技術(shù)應(yīng)用的合法性邊界,并且,以公共安全為目的在公共場所采用人臉識別技術(shù)也不能當(dāng)然確認其合法性。為了彌補過往二元利益平衡的弊端,更適宜以整體性利益架構(gòu)為基礎(chǔ)進行動態(tài)權(quán)衡,剖析人臉識別技術(shù)應(yīng)用對個體利益、產(chǎn)業(yè)利益、使用者利益以及社會公眾利益的影響。尤其在《人臉識別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見稿)》的背景下,可以將利益權(quán)衡的結(jié)果與作為立法目的的制度利益予以比較確定人臉識別技術(shù)應(yīng)用的合法性,以便為司法實踐提供更為明確的判斷標(biāo)準(zhǔn)。
【全文】
一、問題的提出
人臉識別技術(shù)應(yīng)用的監(jiān)管問題持續(xù)受到學(xué)界關(guān)注,其核心在于該項技術(shù)在具體的應(yīng)用場景中如何平衡安全和效率兩種不同的法律價值。一方面,人臉識別技術(shù)的廣泛應(yīng)用縮短了身份驗證的繁冗環(huán)節(jié),可方便高效率地完成批量身份驗證;另一方面,人臉識別信息作為《個人信息保護法》所規(guī)定的敏感個人信息,理應(yīng)采取更嚴格的保護措施,但實踐中仍出現(xiàn)違法收集人臉識別信息的現(xiàn)象,甚至將人臉識別信息與其他信息相結(jié)合,用于辦公場所監(jiān)控員工是否認真工作、線上消費者對于特定商品的面部表情變化等場景,嚴重侵害了自然人的人格尊嚴。然而,規(guī)范人臉識別應(yīng)用行為的問題并不是簡簡單單通過強化執(zhí)法就可以實現(xiàn);網(wǎng)絡(luò)空間治理的基本思路并不是限制技術(shù)應(yīng)用,而是促進技術(shù)創(chuàng)新安全應(yīng)用與數(shù)字經(jīng)濟發(fā)展?陀^而言,人臉識別技術(shù)在公共安全保障、身份核驗安全等領(lǐng)域確實具有增效作用,且相較于人工審核而言,甚至還能夠避免內(nèi)部員工消極怠工、違規(guī)核驗等風(fēng)險。因此,為了進一步平衡安全和效率,國家互聯(lián)網(wǎng)信息辦公室在2023年8月發(fā)布了《人臉識別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見稿)》(以下簡稱《征求意見稿》),對該技術(shù)應(yīng)用作出更為詳細的體系化規(guī)定。不過,《征求意見稿》在明確技術(shù)應(yīng)用的合法性邊界時,仍然存在部分爭議:《征求意見稿》第4條提及將“只有特定目的和充分必要性”以及“嚴格保護措施”作為采用人臉識別技術(shù)處理人臉信息的法定條件,其中的“特定目的”和“充分必要性”究竟如何理解?是否存在過度限縮人臉識別技術(shù)應(yīng)用范圍的風(fēng)險?此外,《征求意見稿》還將公共場所使用人臉識別技術(shù)作為一類特殊情形予以規(guī)范,但是并沒有對“公共場所”的概念和范圍作出相關(guān)解釋。事實上,這些爭議在學(xué)理層面可以歸結(jié)為同一個問題,即按照何種標(biāo)準(zhǔn)判斷人臉識別技術(shù)應(yīng)用具有合法性和正當(dāng)性?所謂的“特定的目的”和“充分的必要性”本質(zhì)上仍屬于價值判斷的范疇,故而需要進一步回答兩個關(guān)鍵問題:一是按照何種法益平衡范式判斷是否具有采用人臉識別技術(shù)的必要性,二是如何在實踐中解釋“特定的目的”與“充分的必要性”的具體判斷標(biāo)準(zhǔn)。
二、人臉識別技術(shù)應(yīng)用監(jiān)管的學(xué)說現(xiàn)狀與研究疏漏
。ㄒ唬┤四樧R別技術(shù)應(yīng)用監(jiān)管的學(xué)說現(xiàn)狀與研究不足
學(xué)界目前有關(guān)人臉識別技術(shù)應(yīng)用的討論已經(jīng)相當(dāng)充分,從人臉識別信息的保護到技術(shù)濫用對人格尊嚴的侵害均有提及,論證模式大抵可以歸結(jié)為根據(jù)具體的技術(shù)風(fēng)險類型確定相應(yīng)的治理模式以及義務(wù)履行標(biāo)準(zhǔn),F(xiàn)階段,人臉識別技術(shù)應(yīng)用監(jiān)管的學(xué)說主要包括個人信息保護論、多元協(xié)同治理論兩類觀點。個人信息保護論主要是從個人信息保護的視角解釋人臉識別技術(shù)的規(guī)制模式,人臉識別信息作為《個人信息保護法》的敏感個人信息,理應(yīng)遵循更為嚴格的個人信息保護規(guī)則。人臉識別技術(shù)濫用構(gòu)成侵害自然人的個人信息自決權(quán),因為在大多數(shù)情況下自然人并不知曉自己的人臉識別信息何時以及如何被收集。因此,相關(guān)的治理主張也大多表現(xiàn)為通過“分級分類保護”“知情同意原則”等機制限制個人信息處理者收集人臉識別信息的行為。此外,該類學(xué)說中還存在同意規(guī)則改良論,即認為同意規(guī)則在治理人臉識別技術(shù)濫用領(lǐng)域存在失靈問題,尤其在公共場所領(lǐng)域存在大量未能獲得公眾同意的情形,主張按照使用目的等要素細化自然人單獨同意的方式和內(nèi)容。
多元協(xié)同治理理論則認為現(xiàn)有的立法體系并不足以全方位預(yù)防和控制技術(shù)濫用風(fēng)險,而應(yīng)通過“動態(tài)治理”“協(xié)同治理”“場景化治理”“多元主體共治”等治理架構(gòu)從法律、技術(shù)、市場、倫理等方面規(guī)范人臉識別技術(shù)應(yīng)用。該類學(xué)說的支持者通常以歐美生物識別信息保護和人臉識別技術(shù)應(yīng)用限制的監(jiān)管模式為例,如“基于使用目的和風(fēng)險預(yù)防限制或禁用該技術(shù)”和“基于使用主體區(qū)分公私不同機構(gòu)的使用規(guī)則”。此外,部分支持者還認為僅明確人臉識別技術(shù)提供者、使用者的法定義務(wù)并不足以解決技術(shù)濫用風(fēng)險,而應(yīng)當(dāng)從企業(yè)社會責(zé)任、行業(yè)自律以及公眾個人信息保護意識等角度提升實際的治理效果,推進“多元主體協(xié)同共治”。
人臉識別技術(shù)的不當(dāng)使用可能導(dǎo)致三類風(fēng)險:第一,技術(shù)安全風(fēng)險。任何信息技術(shù)均不可能達到絕對安全可靠的技術(shù)水平,人臉識別技術(shù)在身份核驗層面的高效性和準(zhǔn)確性也不意味著能夠達到核驗的絕對準(zhǔn)確性。第二,個人信息和個人隱私泄漏風(fēng)險。這類風(fēng)險常表現(xiàn)為個人信息處理者在未告知或未獲得同意的情形下,擅自采集人臉識別信息,并且,由于技術(shù)使用者事前未能確認相關(guān)設(shè)備和信息系統(tǒng)的安全性,在面對外部網(wǎng)絡(luò)攻擊或者內(nèi)部員工私自攜帶人臉識別數(shù)據(jù)時未能采取及時有效措施,導(dǎo)致所采集的人臉識別信息外泄。第三,科技倫理風(fēng)險。隨著數(shù)據(jù)分析處理技術(shù)的強化,人臉識別技術(shù)識別的對象不單單是面部信息本身,還包括面部的動態(tài)信息,即根據(jù)面部的表情變化判斷個人的情緒變化,部分企業(yè)甚至將該技術(shù)用于辦公場所,監(jiān)督員工是否認真工作。這些應(yīng)用模式除了侵害個人隱私之外,顯然也極易引發(fā)人類成為機器監(jiān)管對象等主客體倒置的科技倫理問題。至于相應(yīng)的治理策略,盡管部分學(xué)者強調(diào)通過算法治理規(guī)則解決潛在的科技倫理風(fēng)險,但問題在于,算法安全問題并非人臉識別技術(shù)濫用的特殊問題。人臉識別技術(shù)的核心之一是算法模型,相應(yīng)地,人臉識別技術(shù)應(yīng)用的安全問題在某種程度上也可以歸結(jié)為算法安全,因為不可靠的算法模型同樣可能引發(fā)數(shù)據(jù)泄漏、算法不公等問題。算法安全導(dǎo)致數(shù)據(jù)泄漏、算法不公等問題普遍存在于所有使用算法的信息系統(tǒng),故而與其說其是人臉識別技術(shù)應(yīng)用的監(jiān)管重心之一,倒不如說其是算法安全治理需要解決的現(xiàn)實問題。此外,學(xué)者們還提出了“技術(shù)優(yōu)化路徑”“風(fēng)險探析路徑”“法律規(guī)制路徑”“應(yīng)用場景分類治理路徑”等主張,但本質(zhì)上還是在“具體問題具體分析”層面提出方向性治理建議,而非具體的解決方案。
。ǘ┤四樧R別技術(shù)應(yīng)用監(jiān)管的研究疏漏:合法性邊界
時至今日,我國個人信息保護、數(shù)據(jù)安全、算法治理等領(lǐng)域相關(guān)的法律法規(guī)相繼出臺,這些規(guī)定均能適用于人臉識別技術(shù)應(yīng)用領(lǐng)域,解決個人信息保護、算法公正、技術(shù)安全風(fēng)險等問題,國內(nèi)相關(guān)研究討論已經(jīng)相當(dāng)充分。如此看來,似乎并沒有再行討論人臉識別技術(shù)監(jiān)管的必要。然而,現(xiàn)階段的人臉識別技術(shù)監(jiān)管重心早已不是個人信息保護等問題,而是進入到該技術(shù)應(yīng)用實踐的合法性監(jiān)管領(lǐng)域。
《征求意見稿》和《關(guān)于審理使用人臉識別技術(shù)處理個人信息相關(guān)民事案件適用法律若干問題的規(guī)定》(以下簡稱“司法解釋”)在內(nèi)容上似乎存在重疊。但從立法目的和立法背景來看,司法解釋發(fā)布于《個人信息保護法》之前,主要是為了填補人臉識別技術(shù)應(yīng)用監(jiān)管的規(guī)則空白以及推進《民法典》等法律的適用。而作為人臉識別信息保護規(guī)則的《征求意見稿》,則是在《個人信息保護法》的基礎(chǔ)上對人臉識別技術(shù)應(yīng)用具體要求的細化,更確切地說,征求意見稿的目的是為實踐中如何判斷人臉識別技術(shù)應(yīng)用的合法性邊界提供依據(jù)。這種立法趨勢的變化在學(xué)理層面則表現(xiàn)為研究議題從風(fēng)險預(yù)防、風(fēng)險治理到具體應(yīng)用監(jiān)管的轉(zhuǎn)變。風(fēng)險預(yù)防、風(fēng)險治理理論是為了解決應(yīng)當(dāng)以何種方式監(jiān)管人臉識別技術(shù)應(yīng)用,不僅包括立法,還包括科技倫理審查、公民意識提升、行業(yè)自律等機制。而具體應(yīng)用監(jiān)管則是在保障技術(shù)安全的基礎(chǔ)上,兼顧市場的技術(shù)應(yīng)用需求!耙坏肚惺健钡匾笃髽I(yè)優(yōu)先采用具有相同技術(shù)效果的身份驗證技術(shù)可能會實質(zhì)性限縮人臉識別技術(shù)的可用范圍,但若允許企業(yè)自行選擇身份驗證技術(shù),則難以排除技術(shù)濫用的風(fēng)險。因此,在學(xué)理層面,將問題總結(jié)為“人臉識別技術(shù)應(yīng)用的必要性如何確定”并不準(zhǔn)確,應(yīng)當(dāng)總結(jié)為“人臉識別技術(shù)應(yīng)用方式能否確保利益權(quán)衡”。因為狹義的技術(shù)應(yīng)用必要性認定往往局限于數(shù)據(jù)處理目的與相關(guān)服務(wù)之間的關(guān)聯(lián)程度,且其結(jié)論也會導(dǎo)向人臉識別信息收集行為是否必要,而非人臉識別技術(shù)應(yīng)用是否必要。相對地,“利益權(quán)衡”問題雖然屬于抽象層面的價值判斷問題,但是“利益權(quán)衡”的一般范式和具體標(biāo)準(zhǔn)直接關(guān)系到人臉識別技術(shù)應(yīng)用的合法性認定。在人臉識別技術(shù)尚未出現(xiàn)時,公共場所的公共安全保障程度并沒有發(fā)生顯著變化,如果嚴格按照必要性要求,出于公共安全目的的技術(shù)應(yīng)用似乎也不具備“必要性”,也即必要程度并未超過個人權(quán)益,那么,立法層面的“公共安全”之必要性則需要通過利益權(quán)衡方式予以解釋,因為公共場所的安全采用普通的視頻監(jiān)控即可達到公共安全保障的目的,涉及不特定多數(shù)人,雖然普通的視頻監(jiān)控同樣能夠解決安全問題,但是從安全效果和安全成本來看,配置人臉識別功能,能夠在安全事件發(fā)生之初最大程度控制損害程度。尤其是在發(fā)生犯罪活動后,公安機關(guān)通過人臉識別技術(shù)能夠盡早識別犯罪嫌疑人,既能避免犯罪活動的再次發(fā)生,也與個體性的安全法益相匹配?偨Y(jié)而言,現(xiàn)階段的人臉識別技術(shù)監(jiān)管更需要在學(xué)理層面提供相應(yīng)的利益權(quán)衡范式,以便在實踐活動中具體判斷技術(shù)應(yīng)用的必要性和合法性。
三、人臉識別技術(shù)應(yīng)用的利益權(quán)衡理論
。ㄒ唬┤四樧R別技術(shù)應(yīng)用的利益平衡理論
人臉識別技術(shù)應(yīng)用的利益平衡問題早有學(xué)者關(guān)注,但大多還是以“安全與效率兼顧”“成本效益分析”等價值評價為主,鮮有涉及體系性利益權(quán)衡理論的分析,且對應(yīng)的結(jié)論多是強調(diào)應(yīng)用方式應(yīng)當(dāng)符合公開、透明、民主參與等基本原則。在具體分析利益平衡問題上,現(xiàn)有研究主要進行有限類別的法律價值比較:一是公共安全保障與個人信息保護的利益比較;二是人臉識別技術(shù)應(yīng)用的成本效益分析;三是企業(yè)與用戶的利益沖突與平衡。(1)公共安全保障與個人信息保護的利益平衡討論常見于公共場所人臉識別技術(shù)應(yīng)用的必要性分析,強調(diào)應(yīng)當(dāng)兼顧公共安全利益與個人信息利益。一方面,基于風(fēng)險社會理論,人臉識別技術(shù)應(yīng)用是為了最大程度地預(yù)防新型社會風(fēng)險,具有顯著的公共利益導(dǎo)向;另一方面,公共場所應(yīng)用人臉識別技術(shù)是以公權(quán)力依法行使為前提,公權(quán)力不能以公共安全為由侵蝕個人信息權(quán)益。有學(xué)者就此提出了人臉識別信息的共享性和有序性特征,前者是指為了維護公共安全應(yīng)當(dāng)允許應(yīng)用人臉識別技術(shù),后者則是指人臉識別技術(shù)在公共場所大規(guī)模應(yīng)用應(yīng)當(dāng)受到限制,這也是公共安全與人臉識別信息保護之間利益平衡的一致性要素。這種利益平衡分析并未脫離公共利益與個體利益的討論范疇,亦是信息安全與信息使用平衡問題的另一種表述形式,其引申而出的結(jié)論也必然無法脫離多元協(xié)同治理論的范疇。這種分析模式固然可以解釋人臉識別技術(shù)應(yīng)用的治理框架應(yīng)當(dāng)如何設(shè)計,但還是側(cè)重風(fēng)險預(yù)防與風(fēng)險治理,而不是在執(zhí)法或司法實踐中如何判斷人臉識別技術(shù)應(yīng)用的合法性。(2)收益與風(fēng)險的比較是為了在法律層面確定數(shù)據(jù)利用與數(shù)據(jù)安全何者優(yōu)先的問題。如果“收益>風(fēng)險”,則數(shù)據(jù)利用優(yōu)先;如果“收益≤風(fēng)險”,則數(shù)據(jù)安全優(yōu)先。這里的“收益”主要是指經(jīng)濟價值,即人臉識別技術(shù)本身的市場經(jīng)濟價值早已得到肯定,無論是在輔助企業(yè)進行內(nèi)部管理或服務(wù)優(yōu)化,還是支撐社會治安,均展現(xiàn)出廣闊的市場應(yīng)用前景。同時,該項技術(shù)在身份核驗領(lǐng)域的效率是人工核驗、證件核驗等傳統(tǒng)方式無法相提并論的。但由于技術(shù)應(yīng)用方式的不同,其潛在的風(fēng)險程度和風(fēng)險類型也不同,且任何技術(shù)均存在相應(yīng)的技術(shù)風(fēng)險,故而收益與風(fēng)險的比較成為判斷技術(shù)應(yīng)用合法性的關(guān)鍵環(huán)節(jié)。也有學(xué)者提出“效益平衡原則”,即在人臉識別技術(shù)應(yīng)用之前,除了需要評估技術(shù)安全風(fēng)險之外,還需要進行成本和效益的核算,量化比較技術(shù)應(yīng)用可能造成的負面損失與通過技術(shù)應(yīng)用能夠獲得的經(jīng)濟利潤。這類利益平衡觀點雖是主張量化評估“成本—收益”的核算,但結(jié)論還是側(cè)重應(yīng)用結(jié)果正面效益與負面效益的匹配性,將量化評估作為企業(yè)業(yè)務(wù)合規(guī)的內(nèi)容之一。(3)至于常見的用戶與企業(yè)利益平衡比較與第一種利益平衡模式較為相似,只不過比較的對象從“公私主體”轉(zhuǎn)變?yōu)樗椒▽用娴摹坝脩襞c企業(yè)”。在該利益平衡模式下,與個人信息權(quán)益沖突的是企業(yè)的商業(yè)利益。雖然用戶在刷臉時,享受了信息服務(wù)的便捷性和高效性,但是人臉識別信息一旦被泄露或被濫用,大概率會導(dǎo)致相關(guān)的個人信息泄露。因為常見的個人信息泄露并非一次性泄露所有的信息,而是某個網(wǎng)絡(luò)節(jié)點的部分個人信息泄露,進而導(dǎo)致其他網(wǎng)絡(luò)節(jié)點的相關(guān)個人信息泄露,最常見的形式便是“撞庫”。在價值平衡層面,企業(yè)的數(shù)據(jù)使用需求與個人信息保護需求發(fā)生沖突,常見的利益平衡理論便是“兼顧安全與使用”,安全是使用的前提,使用與安全并不存在根本性的沖突對立。人臉識別技術(shù)應(yīng)用的合法性表現(xiàn)在,在保障人臉識別信息依法收集和處理的前提下,可最大范圍地實現(xiàn)企業(yè)業(yè)務(wù)模式的優(yōu)化。
(二)人臉識別技術(shù)應(yīng)用利益平衡的理論不足及其成因
前述三類利益平衡論均存在不同程度的理論局限,主要表現(xiàn)為利益類型與利益標(biāo)準(zhǔn)的不匹配。其一,在公共安全保障與個人信息保護的利益平衡中,兩種利益未能置于同一時空下予以比較,既沒有提及處于室內(nèi)的公共場所與室外的公共場所之間的差異性,也沒有比較其他公共安全保障措施的實施效果。其二,在收益與風(fēng)險的利益平衡中,經(jīng)濟學(xué)意義上的成本效益分析模式與法律層面的利益權(quán)衡分析并不完全相同。前者以效率優(yōu)化為目的,后者則是以判斷利益架構(gòu)是否正當(dāng)為目的。并且,抽象價值層面的收益與風(fēng)險均存在未來發(fā)生的不確定性特征,將兩個不確定的利益概念進行比較,其平衡方案顯然難以確定。其三,在用戶與企業(yè)的利益平衡分析中,忽視了人臉識別技術(shù)應(yīng)用的社會效應(yīng),僅僅注重技術(shù)使用者與技術(shù)服務(wù)接受者之間的權(quán)益平衡,這種利益平衡實際上是具體法律關(guān)系的權(quán)利義務(wù)分析,并沒有涉及技術(shù)應(yīng)用行為的合法性標(biāo)準(zhǔn)。
這些利益平衡分析多采用了“二元利益比較”模式,主張多元協(xié)同治理。這種“二元”對“多元”的論證過程忽視了對人臉識別技術(shù)應(yīng)用法律關(guān)系的考察,忽視了利益平衡的起點應(yīng)當(dāng)是以整體利益結(jié)構(gòu)為基礎(chǔ),然后分析利益沖突的關(guān)鍵節(jié)點并判斷何種利益應(yīng)當(dāng)優(yōu)先得到保護。換言之,此時的“利益平衡”表述為“利益權(quán)衡”更為恰當(dāng),因為不可能存在一種方案滿足所有的利益訴求的情形,所以需要通過權(quán)衡利弊的方式實現(xiàn)整體利益結(jié)構(gòu)的最大化!袄嫫胶狻笔且环N最終的利益分配方案,其目的是為了使得各方主體的利益訴求都能得到一定程度的滿足;而“利益權(quán)衡”則是一種動態(tài)的利益分配調(diào)整過程,其目的是為了使得整體利益狀態(tài)符合社會治理目標(biāo)。最常被提及的一種利益是“公共利益”,但該項利益自身固有的模糊性、動態(tài)性等特征,使得大部分利益平衡方案始終停留于基本原則或法律價值層面的粗略比較,與之相對應(yīng)的個體利益(如個人信息權(quán)益等)則具有具體性、特殊性。對于“公共利益”內(nèi)涵的詮釋,難以達成共通性的解釋結(jié)論,但這并不等于僅能在抽象層面探討公共利益與個體利益孰者優(yōu)先的問題。在具體應(yīng)用場景中,公共利益的平衡問題應(yīng)當(dāng)轉(zhuǎn)化為基本原則的適用問題,而非例外情形予以討論。
利益權(quán)衡的基本邏輯不應(yīng)當(dāng)是“為了A利益而犧牲B利益”,而是“在保障A利益的前提下怎么協(xié)調(diào)B利益”。諸如公序良俗、誠實信用等基本原則具有典型的“公共利益”屬性,但是在判斷特定技術(shù)應(yīng)用的合法性時,這些基本原則應(yīng)為所有技術(shù)應(yīng)用普遍遵循,而不是作為例外情形免責(zé)的依據(jù)。例如,出于公共安全目的采用人臉識別技術(shù)時,其內(nèi)在的利益權(quán)衡過程可以總結(jié)為:首先,人臉識別技術(shù)應(yīng)用方式是否遵守了公序良俗等基本原則;其次,如果遵守了,那么按照該原則,其中的核心利益是個人利益還是企業(yè)利益;最后,因為出于公共安全目的采集人臉識別信息本質(zhì)上還是為了個人安全,無論是個人信息權(quán)益,還是個人安全權(quán)益,均屬于個人利益,因而利益權(quán)衡的方式應(yīng)當(dāng)在保障人臉識別信息安全風(fēng)險不變的情況下,為了確保公共場所設(shè)置的人臉識別系統(tǒng)和裝置不損害個人信息安全狀態(tài),進而衍生出“顯著標(biāo)識提醒義務(wù)”“敏感個人信息嚴格保護義務(wù)”等義務(wù)內(nèi)容,用以沖抵可能增加的技術(shù)濫用風(fēng)險。
。ㄈ├鏅(quán)衡理論的引入與再審視
利益權(quán)衡與行政法領(lǐng)域的比例原則較為相似,后者主要是指行政機關(guān)在實施具體行政行為時應(yīng)確保行政目標(biāo)實現(xiàn)和行政相對人權(quán)益保護;比例原則不僅適用于行政法領(lǐng)域,且可適用于民法、刑法領(lǐng)域。當(dāng)然,比例原則也存在自身的局限性,如在復(fù)雜的實踐場景中,作為行政相對人的利益群體不同、可供選擇的行政手段不同等往往可能導(dǎo)致該原則在具體適用過程中利益權(quán)衡標(biāo)準(zhǔn)不統(tǒng)一。并且,在必要性審查環(huán)節(jié),“最小損害”的判斷模式容易陷入純粹的數(shù)量比較,進而引發(fā)濫訴問題。盡管存在這些局限性,但比例原則的確體現(xiàn)了利益權(quán)衡的預(yù)設(shè)前提——整體性利益框架。
需要注意的是,利益、法益與權(quán)益三個詞常被混同替換使用,但嚴格來說,三者之間仍然具有一定的差異性。相較于其余兩個概念,“利益”一詞強調(diào)的是一種人與人之間就某種特定需求所形成的利害關(guān)系,在具體的法律關(guān)系中,利益則表現(xiàn)為相應(yīng)的權(quán)益。而學(xué)界關(guān)于“法益”概念的理解存在分歧,刑法學(xué)界的主流觀點則將法益概念與權(quán)益概念混同,其根源是受到日本學(xué)者對法益概念的推崇。對于利益權(quán)衡所涉及的“利益”,有學(xué)者將之劃分為當(dāng)事人的具體利益、群體利益、制度利益和社會公共利益,分別對應(yīng)“雙方當(dāng)事人之間的各種利益”“案件判決結(jié)果對類似群體的利益”“法律制度中的利益”和“涉及經(jīng)濟秩序和社會公德的利益”。這種利益架構(gòu)的優(yōu)點在于將制度利益、社會公共利益設(shè)置為參照物,在制度利益無法反映社會公共利益時,相應(yīng)的制度利益就應(yīng)當(dāng)被突破,形成新型的利益權(quán)衡方案。以“人臉識別第一案”為例,假設(shè)杭州動物園采用的人臉識別技術(shù)不會造成個人信息泄露,且不采用人臉識別技術(shù)可能導(dǎo)致公共安全無法保障,那么動物園使用刷臉設(shè)備就是合法的、正當(dāng)?shù)摹4藭r選擇“保護動物園”能夠?qū)崿F(xiàn)利益的最大化,選擇“不保護動物園”則會導(dǎo)致諸多其他利益的失衡。然而,在司法實踐中,動物園既無法確保人臉識別技術(shù)的安全性足以控制個人信息泄漏風(fēng)險,也無法確保不采用人臉識別技術(shù)就不能保障相同水平的公共安全保障目標(biāo),法院也不出意外地沒有認定動物園采用刷臉設(shè)備的合法性。由于“社會公共利益”的界定模式過于龐雜,且具體利益、群體利益、制度利益以及社會公共利益的實際主體具有重疊性,存在“主體標(biāo)準(zhǔn)與價值位序標(biāo)準(zhǔn)混同”的問題,因此,有必要重新對人臉識別技術(shù)應(yīng)用領(lǐng)域的利益層次架構(gòu)進行調(diào)整,從利益主體、利益保護目標(biāo)明確權(quán)衡的統(tǒng)一標(biāo)準(zhǔn)。
四、人臉識別技術(shù)應(yīng)用的合法性邊界認定:以利益權(quán)衡理論為基礎(chǔ)
(一)三步判斷
在人臉識別技術(shù)應(yīng)用的利益權(quán)衡中,公私利益二元平衡模式忽視了人臉識別技術(shù)行業(yè)的產(chǎn)業(yè)利益與人臉識別技術(shù)使用者的利益。在具體的法律關(guān)系中,相應(yīng)的法律主體也涉及研發(fā)者、使用者、用戶與社會公眾等多方主體。故而在利益權(quán)衡過程中,不能僅僅以公共利益與個體利益劃分方式進行區(qū)隔,否則只會陷入一般性的法律價值位階比較的理論困局,且無法關(guān)注到微觀層面的利益差別。
第一步,利益權(quán)衡的前提條件預(yù)設(shè)。不同的應(yīng)用場景往往意味著不同的技術(shù)應(yīng)用需求,其所對應(yīng)的合法性判斷標(biāo)準(zhǔn)也會有所不同。通常而言,人臉識別技術(shù)的應(yīng)用目的包括“安全保障”和“經(jīng)營性活動”兩種,前者是指通過該項技術(shù)實現(xiàn)高效的身份核驗和可疑行為監(jiān)控,后者則是指通過該項技術(shù)實現(xiàn)業(yè)務(wù)模式優(yōu)化、內(nèi)部管理效率提升等目的。在“安全保障”層面,首先需要判斷的要素是人臉識別技術(shù)能夠達到什么程度的安全保障水平、潛在的技術(shù)安全風(fēng)險以及是否存在多個可替代的技術(shù)方案。這是因為一旦人臉識別技術(shù)存在顯著的安全風(fēng)險或諸多可以替代的技術(shù)方案,那么就沒有利益權(quán)衡的需要。僅僅在社會公共利益層面,采用一種技術(shù)方案提升安全狀態(tài),然后又減損其他領(lǐng)域的更多的安全利益,只會使社會公共利益的整體性減損。在“經(jīng)營性活動”層面,首先需要判斷的要素則是技術(shù)應(yīng)用可能涉及自然人的何種利益。不同于前一種情形,“經(jīng)營性活動”的技術(shù)應(yīng)用通常屬于人臉識別技術(shù)的后續(xù)利用,如工作狀態(tài)監(jiān)控、身體狀態(tài)健康監(jiān)控等情形,涉及除個人信息之外的利益權(quán)衡問題。
第二步,基于預(yù)設(shè)條件的不同主體利益權(quán)衡。將利益分為個體利益、產(chǎn)業(yè)利益、使用者利益以及社會公共利益,并與先前的預(yù)設(shè)條件結(jié)合,具體判斷承認人臉識別技術(shù)應(yīng)用合法性后對這些利益的影響。如假設(shè)在公園進出口采用人臉識別技術(shù)的目的是“公共安全保障”,且公園管理方的管理能力與管理資源有限,人工審核進出可能會增加游客進出時間,同時人臉識別技術(shù)的產(chǎn)品提供方能夠確保刷臉設(shè)備符合技術(shù)安全標(biāo)準(zhǔn),此時,如果認可人臉識別技術(shù)具備合法性,雖然進出公園的游客個人利益可能受到一定限度的減損,但是使用者(公園管理方)的利益、社會公共利益(如公共安全等)均能夠得到保護。相應(yīng)地,人工智能應(yīng)用產(chǎn)業(yè)的相關(guān)商業(yè)利益也能得到法律認可,因為這類技術(shù)應(yīng)用模式并不會造成利益失衡的不利結(jié)果。進出公園的游客群體雖然需要提交人臉識別信息,但是可以享受更為便捷的進出服務(wù),且園內(nèi)社會治安秩序也能夠得到保障。
第三步,利益權(quán)衡的判斷不僅是數(shù)量層面的權(quán)衡,還包括內(nèi)容層面的權(quán)衡。前述第一步判斷是為了限縮有必要進行利益權(quán)衡的場景范圍,第二步則是為了在數(shù)量層面判斷人臉識別技術(shù)應(yīng)用是否可能造成“多數(shù)人”的利益減損。為了避免第二步可能導(dǎo)致的非理性利益數(shù)量平衡偏差,此時就需要將第二步的利益平衡結(jié)果與包含了社會治理目的的制度利益進行比較。在《征求意見稿》中,制度利益表現(xiàn)為第1條所提及的立法目的,即“規(guī)范人臉識別技術(shù)應(yīng)用,保護個人信息權(quán)益及其他人身和財產(chǎn)權(quán)益,維護社會秩序和公共安全”。在具體的技術(shù)應(yīng)用場景中,這種制度利益可以解釋為“技術(shù)應(yīng)用不應(yīng)當(dāng)違背禁止性規(guī)定,保護個體利益的同時,也能夠?qū)崿F(xiàn)社會公共利益的保護”。結(jié)合第二步的利益影響結(jié)果,雖然游客的個體利益受到部分減損,但這種減損僅僅在發(fā)生實質(zhì)性的安全風(fēng)險事件時才會存在。因此,可以認定該類人臉識別技術(shù)應(yīng)用的合法性與制度利益具有一致性。
。ǘ├鏅(quán)衡理論的“特定的目的”和“充分的必要性”之解釋
《征求意見稿》第4條提及的“特定的目的”和“充分的必要性”之要件可以視為利益權(quán)衡的直接法律依據(jù)。(1)從文義解釋來說,所謂的“特定的目的”通常對應(yīng)的是目的明確性要求,這里的“特定”不僅是指個人信息處理者應(yīng)當(dāng)明確告知自然人收集人臉識別信息的目的,還強調(diào)告知的目的內(nèi)容應(yīng)當(dāng)明確具體。在利益權(quán)衡過程中,這也是第一步所需要明確的前提預(yù)設(shè)條件,因為模糊不清的處理目的難以明確人臉識別技術(shù)應(yīng)用對個體利益、產(chǎn)業(yè)利益、使用者利益、社會公共利益的影響。如果僅僅以公共安全、身份核驗等籠統(tǒng)性表述作為處理目的,不僅不能完成一般性應(yīng)用模式的合法性判斷,而且會構(gòu)成利益權(quán)衡第三步所涉及的個人利益減損問題。因為此時的處理目的并不足以支撐個人對其人臉識別信息處理方式作出充分自主的決定,減損的是個人的知情權(quán),因此難以證成相關(guān)技術(shù)應(yīng)用具有合法性。(2)所謂的“充分的必要性”通常對應(yīng)的是最小必要原則。在特定場景下,人臉識別技術(shù)的應(yīng)用屬于“沒有可替代的其他技術(shù)方案”,即“不得不采用”之情形。一方面,“充分的必要性”與“特定的目的”相關(guān)聯(lián)。為了實現(xiàn)特定的目的,只有采用人臉識別技術(shù),即“目的和手段的一致性”符合“充分的必要性”之要求。另一方面,“充分的必要性”也是補充利益權(quán)衡的另一個環(huán)節(jié)。合法性與必要性屬于兩個不同的判斷環(huán)節(jié)。在完成利益權(quán)衡之后,如果不存在“充分的必要性”,亦即在利益權(quán)衡的第三步中,對個人利益的影響能夠控制到更低程度時,則需要對可替代的技術(shù)方案再進行一次利益權(quán)衡。
假設(shè)刷卡進出能夠發(fā)揮與人臉識別技術(shù)相同的安全保障效果,在進行相同的應(yīng)用目的確認的第一步權(quán)衡后,第二步的利益平衡則轉(zhuǎn)變?yōu)椴捎盟⒖夹g(shù)方案對個體利益、產(chǎn)業(yè)利益、使用者利益以及社會公共利益的影響。此時,刷卡進出技術(shù)方案具有合法性,由于此時所需要的信息從原本的敏感個人信息轉(zhuǎn)變?yōu)橐话銈人信息,個體利益、使用者利益以及社會公共利益都能夠得到保護。因為進出公園所需要的一般個人信息是進出公園所必需,并不等于個體利益無法得到保護。而使用者(公園管理方)可以采取成本更低廉的技術(shù)方案實現(xiàn)相同的技術(shù)效果,其實際利益反而能得到更大保護。刷卡進出同樣能夠保證園區(qū)的公共安全和進出秩序,社會公共利益的保護亦能得到落實。在第三步中,制度利益則轉(zhuǎn)變?yōu)椤秱人信息保護法》第1條提及的“保護個人信息權(quán)益,規(guī)范個人信息處理活動,促進個人信息合理利用”。前述的利益權(quán)衡以更低的泄漏風(fēng)險、更少的敏感個人信息保護了自然人的個人信息權(quán)益,且刷卡所需錄入的個人信息也符合“促進個人信息合理利用”這一制度利益內(nèi)容,故而刷卡技術(shù)應(yīng)用具有合法性,而且無直接涉及減損個體權(quán)益的風(fēng)險,也滿足了必要性要求,故公園管理方更應(yīng)當(dāng)采用刷卡進出的方式。
(三)利益權(quán)衡理論的制度化方式:個人信息保護影響評估
學(xué)理層面的利益權(quán)衡方式表現(xiàn)為《個人信息保護法》與征求意見稿中所提及的個人信息保護影響評估機制。具體評估事項包括“處理人臉信息是否具有特定的目的和充分的必要性”“采取的保護措施是否合法有效并與風(fēng)險程度相適應(yīng)”“可能對個人權(quán)益帶來的損害和影響,以及降低不利影響的措施是否有效”等內(nèi)容。所謂的個人信息保護影響評估本質(zhì)上是對采用新興信息技術(shù)可能產(chǎn)生的不利影響進行事前評估和衡量,以此督促個人信息處理者選擇更為穩(wěn)妥的技術(shù)應(yīng)用方案。誠然,個人信息保護評估機制的創(chuàng)設(shè)目的并不是為了實現(xiàn)利益權(quán)衡,而是以事前的自評估或他評估方式實現(xiàn)自我管理、自我約束的治理效果,并不涉及企業(yè)對自己所處的整體性利益層次結(jié)構(gòu)進行權(quán)衡,且其制度功能多被理解為“檢驗個人信息處理是否合規(guī)、降低個人信息安全風(fēng)險、減輕或免除個人信息處理責(zé)任”。但是,利益權(quán)衡范式的實際功能在于提供一種技術(shù)應(yīng)用合法性的評估路徑,避免諸如“公共安全”“公共利益”“公共場所”等較為籠統(tǒng)的概念成為技術(shù)應(yīng)用者、監(jiān)管機構(gòu)等判斷和預(yù)測人臉識別技術(shù)應(yīng)用法律效果的障礙,過度限制或放寬人臉識別技術(shù)的應(yīng)用范圍。
現(xiàn)行立法并未對個人信息保護影響的評估流程、標(biāo)準(zhǔn)以及結(jié)果作出明確規(guī)定,但《信息安全技術(shù)個人信息安全影響評估指南(GB/T 39335-2020)》則將評估實施流程明確為評估必要性分析、評估準(zhǔn)備工作、數(shù)據(jù)映射分析、風(fēng)險源識別、個人權(quán)益影響分析、安全風(fēng)險綜合分析、評估報告、風(fēng)險處置和持續(xù)改進、制定報告發(fā)布策略等環(huán)節(jié)。其中,個人權(quán)益影響分析則涉及個人信息敏感程度分析、個人信息處理活動特點分析、個人信息處理活動問題分析以及影響程度四個部分。在人臉識別技術(shù)應(yīng)用領(lǐng)域,評估環(huán)節(jié)則表現(xiàn)為:首先,個體利益是自然人對其敏感個人信息的特殊權(quán)益;其次,人臉識別信息處理活動如果以“經(jīng)營性活動”為使用目的,那么該類個人信息處理活動可能涉及差別性待遇等問題;再次,判斷采用的人臉識別技術(shù)是否存在顯著的安全漏洞風(fēng)險以及實際的風(fēng)險級別;最后,結(jié)合前述結(jié)果判斷流程,綜合分析可能對個人權(quán)益產(chǎn)生的負面影響及其影響程度。與利益權(quán)衡范式相比,個人信息保護影響評估將“利益”轉(zhuǎn)變?yōu)椤帮L(fēng)險”進行衡量和評估,合法性的技術(shù)應(yīng)用除了需要滿足“風(fēng)險可控”“風(fēng)險可接受”等標(biāo)準(zhǔn)之外,還需要滿足“增加的個人權(quán)益負面影響風(fēng)險”小于“降低的其他安全風(fēng)險”。
現(xiàn)行法律規(guī)范未明確個人信息保護影響評估所采用的評估標(biāo)準(zhǔn),有學(xué)者主張相關(guān)評估標(biāo)準(zhǔn)可通過“安全事件可能性分析”“個人權(quán)益影響分析”和“綜合分析”三個層面予以明確,或采用《信息安全技術(shù)個人信息安全影響評估指南(GB/T 39335-2020)》所列舉的嚴重、高、中、低四個等級,或者企業(yè)自行設(shè)置的風(fēng)險級別進行細化。從利益權(quán)衡范式來看,與利益相對應(yīng)的“風(fēng)險”評估過程并不是一個精準(zhǔn)量化過程,且《征求意見稿》第15條所提及的評估事項多是以“程度”“所必需”等為限定詞,個人信息保護影響評估并沒有強制設(shè)置具體的評估標(biāo)準(zhǔn),而是由評估主體自行選擇參照物進行風(fēng)險程度的比對,由此確定風(fēng)險級別。個人信息保護影響評估的目的在于個人信息處理者在技術(shù)應(yīng)用前評估技術(shù)手段與技術(shù)目標(biāo)之間的必要性以及合法性,其與數(shù)據(jù)安全風(fēng)險評估不同的是,該評估機制更側(cè)重對個體利益影響的評估,而不是單純的安全風(fēng)險量化評估。相應(yīng)地,其評估邏輯可以理解為權(quán)衡該技術(shù)應(yīng)用對個體利益的影響程度以及這種影響程度是否與合法狀態(tài)下的利益權(quán)衡架構(gòu)有區(qū)別,倘若存在顯著區(qū)別,則可以認定其技術(shù)應(yīng)用將對個人權(quán)益產(chǎn)生較大負面影響。
五、利益權(quán)衡理論對人臉識別應(yīng)用場景的限縮功能:以公共場所為例
。ㄒ唬⿵囊话愕骄唧w:應(yīng)用場景范圍的限縮邏輯
既有學(xué)說普遍認為,非基于公共安全或個人財產(chǎn)安全目的的人臉識別技術(shù)應(yīng)用需要以自然人的明確同意為前提,因為信息技術(shù)的便捷性不能作為自然人有義務(wù)接受該類信息技術(shù)服務(wù)的正當(dāng)性基礎(chǔ),考慮到存在特殊人群的“數(shù)字鴻溝”,刷臉認證往往也不是最佳的技術(shù)優(yōu)化方案。因此,在人臉識別技術(shù)應(yīng)用合法性討論中,最核心的問題是“公共場所”內(nèi)安裝人臉識別設(shè)備和信息系統(tǒng)是否合法,且這種安裝行為是否以公共安全保障為前提。在此基礎(chǔ)上進而延伸出兩個子問題:其一,“公共場所”的范圍如何劃定,F(xiàn)行立法常將“公共場所”與“經(jīng)營場所”并列,并且大多也采取列舉的方式將車站、碼頭、機場、醫(yī)院、商場、公園、影劇院、展覽會、運動場、銀行、學(xué)校、游泳館、車站、兒童游樂場、學(xué)生集體宿舍、港口等作為“公共場所”。這些公共場所彼此之間的開放程度、活動屬性存在較大差異,顯然無法一并作為人臉識別技術(shù)應(yīng)用的合法例外情形。其二,從“公共安全”這一目的出發(fā)可否推導(dǎo)出技術(shù)應(yīng)用存在法律意義上的“必要性”。誠然,對于部分自然人而言,接受公共場所的人像采集并不會讓自己發(fā)生“實際的經(jīng)濟損失”,且能夠有助于公共場所的安全保障,這種“必要性”屬于自然人能夠接受的范圍。但是這種“必要性”程度可能導(dǎo)致公權(quán)力擴張的偏差結(jié)論,即在任何公共場所都可以免責(zé)性地安裝人臉識別設(shè)備和信息系統(tǒng)。由此可見,即便是基于公共安全目的進行人臉識別,也不完全屬于《征求意見稿》第10條規(guī)定的情形,故而有必要首先基于人臉識別技術(shù)應(yīng)用場景的法律性質(zhì)對公共安全進行層次性限縮。在前述的三步利益權(quán)衡范式中,第一步的“前提條件預(yù)設(shè)”恰是為了區(qū)分不同目的、不同場景中人臉識別技術(shù)應(yīng)用的正當(dāng)性基礎(chǔ),這是因為目的、場景的不同會導(dǎo)致相應(yīng)的整體性利益架構(gòu)不同,也意味著會形成不同的利益權(quán)衡方案。
其一,應(yīng)用場景的公共性與私人性影響人臉識別技術(shù)應(yīng)用的合法性,私人性場所通常具有封閉性、人員有限性、活動內(nèi)容私人社交性等特征,此時是否接受人臉圖像采集和識別完全屬于意思自治的范疇。需要澄清的是,鑒于《個人信息保護法》規(guī)定了有關(guān)個人信息處理的“知情同意規(guī)則”,學(xué)者們習(xí)慣性地將“同意”理解為公法領(lǐng)域個人信息處理者的強制性義務(wù),人臉識別信息收集也應(yīng)當(dāng)以“同意”為前提。但實際上,即便沒有《個人信息保護法》的相關(guān)規(guī)定,從民法視角來看,個人信息處理者與自然人之間的信息服務(wù)合同關(guān)系也決定了人臉識別信息的處理活動需要以合意為基礎(chǔ),亦即自然人同意!秱人信息保護法》之所以對相關(guān)內(nèi)容作出細致規(guī)定,除了為確保條款內(nèi)容的體系性完整之外,還是為了通過公法的介入化解個人信息處理者與自然人之間的實際地位不平等問題,避免自然人因信息不對稱等問題做出錯誤的意思表示。這種私法性特征所表現(xiàn)的整體性利益架構(gòu)僅以自然人和個人信息處理者雙方的個體利益為限,其應(yīng)用場景大多是封閉式的私人空間,并不會涉及產(chǎn)業(yè)利益等,故而沒有必要進行利益權(quán)衡范式中的第二步利益權(quán)衡,僅以合同雙方之間的權(quán)利義務(wù)平衡即可。換言之,有必要進行利益權(quán)衡的應(yīng)用場景主要還應(yīng)以“公共場所”為限。
其二,即便在公共場所設(shè)置人臉識別設(shè)備和信息系統(tǒng)也不當(dāng)然具有正當(dāng)性基礎(chǔ)。舉例來說,商場出于挖掘潛在客戶、識別老客戶等經(jīng)營性目的而采用人臉識別技術(shù),即便其兼具保障商場公共安全的目的,也無法使其合法化。因為不僅其技術(shù)應(yīng)用方式與技術(shù)應(yīng)用目的不匹配,而且其技術(shù)應(yīng)用效果與權(quán)益損害風(fēng)險也不匹配。在實踐中,絕大部分商場所采用的人臉識別設(shè)備與信息系統(tǒng)往往是以外包服務(wù)的形式交由第三方技術(shù)公司處理,人臉識別數(shù)據(jù)的安全性難以得到保障。此外,倘若商場僅以公共安全的目的采用人臉識別技術(shù),雖然在利益權(quán)衡的第二步中能夠得出“個體利益存在減損風(fēng)險,使用者利益、產(chǎn)業(yè)利益和社會公共利益得到保護”的理想結(jié)論,但這種結(jié)論無法當(dāng)然滿足利益權(quán)衡第三步所提及的“制度利益”。因為此時的“制度利益”內(nèi)容之一是保障個人信息安全,一旦商場所采用的人臉識別技術(shù)不具有可靠性或超目的處理人臉識別信息,商場顧客的個人信息顯然面臨極大的安全風(fēng)險,也就不符合理想化的利益權(quán)衡效果。因此,還有必要在應(yīng)用目的層面對“公共場所”范圍進行限縮。執(zhí)法機構(gòu)采用人臉識別技術(shù)雖然也是以公共安全為目的,但由于其公共職能屬性,相應(yīng)的整體性利益框架只有個體利益和社會公共利益兩類,這兩類利益的權(quán)衡重心則轉(zhuǎn)至第三步,即執(zhí)法機構(gòu)采用人臉識別技術(shù)是否具有實現(xiàn)國家安全、公共安全以及公民安全的必要性,采用比例原則進行判斷即可。
(二)從具體到特定:公共場所概念范圍的限縮依據(jù)
在對人臉識別技術(shù)應(yīng)用的“公共場所”進行范圍限縮之前,有必要對“公共場所”的概念予以明確解釋。征求意見稿以及人臉識別技術(shù)應(yīng)用相關(guān)的法律法規(guī),均提及了公共場所應(yīng)用的特殊情形,但是對于什么是“公共場所”以及其包含的具體類型并沒有明確規(guī)定,而且公共場所與經(jīng)營場所等概念并列出現(xiàn),導(dǎo)致公共場所的實踐認定標(biāo)準(zhǔn)模糊。審視現(xiàn)行立法體系,除了《民法典》第1198條提及經(jīng)營場所、公共場所的類型,有關(guān)“公共場所”的概念界定或范圍列舉常見于刑法、行政法等公法領(lǐng)域,且多是以具體場所類型的方式予以列舉。而在司法實踐中,法官一般認為公共場所具有“公共秩序”和“人口密集”兩種屬性。如在“張某訴上海地鐵某運營有限公司、淮安市某保安服務(wù)公司健康權(quán)糾紛案”中,法院認為“公共場所合理安全保障規(guī)則”具有公共秩序?qū)傩;在“王某妨害傳染病防治案”中,法院則將市場、飯店、藥店、政務(wù)大廳等均認定為“公共場所”。學(xué)界主流觀點認為公共場所應(yīng)當(dāng)滿足“公眾可以自由出入”和“供社會公眾從事社會生活”兩個要件,既與公共利益、社會公德相關(guān),也允許公權(quán)力介入。有學(xué)者將民事立法過程中的“公共場所”爭議總結(jié)為兩類。一是原《侵權(quán)責(zé)任法》第37條的“公共場所”實際是指“向社會公眾提供服務(wù)的經(jīng)營場所”,并非真正意義上的公共場所,故而賓館、商場、銀行、飯店等不屬于民法意義上“公共場所”;二是公共場所應(yīng)當(dāng)是指公共服務(wù)性場所,包括機場、碼頭、公園、餐廳等。不過,也有學(xué)者認為公共場所的概念界定難以統(tǒng)一,但是從特征方面卻可以總結(jié)為具有開放性、公共性、多元性和不確定性;對于存在爭議的特定場所,則可以根據(jù)開放程度予以解釋,如公園、廣場屬于完全開放的公共場所,學(xué)校屬于半開放公共場所,賓館、民宿屬于封閉公共場所。公共場所還可以分為“完全性的公共空間”和“半公共空間”。除此之外,從私密性的角度反面解釋公共場所概念也較為常見。因為公共場所對應(yīng)的概念是私密場所,故而公共場所也被部分學(xué)者解釋為“公眾可以任意逗留、集會、游覽或利用的場所”,具有開放、共享、自由的特性。由此可見,對于公共場所的概念界定,實際上聚焦于開放性與公眾活動性。為此也有學(xué)者將“公眾場所”界定的概念學(xué)說總結(jié)為“開放說”與“用途說”,前者強調(diào)公共場所允許社會公眾隨意進出;后者則強調(diào)公共場所應(yīng)當(dāng)用于開展公眾活動。
客觀而言,公共場所的核心特征在于其公共性,既包括對不特定人開放,也包括不特定人能夠在該場所從事不特定的活動。這里的不特定人并不僅僅局限于主體身份的不特定性,還指向主體人數(shù)的不特定性,因為在實踐層面,公共場所應(yīng)允許社會公眾進出和從事相關(guān)活動。雖然并不以特定人數(shù)為量化標(biāo)準(zhǔn),但能夠進出的人群應(yīng)當(dāng)符合一般認知的“多數(shù)人”。并且,公共場所也不以是否有償或有條件進出作為核心認定標(biāo)準(zhǔn),諸如收費進出的游泳館、僅限師生進出的學(xué)校校園等場所雖然進出存在條件,但不能否認其具有一定程度的社會開放性。在認定公共場所的過程中,最常遇到的問題便是特定場所僅限多數(shù)的特定個人或特定人群進出,尤其是絕大多數(shù)經(jīng)營場所均具有這個特點。需要強調(diào)的是,公共場所的認定標(biāo)準(zhǔn)通常是多元化的,其核心要素應(yīng)當(dāng)是與私密性相對應(yīng),故而需要判斷場所內(nèi)的人員之間是否存在社會交往互動。倘若彼此之間均屬于親朋好友,特定場所的社會交往活動也是以私密信息為主,那么顯然就不屬于公共場所范疇。
。ㄈ⿵睦碚摰綄嵺`:公共場所范圍的限縮
第一,具體用途層面的范圍限縮。在公共場所設(shè)置人臉識別技術(shù)需要根據(jù)具體用途和設(shè)置場地予以進一步明確:在進出口安裝刷臉門禁設(shè)備和在公共場所內(nèi)安裝人臉識別設(shè)備其必要性并不等同。一方面,在進出口安裝刷臉門禁設(shè)備時,其目的是高效率完成身份核驗,避免可疑人員進出公共場所造成混亂,此時的人臉識別技術(shù)應(yīng)用顯然需要限于人口流動量較大的公共場所及其特定區(qū)域,這與實踐中賓館、酒店等公共場所要求強制實名身份登記具有相似性。另一方面,在特定場所內(nèi)部安裝人臉識別設(shè)備時,由于涉及對不特定個人的人臉識別信息采集、跟蹤和處理,對個人權(quán)益的影響更為顯著,故而需要明確設(shè)置的區(qū)域、方式以及技術(shù)是否會造成個體利益的實際減損,亦即相應(yīng)的利益權(quán)衡結(jié)果是否與制度利益相符合。
第二,具體環(huán)境層面的范圍限縮。《個人信息保護法》所強調(diào)的制度利益是“非必要不收集人臉識別信息”和“最大程度保護人臉識別信息”,故而在公共場所設(shè)置人臉識別設(shè)備同樣需要根據(jù)設(shè)置場所和位置評估其合法性。結(jié)合利益權(quán)衡所涉及的個體利益、產(chǎn)業(yè)利益、使用者利益以及社會公共利益來看,公共場所設(shè)置人臉識別設(shè)備應(yīng)當(dāng)滿足三個條件:一是公共場所存在預(yù)防公共安全風(fēng)險的必要。若無公共安全目的,雖然使用者利益和產(chǎn)業(yè)利益能得到保護,但個體利益和社會公共利益卻未能保護,所以大范圍采集人臉識別信息和監(jiān)控社會公眾顯然侵害了個人隱私、個人信息權(quán)益以及社會公眾的人格尊嚴。二是公共場所具有人口密集的特點。因為在人流量較少的區(qū)域公共安全事件發(fā)生概率較低,且即使發(fā)生公共安全事件,當(dāng)事人也能夠在第一時間盡可能躲避危險,所以并沒有進行人臉識別的必要性。三是“公共場所”不涉及個人活動的特定區(qū)域。雖然酒店、賓館等屬于公共場所,但其內(nèi)的客房顯然屬于私密的空間,因此不應(yīng)設(shè)置人臉識別設(shè)備。
第三,公共場所活動層面的范圍限縮。游泳館和車站均屬于公共場所,但是在這兩個場所采用人臉識別技術(shù)的合法性判斷卻有所不同:在游泳館內(nèi),基于公共安全目的安裝人臉識別設(shè)備和系統(tǒng),僅在前提預(yù)設(shè)條件層面就無法滿足合法性要求。因為游泳館所發(fā)生的公共安全事件大多與溺水相關(guān),設(shè)置安全員等傳統(tǒng)措施完全能夠作為人臉識別技術(shù)的替代方案,傳統(tǒng)的視頻監(jiān)控錄像等技術(shù)方案能夠發(fā)揮相同作用,專門采集人臉識別信息沒有必要。不過,如果選擇設(shè)置刷臉進出門禁時,其前提應(yīng)當(dāng)是除了刷臉進出技術(shù)方案之外,不存在相似效果的替代方案。如車站的人流量顯著高于游泳館,無論是車站進出口還是車站內(nèi)部設(shè)置人臉識別設(shè)備和系統(tǒng),都能更好地保障公共安全。
第四,場所安全性層面的范圍限縮。盡管《征求意見稿》第14條禁止物業(yè)公司將人臉識別技術(shù)作為唯一的身份驗證方式,但并沒有否定物業(yè)公司可以采用刷臉進出的模式,只不過從利益權(quán)衡的角度來看,刷臉進出需要滿足“技術(shù)安全可靠”“應(yīng)用目的僅以小區(qū)安全為限”“小區(qū)所存在的安全風(fēng)險確實需要通過刷臉技術(shù)予以有效控制”等目的。這里需要強調(diào)的是,倘若小區(qū)近期存在盜竊案頻發(fā)且采用的身份驗證方式難以有效排除可疑人員時,在進出口采用人臉識別技術(shù)則符合相應(yīng)的合法性要求。
六、結(jié)語
我國人臉識別技術(shù)應(yīng)用治理已經(jīng)進入到全新階段,細化和判斷人臉識別技術(shù)應(yīng)用的合法性成為執(zhí)法和司法的關(guān)鍵。一概否定經(jīng)營性場所采用人臉識別技術(shù)提升業(yè)務(wù)能力的合法性,或者一概承認公共場所采用人臉識別技術(shù)保障公共安全的合法性,均不可取。不同于大數(shù)據(jù)、人工智能、區(qū)塊鏈等信息技術(shù),人臉識別技術(shù)作為應(yīng)用導(dǎo)向的新興技術(shù),決定了其治理邏輯應(yīng)當(dāng)以具體場景作為合法性判斷的前提條件。根據(jù)人臉識別技術(shù)應(yīng)用的安全性、必要性和可靠性進行利益權(quán)衡時,不能單單進行法律價值位階的分析,而更應(yīng)當(dāng)關(guān)注技術(shù)應(yīng)用對整個利益的影響,并以制度利益作為參照物,判斷人臉識別技術(shù)應(yīng)用的合法性。
