隨著人工智能技術(shù)的不斷發(fā)展,在家居、出行、醫(yī)療等眾多領(lǐng)域中,裝載人工智能系統(tǒng)的產(chǎn)品正逐漸增多。這類產(chǎn)品的應用場景,也從最初的專業(yè)人員與特定領(lǐng)域,擴展至普通民眾的日常生活之中。在此背景下,當人工智能產(chǎn)品在使用過程中造成他人損害時,使用者是否仍應像使用傳統(tǒng)產(chǎn)品那樣承擔責任,成為一個亟須探討的問題。對此,有的觀點主張使用者不應承擔責任,因為人工智能系統(tǒng)的行為完全由生產(chǎn)者控制;而有的觀點則認為,使用者作為實際操作乃至“再訓練”主體,應與生產(chǎn)者承擔相同類型的責任。下文嘗試對此爭議予以辨析。
人工智能系統(tǒng)
如何影響產(chǎn)品使用者
人工智能系統(tǒng)可區(qū)分為“輔助型”與“替代型”。前者如醫(yī)療人工智能診斷或司法材料檢索工具,是由自然人在系統(tǒng)輔助下作出最終判斷。這類系統(tǒng)的使用場景典型體現(xiàn)在某專業(yè)領(lǐng)域?qū)<以谑褂迷擃惍a(chǎn)品時借助其系統(tǒng)作出判斷,如醫(yī)生或法官,他們本身具備專業(yè)的判斷能力,將人工智能系統(tǒng)作為工具以提升決策效率、減少偏見與隨意性。例如,人工智能診療系統(tǒng)提供的每個判斷都需醫(yī)務人員再確認才能實施,其作用限于知識輔助和程序優(yōu)化,并不直接輸出確定的結(jié)論。相反,替代型系統(tǒng),如有條件的自動駕駛汽車,則在設計運行范圍內(nèi)完全替代人類執(zhí)行任務(如動態(tài)駕駛),用戶僅需在緊急情況下接管。這兩類系統(tǒng)的區(qū)別對使用者產(chǎn)生不同的影響:輔助型強調(diào)使用者的最終決策與責任,而替代型弱化了人的實時干預,從而也使責任承擔機制呈現(xiàn)差異。此外,人工智能決策輔助工具并非簡單復制人類能力,而是經(jīng)常會超越人類,處理復雜模式并不以直觀的方式推理,這雖然提升了能力,但也可能降低用戶的職業(yè)警惕,甚至使其盲目追隨自動化決策,導致原本正確的判斷被機器扭轉(zhuǎn)。
盡管人工智能系統(tǒng)加裝到產(chǎn)品上顯著改變了產(chǎn)品的功能特性與用戶體驗,但并未改變產(chǎn)品使用者在法律上的地位。產(chǎn)品用戶無論是個人消費者還是專業(yè)領(lǐng)域的專家,并未因使用人工智能產(chǎn)品而轉(zhuǎn)變?yōu)樯a(chǎn)者或純粹的受眾,其法律身份與責任基礎保持不變。生產(chǎn)者仍是決定人工智能系統(tǒng)安全特性的核心行為者,負責設計、出廠、運行維護及危險控制,而用戶則需對因自身不當使用造成的損害承擔過錯責任。不能將用戶與生產(chǎn)者置于同一責任層面,因為技術(shù)危險源仍由生產(chǎn)者掌控。因此,人工智能的使用并未顛覆現(xiàn)有責任框架,用戶的地位依然根植于其使用行為與過錯認定,而非技術(shù)本身的自主性。
人工智能系統(tǒng)運用是否
改變了對使用者過錯的判斷
過錯判斷的核心在于行為人是否違反了合理的注意義務,其認定以“可預見性”為前提。過錯即行為人能夠預見到自己的行為可能對受保護的法益造成侵害,卻未采取合理措施避免該侵害?深A見性并非指個案中當事人的主觀能力,而是指向一個抽象的“理性人”標準,即基于當代社會各行各業(yè)所積累的知識、經(jīng)驗、能力和勤勉程度,判斷行為人是否應當預見風險?深A見性要求行為人對其行為的風險進行積極的調(diào)查了解,調(diào)查范圍需涵蓋行為風險所及的合理期間。這里的風險是指某類傷害危險,而非極為具體的損害細節(jié)。合理注意義務要求行為人根據(jù)風險大小采取相應措施,風險越大,調(diào)查了解義務越重?傊,過錯判斷的基本原理是通過理性人標準和行為風險的可預見性,衡量行為人是否盡到了合理的注意義務。
人工智能的介入為使用者過錯判斷帶來了新的挑戰(zhàn)。人工智能系統(tǒng)在產(chǎn)品中的應用改變了傳統(tǒng)的決策過程和行為風險的可預見性。一方面,人工智能的“技術(shù)黑箱”特性使其決策過程難以理解和預測,在一定程度上動搖了可預見性的基礎。例如,人工智能的錯誤可能源于其自主學習和統(tǒng)計推理過程,而非使用者的直接行為,這使得傳統(tǒng)的可預見性標準難以直接適用。另一方面,人工智能的介入改變了使用者的注意義務內(nèi)容。使用者不僅需要了解物的性能和維護要求,還需要對人工智能系統(tǒng)的運行機制、潛在風險和限制有所了解。注意義務的重心從使用者對自身行為的審慎注意,轉(zhuǎn)向?qū)θ斯ぶ悄芟到y(tǒng)的審查、驗證和監(jiān)督。此外,人工智能的風險控制力部分地從使用者轉(zhuǎn)移至提供者,使用者的可預見性和可避免性往往以提供者履行信息告知和提供應對手段為前提。如果提供者未充分告知使用規(guī)范或未提供必要的安全更新,使用者可能不承擔相應的注意義務。因此,盡管人工智能的介入并未完全顛覆過錯判斷的基本原理,但過錯判斷的相關(guān)標準仍需在專家和普通人之間作出適應性調(diào)整。
專家在使用人工智能系統(tǒng)時,其過錯判斷需基于更高的注意義務標準。專家因擁有更多的知識和技能從事更具專業(yè)性的行為,因此其注意義務要求高于普通人。在人工智能系統(tǒng)介入后,專家的注意義務內(nèi)容發(fā)生較為明顯的變化。以醫(yī)療人工智能為例,醫(yī)師的注意義務不再僅限于傳統(tǒng)的診療慣例,還需涵蓋對人工智能系統(tǒng)的審查、監(jiān)督等,且需要根據(jù)醫(yī)療人工智能的發(fā)展階段調(diào)整其注意義務標準。
普通人在使用人工智能系統(tǒng)時,其過錯判斷需基于差異化注意義務標準。普通人的注意義務內(nèi)容因其使用人工智能的類型、場景和控制力而異。對于輔助型人工智能,使用者仍需參與決策和監(jiān)督,因此負有較高的注意義務;對于替代型人工智能,使用者的注意義務重心轉(zhuǎn)向系統(tǒng)檢查和使用規(guī)范的遵守。此外,使用者需按照提供者的指示使用人工智能,包括安裝更新、控制輸入數(shù)據(jù)質(zhì)量和應對系統(tǒng)警示。普通使用者的注意義務還受其身份影響:商業(yè)使用者因具有一定的知識和風險控制手段,負有較高的注意義務;非商業(yè)使用者(如消費者)的注意義務相對較低,但仍需按預期用途使用系統(tǒng)并對明顯風險采取應對措施。需要注意的是,使用者的注意義務并非絕對,需考慮其實際控制力和信息可得性。如果提供者未履行信息告知或更新義務,使用者的注意義務可能減輕。
展望未來,當下對于產(chǎn)品使用者過錯判斷的困難,隨著人工智能技術(shù)的不斷發(fā)展將逐步得以克服,尤其是在系統(tǒng)可解釋性、透明度不斷增強的背景下。然而,技術(shù)解決能力的提高并不意味著過錯判斷問題的解決可以一勞永逸。相反,法律框架中關(guān)于使用者注意義務的標準也需隨技術(shù)迭代不斷調(diào)適。在技術(shù)尚不成熟的階段,設置較低的注意義務有助于鼓勵技術(shù)應用與推廣,而當技術(shù)趨于穩(wěn)定、解釋機制日益完善時,則可能要求使用者承擔更高的監(jiān)督和干預義務,以平衡行為自由、受害人保護與風險控制之間的張力。
。ㄗ髡呦抵袊鐣茖W院法學研究所研究員)
