一、研究背景
2022年11月,由美國(guó)OpenAI公司研發(fā)的ChatGPT橫空出世,代表人工智能技術(shù)的發(fā)展進(jìn)入到一個(gè)新階段,其與歷史上曾經(jīng)出現(xiàn)的幾次人工智能熱潮相比,最大不同之處在于,其已不再僅僅停留在實(shí)驗(yàn)室中或僅為少數(shù)技術(shù)人員所接觸,而是已經(jīng)進(jìn)入到商業(yè)應(yīng)用階段,從而使得社會(huì)公眾得以直接接觸到這一前沿科技成果。ChatGPT自上市以來,在不到兩個(gè)月的時(shí)間內(nèi)風(fēng)靡全球,其月活躍用戶已突破1億,成為歷史上用戶數(shù)量增長(zhǎng)速度最快的一款應(yīng)用程序,足見其受到全球公眾關(guān)注的程度。長(zhǎng)久以來,人工智能這一概念帶給人們無限的想象空間,然而,當(dāng)以ChatGPT為代表的生成式人工智能真實(shí)出現(xiàn)后,即使是人工智能前沿領(lǐng)域的科學(xué)家和行業(yè)專家亦擔(dān)心其有可能給人類帶來無法預(yù)見的損害風(fēng)險(xiǎn),由此可見,人們并沒有為迎接人工智能時(shí)代的到來做好心理、法律和監(jiān)管上的充足準(zhǔn)備。
本文所稱生成式人工智能,是指能夠基于算法、模型等技術(shù)自主生成文本、圖片、音頻、視頻、代碼等內(nèi)容的人工智能軟件系統(tǒng),又可被稱為人工智能生成內(nèi)容系統(tǒng)(AIGC System)。生成式人工智能所具有的損害風(fēng)險(xiǎn)根源在于其技術(shù)特點(diǎn),對(duì)于損害風(fēng)險(xiǎn)的預(yù)防以及在損害發(fā)生后可能采取的補(bǔ)救措施都要遵循技術(shù)邏輯。以ChatGPT為例,其屬于大語(yǔ)言模型(LLM),采用類似“文字接龍”的方式,即從上文中推導(dǎo)出下一個(gè)字、詞,從而遞歸串出一整句話。系統(tǒng)輸出的結(jié)果是由輸入的信息和算法模型所決定的。大語(yǔ)言模型在訓(xùn)練過程中需要輸入大量的數(shù)據(jù),這些數(shù)據(jù)的主要作用并不是供ChatGPT從中直接搜索到現(xiàn)成的答案,而是幫助其進(jìn)行機(jī)器學(xué)習(xí)。其可以從學(xué)習(xí)材料中發(fā)現(xiàn)語(yǔ)言規(guī)律,并依此在與用戶的互動(dòng)中“生成”答案,該答案有可能是數(shù)據(jù)庫(kù)中所不存在的內(nèi)容,因此,其屬于“生成式”人工智能,而不是搜索引擎或數(shù)據(jù)庫(kù)服務(wù)。能夠“生成”或者“創(chuàng)作”一定的內(nèi)容,是生成式人工智能“自主”性的體現(xiàn),同時(shí)也是其產(chǎn)生虛假信息風(fēng)險(xiǎn)的根源之所在。
從世界上一些國(guó)家立法者對(duì)待生成式人工智能的態(tài)度可以看出,其側(cè)重從風(fēng)險(xiǎn)防范的角度出發(fā),試圖通過風(fēng)險(xiǎn)分級(jí)與評(píng)估等事先監(jiān)管的方式來控制人工智能應(yīng)用所產(chǎn)生的風(fēng)險(xiǎn)。例如,歐盟目前正在制定的《人工智能法案》和我國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》均反映了這一特點(diǎn)。然而,無論是采取風(fēng)險(xiǎn)預(yù)防、安全評(píng)估,還是行政許可、備案或算法審計(jì)等措施,目標(biāo)都是將預(yù)期的損害風(fēng)險(xiǎn)控制在社會(huì)可接受的合理限度內(nèi),而不是要消滅所有的損害風(fēng)險(xiǎn)。鑒于“算法黑箱”的存在和人工智能系統(tǒng)輸出結(jié)果的難以預(yù)期性,即使提供生成式人工智能服務(wù)的企業(yè)事先采取了風(fēng)險(xiǎn)防范措施并滿足了監(jiān)管機(jī)構(gòu)設(shè)定的各項(xiàng)監(jiān)管要求,仍有可能在實(shí)際運(yùn)行中出現(xiàn)無法預(yù)料或難以防范的損害風(fēng)險(xiǎn),并有可能給用戶或第三人造成損害。如果損害是難以避免的,那么,如何分配這些損害,便成為一個(gè)需要解決的法律問題。
盡管OpenAI公司在推出ChatGPT之前非常謹(jǐn)慎,曾進(jìn)行過長(zhǎng)時(shí)間的測(cè)試,但是,在ChatGPT面世之后,仍然有許多用戶發(fā)現(xiàn)ChatGPT提供的信息中含有不實(shí)信息。其中一個(gè)重要原因是,其所采用的大語(yǔ)言模型有可能利用其先前從訓(xùn)練數(shù)據(jù)中發(fā)現(xiàn)的語(yǔ)言規(guī)律來對(duì)現(xiàn)實(shí)中并不存在的內(nèi)容進(jìn)行合乎規(guī)律的捏造,即產(chǎn)生所謂“幻覺”(hallucinations)。2023年6月5日,OpenAI公司迎來其遭遇的第一場(chǎng)名譽(yù)權(quán)訴訟。美國(guó)的一位電臺(tái)主持人Walters向佐治亞州的一家高等法院提起訴訟,狀告OpenAI公司侵犯其名譽(yù)權(quán),起因是美國(guó)的一位新聞?dòng)浾逺iehl在與ChatGPT的對(duì)話過程中,ChatGPT聲稱Walters曾被指控從一家非營(yíng)利公司騙取和盜用資金,而Walters稱其從未受到過此類指控并認(rèn)為該信息純屬ChatGPT捏造。由此可見,生成式人工智能的侵權(quán)損害賠償問題,已不再只是法學(xué)研究者腦海中想象的問題,而是已成為一個(gè)需要面對(duì)的真實(shí)的法律問題,并且,其對(duì)于人工智能技術(shù)的發(fā)展和應(yīng)用都具有重要的影響意義。
本文嘗試對(duì)生成式人工智能的侵權(quán)責(zé)任問題進(jìn)行研究,主要基于以下幾點(diǎn)考慮。第一,我國(guó)以往關(guān)于人工智能方面的研究,主要集中在自動(dòng)駕駛領(lǐng)域、醫(yī)療人工智能等領(lǐng)域,近來有些學(xué)者雖然關(guān)注到了生成式人工智能,但多數(shù)研究主要集中在風(fēng)險(xiǎn)規(guī)制方面,而民事責(zé)任方面的深入研究較少。第二,人工智能可分為兩類:一類是人工智能軟件與硬件產(chǎn)品相結(jié)合,如自動(dòng)駕駛機(jī)動(dòng)車;另一類是單純的人工智能軟件系統(tǒng),如生成式人工智能。對(duì)于前者而言,因存在硬件與軟件的互相配合,發(fā)生事故時(shí)往往難以辨識(shí)究竟是硬件有缺陷還是軟件有缺陷,這對(duì)人工智能責(zé)任的認(rèn)定帶來許多外在的困擾;對(duì)于后者而言,作為純軟件系統(tǒng)可以基本上不考慮硬件的問題,可更為明顯地顯現(xiàn)人工智能的固有特點(diǎn)和法律問題。對(duì)生成式人工智能侵權(quán)責(zé)任問題進(jìn)行研究,不僅有助于理解該類人工智能系統(tǒng)的侵權(quán)責(zé)任問題,亦有助于理解其他類型的人工智能軟件系統(tǒng)的法律問題。第三,本文之所以將研究對(duì)象限定為侵權(quán)責(zé)任,而將合同責(zé)任排除在外,主要是考慮到合同責(zé)任依賴于人工智能服務(wù)提供方與用戶之間的合同約定,往往具有多樣性,而侵權(quán)責(zé)任屬于法定責(zé)任,更適合進(jìn)行一般性研究。
本文所研究的生成式人工智能侵權(quán)責(zé)任,主要是指因該軟件系統(tǒng)所生成的內(nèi)容具有虛假、錯(cuò)誤、誤導(dǎo)或有害性,而導(dǎo)致人工智能提供者對(duì)用戶或第三人的侵權(quán)損害賠償責(zé)任。本文所稱人工智能提供者,是指負(fù)責(zé)運(yùn)營(yíng)、控制人工智能系統(tǒng)的當(dāng)事人。生成式人工智能致人侵害主要包括兩種情形:第一種情形是人工智能提供者直接向用戶提供服務(wù)的過程中對(duì)用戶或第三人造成的損害;第二種情形是用戶利用該系統(tǒng)向第三人提供服務(wù)的過程中,第三人因系統(tǒng)存在缺陷而遭受的損害。
利用人工智能自主生成內(nèi)容,是一種新技術(shù)應(yīng)用,也是一種新的社會(huì)現(xiàn)象,其中的法律問題與技術(shù)問題相互交織,給法律適用帶來許多挑戰(zhàn)。本文嘗試對(duì)相關(guān)問題進(jìn)行初步分析,以期學(xué)界能夠進(jìn)行更深入的研究。
二、產(chǎn)品責(zé)任的分析路徑
(一)生成式人工智能致人損害可否適用產(chǎn)品責(zé)任
在現(xiàn)行法律制度框架下,關(guān)于生成式人工智能致人損害可否適用產(chǎn)品責(zé)任,尚存在不確定性,需要法院作出法律解釋,予以明確,主要涉及以下問題。
1.生成式人工智能系統(tǒng)是產(chǎn)品還是服務(wù)
無論是我國(guó)民法典、產(chǎn)品質(zhì)量法中關(guān)于產(chǎn)品責(zé)任的規(guī)定,還是歐盟《產(chǎn)品責(zé)任指令》,抑或美國(guó)《侵權(quán)法重述》(第3版),都是圍繞“產(chǎn)品”這一概念展開的。將產(chǎn)品責(zé)任制度的適用對(duì)象規(guī)定為產(chǎn)品,這意味著單純的服務(wù)將被排除在外。如何界定產(chǎn)品的含義,以及劃分產(chǎn)品與服務(wù)的邊界,便成為產(chǎn)品責(zé)任法適用中需要解釋的法律問題。
產(chǎn)品責(zé)任法意義上的“產(chǎn)品”的含義并不是簡(jiǎn)單地來自詞典,而是法院基于政策考量進(jìn)行法律解釋的產(chǎn)物。立法者之所以區(qū)分產(chǎn)品與服務(wù),其背后重要的政策背景在于:產(chǎn)品責(zé)任是工業(yè)社會(huì)的產(chǎn)物,而工業(yè)產(chǎn)品具有大規(guī)模生產(chǎn)和批量銷售的特點(diǎn)。產(chǎn)品責(zé)任采無過錯(cuò)責(zé)任原則,其不以產(chǎn)品的制造者和經(jīng)銷商有過錯(cuò)為要件,是謂“嚴(yán)格”責(zé)任;而緩解產(chǎn)品責(zé)任嚴(yán)格性的一個(gè)重要途徑,同時(shí)也是產(chǎn)品制造者得以承受嚴(yán)格責(zé)任的一個(gè)重要通道在于,產(chǎn)品制造者可以通過向社會(huì)公眾銷售大量同質(zhì)類產(chǎn)品的方式,借助價(jià)格機(jī)制分散其預(yù)期的產(chǎn)品缺陷致人損害的賠償責(zé)任。而服務(wù)通常采取一對(duì)一的模式,其具有個(gè)性化的特點(diǎn),服務(wù)提供者難以像工業(yè)產(chǎn)品制造者那樣通過大批量提供相同服務(wù)的市場(chǎng)方式來實(shí)現(xiàn)其責(zé)任風(fēng)險(xiǎn)的分散,因此,如果要求服務(wù)提供者像產(chǎn)品制造者那樣承擔(dān)嚴(yán)格責(zé)任,就顯得過于嚴(yán)苛了。區(qū)分產(chǎn)品與服務(wù)的意義還在于:產(chǎn)品經(jīng)銷售而被投入市場(chǎng)后,可以脫離制造者的控制而自由流通,并有可能被產(chǎn)品購(gòu)買者以外的公眾所接觸或使用,因此,產(chǎn)品責(zé)任關(guān)注的是產(chǎn)品本身的缺陷而不是制造商的行為;服務(wù)的提供則是與服務(wù)提供者密切聯(lián)系在一起的,服務(wù)糾紛通常發(fā)生在服務(wù)提供者與客戶之間,并且,服務(wù)的瑕疵通常發(fā)生在服務(wù)過程中,并往往是由于服務(wù)提供者的不當(dāng)行為所導(dǎo)致的。
就生成式人工智能本身而言,其性質(zhì)屬于軟件。而關(guān)于軟件是否屬于產(chǎn)品責(zé)任法意義上的產(chǎn)品,我國(guó)民法典和產(chǎn)品質(zhì)量法均未有明確規(guī)定。在司法實(shí)踐中,我國(guó)法院對(duì)此問題的態(tài)度模糊不清。在美國(guó),經(jīng)長(zhǎng)時(shí)間討論后,《侵權(quán)法重述》(第3版)采取了與《統(tǒng)一商法典》相同的對(duì)待方式,即將軟件區(qū)分為兩類:一類是大量銷售的軟件,可被認(rèn)為是產(chǎn)品;專門為客戶開發(fā)的軟件,則屬于服務(wù)。所謂大量銷售的軟件,通常是指封裝的軟件(packaged software),其可像工業(yè)產(chǎn)品一樣進(jìn)行大規(guī)模復(fù)制和銷售。
生成式人工智能屬于軟件,但并非典型意義上的封裝軟件產(chǎn)品。生成式人工智能的提供方式更像是一種服務(wù)提供方式而非產(chǎn)品銷售行為,因?yàn)樯墒饺斯ぶ悄艿恼_\(yùn)行通常離不開提供者的持續(xù)服務(wù)支持,系統(tǒng)的運(yùn)行和更新始終處于提供者的控制之下,并且,生成式人工智能提供者獲取的收入源自于其為客戶持續(xù)提供的服務(wù)而不是一次性銷售軟件產(chǎn)品的收入。為特定客戶量身定制的生成式人工智能軟件系統(tǒng)應(yīng)當(dāng)排除在產(chǎn)品責(zé)任的適用范圍之外,對(duì)此應(yīng)當(dāng)沒有爭(zhēng)議。需要討論的是以互聯(lián)網(wǎng)的方式向社會(huì)公眾提供服務(wù)的生成式人工智能系統(tǒng),可否適用產(chǎn)品責(zé)任法。在本文看來,判斷生成式人工智能向公眾提供的服務(wù)是否具有高度同質(zhì)性,其責(zé)任風(fēng)險(xiǎn)可否通過市場(chǎng)機(jī)制實(shí)現(xiàn)分散化,是認(rèn)定其可否適用產(chǎn)品責(zé)任法的重要影響因素。以ChatGPT為代表的大語(yǔ)言模型為例,雖然其用戶數(shù)量眾多,但是,不同用戶有著不同的需求,ChatGPT被廣泛應(yīng)用于多種不同用途,由此而產(chǎn)生的損害風(fēng)險(xiǎn)亦有所不同。另外,從技術(shù)特點(diǎn)來看,其所提供的并不同于數(shù)據(jù)庫(kù)服務(wù),也不同于普通的工具軟件,其輸出的內(nèi)容受到人機(jī)交互與算法模型變化的影響而始終處于變化之中,因此,恐難以認(rèn)為其向所有用戶提供的服務(wù)具有高度同質(zhì)性。從生成式人工智能的發(fā)展趨勢(shì)來看,即使是面向公眾提供服務(wù)的軟件系統(tǒng),其亦能滿足不同用戶的個(gè)性化需求,而且,這一發(fā)展趨勢(shì)將會(huì)變得越來越明顯。隨著個(gè)性化服務(wù)特征的不斷增強(qiáng),主張對(duì)其適用產(chǎn)品責(zé)任法的說服力將變得越來越弱。
我國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室在2023年4月公布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》同時(shí)使用了“生成式人工智能服務(wù)”“生成式人工智能產(chǎn)品”“生成式人工智能產(chǎn)品或服務(wù)”等概念表述,而在2023年7月正式頒布的《生成式人工智能服務(wù)管理暫行辦法》則統(tǒng)一使用了“生成式人工智能服務(wù)”這一概念,從而明確地將其定性為一種服務(wù),這對(duì)于我們理解生成式人工智能服務(wù)的侵權(quán)責(zé)任性質(zhì)亦具有參考意義。
2.人工智能生成的內(nèi)容有缺陷是否適用產(chǎn)品責(zé)任
即使我們將生成式人工智能軟件看作是一種產(chǎn)品,也應(yīng)認(rèn)識(shí)到,其與其他有形產(chǎn)品存在明顯差異,其致人損害并不是由于其本身而主要是由于其生成的內(nèi)容存在錯(cuò)誤、虛假、誤導(dǎo)或有害而導(dǎo)致的。由此而產(chǎn)生的爭(zhēng)議性問題在于,產(chǎn)品的信息內(nèi)容缺陷可否適用產(chǎn)品責(zé)任。
在數(shù)字化時(shí)代到來之前,上述問題曾在圖書等出版物的責(zé)任糾紛中出現(xiàn)過,美國(guó)有多個(gè)判例涉及這一問題。在一起涉及空難事故的案件中,美國(guó)有法院認(rèn)定用于指引航空飛行的圖表屬于產(chǎn)品責(zé)任法意義上的產(chǎn)品,圖表的出版者應(yīng)對(duì)存在錯(cuò)誤的航空?qǐng)D表承擔(dān)產(chǎn)品責(zé)任法意義上的嚴(yán)格責(zé)任。法院認(rèn)為,被告制作并向原告提供的航空?qǐng)D表屬于可以大規(guī)模生產(chǎn)和市場(chǎng)化銷售的內(nèi)容相同的產(chǎn)品,而不是個(gè)性化定制的產(chǎn)品,因此,應(yīng)被看作是產(chǎn)品而不是服務(wù)。然而,隨后的一些法院判例則對(duì)圖書內(nèi)容缺陷作為產(chǎn)品缺陷作出了更為嚴(yán)格的限制,并試圖與前述航空?qǐng)D表案劃清界限。例如,在“毒蘑菇”案件中,原告因按照被告出版的《蘑菇百科全書》的介紹食用了一種蘑菇而中毒,并遭受了嚴(yán)重的身體損害。原告要求被告出版社對(duì)此承擔(dān)無過錯(cuò)的產(chǎn)品責(zé)任,法院駁回了原告的請(qǐng)求。該法院認(rèn)為,對(duì)思想內(nèi)容科以嚴(yán)格責(zé)任,將會(huì)抑制思想的表達(dá)與傳播,因此,不宜將思想內(nèi)容作為“產(chǎn)品”。為了與航空?qǐng)D表案劃清界限,法院認(rèn)為,航空?qǐng)D表更像羅盤,是一種高度技術(shù)性的工具,而《蘑菇百科全書》可被看作是如何使用羅盤或航空?qǐng)D表之類工具的書,可以將航空?qǐng)D表看作是“產(chǎn)品”,而關(guān)于“如何使用”的書則純粹屬于思想表達(dá),因此,不應(yīng)當(dāng)要求圖書出版商對(duì)圖書的思想內(nèi)容承擔(dān)嚴(yán)格責(zé)任。亦有判例指出,在判決出版者應(yīng)對(duì)圖書資料內(nèi)容承擔(dān)嚴(yán)格責(zé)任的案例中,出版者通常都是該出版物的創(chuàng)作者而不僅僅是印刷者,如果出版者未參與內(nèi)容創(chuàng)作,則不宜要求出版者對(duì)作者在圖書中表達(dá)的思想內(nèi)容承擔(dān)嚴(yán)格責(zé)任,因?yàn)槠洳⒉回?fù)有審查或保證的義務(wù)。
雖然上述判例并不是針對(duì)生成式人工智能的生成內(nèi)容而作出的,但是,其中有些判決的觀點(diǎn)對(duì)于我們認(rèn)識(shí)人工智能生成內(nèi)容缺陷是否適用產(chǎn)品責(zé)任具有指引意義。例如,“毒蘑菇”案所作的內(nèi)容分類就具有參考意義。對(duì)于人工智能生成的內(nèi)容亦應(yīng)進(jìn)行分類,人工智能不僅能夠生成文字、圖片、聲音或者視頻,還可以生成代碼;既有主觀意見的表達(dá),也有對(duì)事實(shí)的陳述;既有隨意的娛樂性的聊天,也有關(guān)于專業(yè)知識(shí)的問答。在本文看來,只有極少數(shù)專門應(yīng)用于高風(fēng)險(xiǎn)活動(dòng)領(lǐng)域的純粹技術(shù)性、專業(yè)性內(nèi)容,或許存在適用嚴(yán)格責(zé)任的空間,而對(duì)于除此以外的絕大多數(shù)內(nèi)容,特別是一些明確屬于觀念或思想表達(dá)的內(nèi)容,不宜要求生成式人工智能提供者對(duì)這些內(nèi)容的準(zhǔn)確性承擔(dān)無過錯(cuò)責(zé)任。
又如,上述判例所提到的不宜將思想內(nèi)容作為“產(chǎn)品”的觀點(diǎn),不僅適用于紙質(zhì)圖書,亦可適用于網(wǎng)絡(luò)信息內(nèi)容。例如,在2006年美國(guó)法院判決的一起涉及“阿特金斯減肥法”的判例中,爭(zhēng)議不僅涉及阿特金斯減肥食品和圖書,還涉及阿特金斯減肥網(wǎng)站上發(fā)布的關(guān)于減肥方法的信息內(nèi)容,法院一概駁回了原告提出的適用產(chǎn)品責(zé)任規(guī)則的主張。對(duì)于思想內(nèi)容的創(chuàng)作者,不應(yīng)要求其對(duì)所創(chuàng)作的思想內(nèi)容承擔(dān)無過錯(cuò)責(zé)任,這一原則不僅應(yīng)適用于自然人創(chuàng)作者,也應(yīng)適用于人工智能創(chuàng)作者。不宜僅僅因?yàn)槟骋凰枷雰?nèi)容系由人工智能創(chuàng)造而非自然人創(chuàng)造的,便要求人工智能提供者承擔(dān)嚴(yán)格責(zé)任。
但是,我們也應(yīng)認(rèn)識(shí)到生成式人工智能與圖書亦存在明顯的區(qū)別,因此,并不能全部照搬圖書出版方面的判例意見。例如,前述涉及圖書的判例所提出的區(qū)分出版者與作者而否定產(chǎn)品責(zé)任的理由,可能對(duì)于生成式人工智能并不適用。因?yàn)椋瑢?duì)于人工智能生成的內(nèi)容而言,人工智能提供者所扮演的角色并不是出版者,而是創(chuàng)作者。
又如,圖書一經(jīng)出版,其內(nèi)容是固定不變的,所有讀者所接受到的信息內(nèi)容都是相同的,因此,其具有高度的同質(zhì)性,而生成式人工智能的算法和模型始終處于變化之中,不同用戶對(duì)服務(wù)的需求亦有所不同,而且,用戶并不是完全被動(dòng)地在接受系統(tǒng)的輸出,而是可以與系統(tǒng)互動(dòng)而影響到系統(tǒng)輸出的內(nèi)容。由于系統(tǒng)輸出信息時(shí)會(huì)受到人機(jī)互動(dòng)和概率分布的影響,因此,即使面臨相同的問題或信息需求,其對(duì)不同用戶輸出的內(nèi)容亦可能有所不同,對(duì)于同一用戶在不同時(shí)間提出的相同請(qǐng)求亦有可能作出內(nèi)容不同的回復(fù)。
。ǘ┯脩衾蒙墒饺斯ぶ悄芟虻谌颂峁┓⻊(wù)時(shí)的責(zé)任
生成式人工智能系統(tǒng)具有廣泛的用途,尤其是具有強(qiáng)大的學(xué)習(xí)功能,能夠吸收和輸出海量的知識(shí),并擁有超強(qiáng)的計(jì)算能力,因此,其用戶有可能利用該系統(tǒng)為客戶提供服務(wù),由此而產(chǎn)生的問題是,系統(tǒng)提供者對(duì)于第三人,即其用戶的客戶,是否應(yīng)當(dāng)承擔(dān)產(chǎn)品責(zé)任。
在本文看來,影響責(zé)任認(rèn)定的一個(gè)因素是該軟件系統(tǒng)是否是為用戶的個(gè)性化需求而專門定制的,或者用戶是否參與了該系統(tǒng)的設(shè)計(jì)。在實(shí)踐中,用戶為其客戶提供的服務(wù)往往具有專業(yè)性,因此,一般的軟件系統(tǒng)難以滿足其專業(yè)需求,所以,許多商用人工智能系統(tǒng)在開發(fā)過程中經(jīng)常會(huì)有商業(yè)用戶的參與,甚至由用戶方面的專家來為其提供專業(yè)知識(shí)信息或進(jìn)行專業(yè)輔導(dǎo),以滿足用戶的特別需求。在這種情況下,應(yīng)將人工智能提供方看作是服務(wù)提供者而不是產(chǎn)品制造者,不應(yīng)要求其對(duì)第三人承擔(dān)產(chǎn)品責(zé)任。另外,當(dāng)律師、會(huì)計(jì)師等專業(yè)人士借助生成人工智能系統(tǒng)所提供的專業(yè)知識(shí)信息為其客戶提供專業(yè)服務(wù),如果律師、會(huì)計(jì)師本人對(duì)其客戶承擔(dān)的職業(yè)責(zé)任尚屬于過失責(zé)任,卻要求為專業(yè)人士提供輔助服務(wù)的人工智能系統(tǒng)提供者承擔(dān)無過錯(cuò)責(zé)任,似乎并不合理,也難以具有說服力。
。ㄈ┝⒎ㄊ欠駪(yīng)該將生成式人工智能納入產(chǎn)品責(zé)任范疇
上述分析主要是從現(xiàn)有的產(chǎn)品責(zé)任制度出發(fā)而作出的,側(cè)重于對(duì)產(chǎn)品和服務(wù)等法律概念的解釋,因此會(huì)受到許多方面的限制。如果我們從立法應(yīng)當(dāng)如何回應(yīng)的角度來看待,視野可以更加開闊。
在人工智能立法方面,歐盟走在世界各國(guó)的前列。2022年9月,歐盟委員提出制定新的《關(guān)于缺陷產(chǎn)品的責(zé)任指令》以取代原有的1985年《產(chǎn)品責(zé)任指令》的建議,該立法建議的主要目的在于將人工智能納入到產(chǎn)品責(zé)任的范疇。從公布的立法草案來看,其在對(duì)產(chǎn)品進(jìn)行定義時(shí)明確地將“軟件”包括在內(nèi)。盡管從字面上來看,該立法草案未對(duì)軟件的類型作出限制,但是,從歐盟委員會(huì)對(duì)該立法草案的說明中可以看出,歐盟在制定這一草案時(shí),其意欲規(guī)范的主要對(duì)象是被集成到硬件產(chǎn)品中的軟件,以及與硬件的功能發(fā)揮和安全性有密切聯(lián)系的軟件及數(shù)字服務(wù),而無意涵蓋所有類型的軟件,因此,像ChatGPT之類獨(dú)立存在的純軟件系統(tǒng)是否亦應(yīng)適用無過錯(cuò)責(zé)任,尚有疑問。目前,我國(guó)國(guó)務(wù)院已經(jīng)將人工智能法納入立法規(guī)劃,其將采用何種路徑來處理人工智能侵權(quán)責(zé)任問題,尚不得而知。
從學(xué)者們的觀點(diǎn)來看,早在20世紀(jì)90年代初,就有學(xué)者提出對(duì)于向公眾提供的大規(guī)模生產(chǎn)和銷售的人工智能軟件應(yīng)當(dāng)納入產(chǎn)品責(zé)任范疇,適用嚴(yán)格責(zé)任。但是,上述觀點(diǎn)的形成仍受制于當(dāng)時(shí)技術(shù)條件對(duì)人工智能軟件的理解。在ChatGPT出現(xiàn)之后,許多學(xué)者都選擇了從過失侵權(quán)的角度來分析人工智能提供者的侵權(quán)責(zé)任。
在本文看來,關(guān)于立法是否應(yīng)該將生成式人工智能納入產(chǎn)品責(zé)任范疇,除了前述關(guān)于產(chǎn)品與服務(wù)劃分的因素以外,還應(yīng)當(dāng)看其預(yù)期的立法目標(biāo)是否有可能實(shí)現(xiàn),以及有可能產(chǎn)生何種負(fù)面效果,最后再進(jìn)行利害權(quán)衡。從歐盟委員會(huì)提出的《關(guān)于缺陷產(chǎn)品的責(zé)任指令》的立法建議來看,將人工智能納入到產(chǎn)品責(zé)任中欲達(dá)到的目標(biāo)主要包括:第一,由人工智能提供方對(duì)產(chǎn)品缺陷承擔(dān)無過錯(cuò)責(zé)任,受害人在提出索賠請(qǐng)求時(shí)無需證明被告有過錯(cuò),法院也需就被告是否有過錯(cuò)而作出認(rèn)定,從而方便受害人快捷地獲得賠償;第二,緩解受害人在索賠時(shí)面臨的舉證困難,便利于受害人獲得賠償。
就第一個(gè)目標(biāo)而言,從表面上看,似乎所有的產(chǎn)品責(zé)任都是無過錯(cuò)責(zé)任,然而,仔細(xì)分析,卻可以發(fā)現(xiàn)事情并非想象的那么簡(jiǎn)單。產(chǎn)品責(zé)任法規(guī)則是圍繞著產(chǎn)品缺陷這一概念而展開的。通常認(rèn)為,產(chǎn)品缺陷包括三類,即制造缺陷、設(shè)計(jì)缺陷、指示缺陷。就制造缺陷引發(fā)的產(chǎn)品責(zé)任而言,公認(rèn)其為無過錯(cuò)責(zé)任;在軟件領(lǐng)域,制造缺陷多表現(xiàn)為軟件在復(fù)制過程中代碼復(fù)制的不完整等缺陷,此種情況在光盤拷貝的時(shí)代或許出現(xiàn)過,而在當(dāng)今數(shù)字化時(shí)代已非常少見。因此,就人工智能軟件的缺陷而言,主要是指設(shè)計(jì)缺陷和指示缺陷。
就設(shè)計(jì)缺陷的認(rèn)定標(biāo)準(zhǔn)而言,依照我國(guó)產(chǎn)品質(zhì)量法第66條的規(guī)定,產(chǎn)品缺陷是指產(chǎn)品存在危及人身、他人財(cái)產(chǎn)安全的不合理的危險(xiǎn)。其隱含的意義為合理的危險(xiǎn)不構(gòu)成產(chǎn)品缺陷。判斷一項(xiàng)危險(xiǎn)屬于合理還是不合理,更接近過失的認(rèn)定方法。從國(guó)外立法和理論來看,判斷設(shè)計(jì)缺陷主要有兩種標(biāo)準(zhǔn),即消費(fèi)者期望標(biāo)準(zhǔn)和風(fēng)險(xiǎn)—效益標(biāo)準(zhǔn)。相比較而言,消費(fèi)者期望標(biāo)準(zhǔn)更有利于保護(hù)消費(fèi)者。歐盟委員會(huì)提出的《關(guān)于缺陷產(chǎn)品的責(zé)任指令》草案采取了公眾對(duì)安全期望的標(biāo)準(zhǔn),但是,其同時(shí)規(guī)定,在認(rèn)定產(chǎn)品具有缺陷時(shí),需要綜合考慮多項(xiàng)標(biāo)準(zhǔn),這使得設(shè)計(jì)缺陷的認(rèn)定具有一定程度的不確定性,遠(yuǎn)不像制造缺陷那樣容易認(rèn)定。美國(guó)《侵權(quán)法重述》(第3版)采用的是風(fēng)險(xiǎn)—效益標(biāo)準(zhǔn),即當(dāng)產(chǎn)品的可預(yù)見的損害風(fēng)險(xiǎn)可以通過合理的替代設(shè)計(jì)減少或者避免,而沒有采用這樣的合理設(shè)計(jì),以至于產(chǎn)品不具備合理安全時(shí),可認(rèn)定該產(chǎn)品存在設(shè)計(jì)缺陷。在判斷一項(xiàng)設(shè)計(jì)是否具有不合理的危險(xiǎn)時(shí),需要考慮:“傷害的可能性、嚴(yán)重性與采取預(yù)防措施的平衡。考慮相關(guān)的因素包括替代設(shè)計(jì)的可行性、采納替代設(shè)計(jì)的成本和可能性、該種設(shè)計(jì)導(dǎo)致傷害的概率!痹摲N測(cè)試方法是與“漢德公式”的精神是一致的,本質(zhì)上是一種認(rèn)定過失的標(biāo)準(zhǔn)。就指示缺陷而言,主要是指產(chǎn)品的說明或警示不合理,未能通過合理的說明或警示而消除不合理的危險(xiǎn)。因此,指示缺陷的認(rèn)定依然是判斷指示說明合理還是不合理的問題。
從以上分析可以看出,就因設(shè)計(jì)缺陷和指示缺陷而引發(fā)的產(chǎn)品責(zé)任而言,無論名義上將其稱為嚴(yán)格責(zé)任還是過錯(cuò)責(zé)任,就其責(zé)任認(rèn)定方法來看,實(shí)質(zhì)上與過錯(cuò)責(zé)任的認(rèn)定類似。一旦發(fā)生訴訟爭(zhēng)議,當(dāng)事人將就設(shè)計(jì)是否合理、有無更為合理的替代設(shè)計(jì)、替代設(shè)計(jì)是否可行以及合理的說明或警示的標(biāo)準(zhǔn)等問題展開辯論。對(duì)于新出現(xiàn)的生成式人工智能而言,上述問題更容易引發(fā)激烈的爭(zhēng)論,法院依然需要就相關(guān)爭(zhēng)議作出判斷,遠(yuǎn)不像處理制造缺陷引發(fā)的產(chǎn)品責(zé)任那樣快捷,適用產(chǎn)品責(zé)任能在多大程度上起到節(jié)省訴訟成本的目標(biāo)是令人懷疑的。
就受害人舉證困難而言,由于在認(rèn)定人工智能軟件系統(tǒng)是否有缺陷時(shí)需要就合理的替代設(shè)計(jì)或合理的替代說明等事項(xiàng)進(jìn)行舉證,因此,受害人仍然會(huì)面臨舉證的困難。歐盟委員會(huì)在起草《關(guān)于缺陷產(chǎn)品的責(zé)任指令》的立法建議時(shí)亦認(rèn)識(shí)到了這一點(diǎn),因此,其在草案中特意規(guī)定了證據(jù)開示制度和缺陷推定制度,以緩解原告的舉證壓力。然而,要求被告開示證據(jù)或由被告舉證產(chǎn)品不存在缺陷,并非必須通過產(chǎn)品責(zé)任制度來實(shí)現(xiàn),在一般侵權(quán)制度中亦可以實(shí)現(xiàn)。例如,在歐盟委員會(huì)制定的《關(guān)于適用于人工智能的非合同民事責(zé)任規(guī)則的指令(草案)》(以下簡(jiǎn)稱“《人工智能責(zé)任指令》”)中亦規(guī)定了證據(jù)開示制度。
當(dāng)然,從理論上講,立法者亦可通過立法改變對(duì)設(shè)計(jì)缺陷和指示缺陷的認(rèn)定標(biāo)準(zhǔn),使其像制造缺陷那樣,真正實(shí)現(xiàn)無過錯(cuò)責(zé)任。然而,如果那樣的話,將會(huì)對(duì)人工智能技術(shù)的研發(fā)和廣泛應(yīng)用產(chǎn)生非常大的抑制作用。生成式人工智能提供者為避免自己承擔(dān)無過錯(cuò)責(zé)任而有可能嚴(yán)格限制他人對(duì)人工智能系統(tǒng)的使用。另外,如果將人工智能生成內(nèi)容的虛假或錯(cuò)誤看作是產(chǎn)品缺陷并科以無過錯(cuò)責(zé)任的話,將對(duì)思想和信息內(nèi)容的生成與傳播產(chǎn)生極大的抑制作用。
將某一事物納入產(chǎn)品責(zé)任的范疇,除了可能導(dǎo)致無過錯(cuò)責(zé)任以外,另一個(gè)重要意義在于其突破了合同的相對(duì)性。對(duì)于生成式人工智能而言,如果將其認(rèn)定為產(chǎn)品責(zé)任法意義上的產(chǎn)品,那意味著該其提供者不僅要對(duì)與之具有合同關(guān)系的用戶承擔(dān)民事責(zé)任,還要對(duì)第三人承擔(dān)產(chǎn)品責(zé)任,其將難以通過用戶協(xié)議的方式來限制或免除自己的責(zé)任?紤]到生成式人工智能系統(tǒng)作為一種基礎(chǔ)性軟件,具有廣泛的用途,其用戶有可能在營(yíng)業(yè)活動(dòng)中利用其為自己的客戶提供服務(wù),因此,如果認(rèn)定系統(tǒng)提供者應(yīng)像產(chǎn)品制造者那樣承擔(dān)產(chǎn)品責(zé)任,那么,其潛在的責(zé)任風(fēng)險(xiǎn)將是巨大的。
綜合以上考慮,在本文看來,就生成式人工智能軟件系統(tǒng)本身而言,不宜將其納入產(chǎn)品責(zé)任法的范疇。至于生成式人工智能軟件被集成到某種硬件產(chǎn)品中或者與某類硬件功能的發(fā)揮存在密切的關(guān)系時(shí),可另當(dāng)別論。
三、一般侵權(quán)責(zé)任的分析路徑
對(duì)于生成式人工智能致人損害的侵權(quán)責(zé)任,除可考慮產(chǎn)品責(zé)任路徑以外,還可以適用一般侵權(quán)責(zé)任規(guī)則,從理論上講,兩者可并行不悖。例如,在德國(guó)等歐洲國(guó)家,產(chǎn)品缺陷的受害人除可依據(jù)產(chǎn)品責(zé)任法索賠以外,還可依據(jù)民法典中關(guān)于一般侵權(quán)責(zé)任的規(guī)定提出賠償請(qǐng)求。歐盟委員會(huì)關(guān)于人工智能侵權(quán)責(zé)任的立法建議亦同時(shí)包括兩項(xiàng),分別為《關(guān)于缺陷產(chǎn)品的責(zé)任指令》和《人工智責(zé)任指令》,后者就是基于以過錯(cuò)責(zé)任為基礎(chǔ)的一般侵權(quán)責(zé)任規(guī)則提出的立法建議。
兩條路徑并行的意義還在于可互相補(bǔ)充。例如,許多國(guó)家的產(chǎn)品責(zé)任法都將損害賠償?shù)姆秶抻谌松韨陀行呜?cái)產(chǎn)損害,而將純經(jīng)濟(jì)損失排除在外。在一般侵權(quán)責(zé)任制度框架下,在滿足一定條件的前提下,純經(jīng)濟(jì)損失亦可在賠償范圍內(nèi)。產(chǎn)品責(zé)任法關(guān)注的是與硬件產(chǎn)品相結(jié)合或存在密切關(guān)聯(lián)的人工智能軟件系統(tǒng),而對(duì)于完全獨(dú)立的純粹的人工智能軟件系統(tǒng),尤其具有明顯服務(wù)屬性的人工智能服務(wù),更適合在產(chǎn)品責(zé)任以外的一般侵權(quán)法框架下進(jìn)行討論。
就生成式人工智能而言,其本身通常并不會(huì)直接造成人身或財(cái)產(chǎn)的物質(zhì)性損失,不具有高度危險(xiǎn)性,因此,在以過錯(cuò)責(zé)任為基礎(chǔ)的一般侵權(quán)責(zé)任框架下進(jìn)行討論亦是適合的。而對(duì)于應(yīng)用于特定類型的高度危險(xiǎn)活動(dòng)領(lǐng)域的人工智能,則可運(yùn)用特別法予以規(guī)制,從而不在本文的討論范圍內(nèi)。從一般侵權(quán)責(zé)任制度出發(fā),生成式人工智能的侵權(quán)責(zé)任主要涉及過錯(cuò)認(rèn)定和因果關(guān)系等問題。實(shí)踐中最常見的侵權(quán)類型主要包括虛假陳述和侵害名譽(yù)權(quán)等。
(一)過錯(cuò)責(zé)任認(rèn)定中的一般性問題
1.人工智能致人損害中的過錯(cuò)認(rèn)定
所謂一般侵權(quán)責(zé)任,通常是指過錯(cuò)責(zé)任,即只有當(dāng)被告有過錯(cuò)時(shí)才承擔(dān)損害賠償責(zé)任,并且,在一般情況下,由原告承擔(dān)關(guān)于過錯(cuò)的舉證責(zé)任。然而,以大語(yǔ)言模型為代表的生成式人工智能系統(tǒng)非常復(fù)雜,若由接受其服務(wù)的普通社會(huì)公眾來證明其在設(shè)計(jì)上有缺陷或證明其提供者有過失,將非常困難。從大語(yǔ)言模型的技術(shù)原理來看,大語(yǔ)言模型是依照其通過機(jī)器學(xué)習(xí)發(fā)現(xiàn)的語(yǔ)言規(guī)律來生成內(nèi)容,而其在機(jī)器學(xué)習(xí)時(shí)高度依賴學(xué)習(xí)材料,即數(shù)據(jù),因此,如果訓(xùn)練數(shù)據(jù)本身存在錯(cuò)誤的內(nèi)容或來源具有偏見性,那么,系統(tǒng)輸出的結(jié)果就有可能存在偏頗或者錯(cuò)誤。更為復(fù)雜之處在于,由于機(jī)器思維與人類思維不同,生成式人工智能在學(xué)習(xí)材料中所發(fā)現(xiàn)的規(guī)律,有可能是人類難以發(fā)現(xiàn)或理解的,而且,隨著人工智能與用戶之間持續(xù)的交流互動(dòng)和新數(shù)據(jù)源源不斷的輸入,模型的算法始終處于不斷變化之中,并且,隨著大語(yǔ)言模型的不斷發(fā)展,其算法結(jié)構(gòu)日趨復(fù)雜,GPT-3研發(fā)者稱該模型參數(shù)已高達(dá)1750億個(gè),足以想象其復(fù)雜程度,由此會(huì)帶來算法黑箱的問題,即缺乏可解釋性和透明度。在這種情況下,如果出現(xiàn)生成式人工智能生成的內(nèi)容中含有侵犯他人權(quán)益的內(nèi)容,將很難追溯到其產(chǎn)生的具體原因,從而難以證明人工智能提供者是否有過錯(cuò)。
對(duì)此,歐盟的《人工智能責(zé)任指令》對(duì)受害人提供了可請(qǐng)求法院命令人工智能提供者披露相關(guān)證據(jù)的救濟(jì)方式,但限于高風(fēng)險(xiǎn)的人工智能系統(tǒng),同時(shí)規(guī)定,如果提供者未按照要求披露相關(guān)證據(jù),那么,可推定其未盡到相關(guān)的注意義務(wù)。在本文看來,歐盟的上述規(guī)定,對(duì)于有技術(shù)專家提供服務(wù)的原告而言,是有實(shí)質(zhì)幫助意義的,而對(duì)于那些沒有技術(shù)專家提供幫助的原告而言,即使有技術(shù)性證據(jù)仍難以克服證明過錯(cuò)的困難。在我國(guó)當(dāng)前的司法訴訟環(huán)境下,普通民眾獲取專家證人的幫助仍有一定的困難,因此,對(duì)于生成式人工智能致人損害的案件,通過立法規(guī)定,采取過錯(cuò)推定的方式,將舉證責(zé)任轉(zhuǎn)移至被告,更為合理。
即使采取過錯(cuò)推定的歸責(zé)原則,該推定亦是可被推翻的,因此,仍需由法院來對(duì)人工智能提供者是否有過錯(cuò)作出最終的司法認(rèn)定。過錯(cuò)包括故意和過失。所謂故意,是指行為人預(yù)見到自己的行為會(huì)導(dǎo)致某一損害后果而希望或者放任該后果發(fā)生的一種主觀心理狀態(tài)。鑒于人工智能系統(tǒng)具有一定的自主性,其輸出內(nèi)容的數(shù)量不僅巨大,而且具體的輸出內(nèi)容不僅依賴于系統(tǒng)本身的算法邏輯,亦取決于不同用戶的個(gè)性化需求以及用戶與系統(tǒng)之間的交流互動(dòng),其輸出結(jié)果具有隨機(jī)性和難以預(yù)見性,因此,要想證明人工智能提供者對(duì)于特定的系統(tǒng)輸出內(nèi)容具有充分的可預(yù)見性是十分困難的,要證明其故意更為困難。但是,當(dāng)用戶發(fā)現(xiàn)了系統(tǒng)輸出內(nèi)容含有侵害其權(quán)益的內(nèi)容而報(bào)告給人工智能提供者并提供了相關(guān)證據(jù)時(shí),可以推定其在收到通知后對(duì)于損害是知情的。
對(duì)于過失的認(rèn)定,傳統(tǒng)侵權(quán)法有兩個(gè)標(biāo)準(zhǔn),即主觀標(biāo)準(zhǔn)和客觀標(biāo)準(zhǔn)。主觀標(biāo)準(zhǔn)是指行為人具有疏忽等主觀狀態(tài),而客觀標(biāo)準(zhǔn)是指行為人未盡到合理的注意義務(wù)。在當(dāng)今新興科技蓬勃發(fā)展的時(shí)代,以客觀標(biāo)準(zhǔn)作為過失認(rèn)定標(biāo)準(zhǔn)的日漸增多。所謂合理的注意義務(wù)程度,通常以一個(gè)普通的理性人在類似環(huán)境下應(yīng)有的注意義務(wù)為標(biāo)準(zhǔn),即“理性人”標(biāo)準(zhǔn)。在人工智能致人損害領(lǐng)域,也有學(xué)者提出“理性計(jì)算機(jī)”(reasonable computer)的標(biāo)準(zhǔn),其主要觀點(diǎn)為:既然人工智能的作用在于替代人,那就不應(yīng)當(dāng)僅僅將其看作是產(chǎn)品或工具,而應(yīng)將其類比于人,在判斷其是否存在過失時(shí)應(yīng)注重計(jì)算機(jī)系統(tǒng)的行為而非設(shè)計(jì),未達(dá)到“理性計(jì)算機(jī)”的行為標(biāo)準(zhǔn)即為有過失;并且,其進(jìn)一步認(rèn)為,理性人的標(biāo)準(zhǔn)與理性計(jì)算機(jī)的標(biāo)準(zhǔn)最終將融合為一個(gè)標(biāo)準(zhǔn)。上述觀點(diǎn)雖然具有啟發(fā)意義,但是,亦有不合理之處。首先,由于人工智能系統(tǒng)本身并不具有獨(dú)立的法律主體人格,因此,所謂過失只能是人工智能提供者的過失。其次,所謂“人工智能”只是一種形象的比喻,其與自然人的智能存在明顯差異。在有些領(lǐng)域,對(duì)于自然人而言難度非常高,但是,對(duì)于人工智能而言非常容易,人工智能會(huì)表現(xiàn)得比自然人優(yōu)秀;而在另外一些領(lǐng)域,對(duì)于自然人而言非常容易的事項(xiàng),對(duì)于人工智能而言會(huì)非常困難,其表現(xiàn)得會(huì)非常拙劣,會(huì)犯一些在自然人眼中的低級(jí)錯(cuò)誤。因此,當(dāng)發(fā)生人工智能致人損害時(shí),仍應(yīng)著眼于人工智能提供者,以人工智能提供者在研發(fā)、設(shè)計(jì)、測(cè)試、運(yùn)行、監(jiān)測(cè)和維護(hù)人工智能系統(tǒng)時(shí)是否盡到合理的注意義務(wù)為標(biāo)準(zhǔn)。其中,人工智能系統(tǒng)設(shè)計(jì)的合理性至關(guān)重要,對(duì)此可以參照產(chǎn)品設(shè)計(jì)缺陷中的風(fēng)險(xiǎn)—效益標(biāo)準(zhǔn),這其中涉及到替代設(shè)計(jì)的技術(shù)上可行性與經(jīng)濟(jì)上可行性的問題。目前存在的困難不僅在于人工智能系統(tǒng)的高度復(fù)雜性,還在于其屬于新興技術(shù),可參照的替代設(shè)計(jì)非常少。以大語(yǔ)言模型系統(tǒng)為例,目前世界上僅有美國(guó)OpenAI的ChatGPT、谷歌公司的Bard和中國(guó)百度公司研發(fā)的“文心一言”等屈指可數(shù)的軟件系統(tǒng),因此,難以形成公認(rèn)的行業(yè)標(biāo)準(zhǔn),尋找可參照的替代設(shè)計(jì)亦非常困難。
為了確保人工智能系統(tǒng)的安全性,許多國(guó)家的立法者開始啟動(dòng)人工智能領(lǐng)域的立法,對(duì)人工智能的研發(fā)、設(shè)計(jì)、運(yùn)行、測(cè)試、監(jiān)測(cè)和維護(hù)作出許多具體的管制性規(guī)定,當(dāng)人工智能提供者未遵循上述規(guī)定時(shí),可以推定其對(duì)于損害結(jié)果的發(fā)生有過錯(cuò),但是,當(dāng)人工智能提供者有充分的證據(jù)證明其違反上述規(guī)定與損害結(jié)果的發(fā)生不存在因果關(guān)系時(shí),可以推翻上述推定。
2.用戶不當(dāng)誘導(dǎo)行為對(duì)人工智能提供者責(zé)任認(rèn)定的影響
生成式人工智能的一個(gè)重要特點(diǎn)在于存在用戶與人工智能系統(tǒng)之間的交流互動(dòng),而且,用戶向系統(tǒng)提供的信息會(huì)影響到機(jī)器學(xué)習(xí),從而影響到系統(tǒng)對(duì)外輸出的自動(dòng)生成內(nèi)容。因此,用戶對(duì)系統(tǒng)的不當(dāng)誘導(dǎo)行為會(huì)導(dǎo)致系統(tǒng)對(duì)外輸出含有侵權(quán)內(nèi)容的信息。例如,2016年3月23日,微軟公司曾推出一款聊天機(jī)器人“Tay”,其具有在與用戶聊天過程中進(jìn)行機(jī)器學(xué)習(xí)、拓展語(yǔ)言能力的功能,結(jié)果遭到了許多用戶的不當(dāng)誘導(dǎo),導(dǎo)致該機(jī)器人系統(tǒng)“Tay”對(duì)外出輸出了大量的具有仇恨、歧視性的有害內(nèi)容,微軟公司隨即在第二天就宣布關(guān)閉該系統(tǒng)。
當(dāng)用戶的不當(dāng)誘導(dǎo)行為實(shí)質(zhì)上促成了生成式人工智能系統(tǒng)所生成的侵權(quán)內(nèi)容時(shí),如果用戶對(duì)系統(tǒng)提供者提出損害賠償請(qǐng)求,提供者可以以受害人對(duì)損害的發(fā)生存在過錯(cuò)為由,而主張減輕或免除自己的賠償責(zé)任。如果所生成的內(nèi)容構(gòu)成對(duì)第三人權(quán)益的損害,用戶的不當(dāng)誘導(dǎo)行為并不必然導(dǎo)致人工智能提供者免責(zé),關(guān)鍵在于提供者對(duì)于可預(yù)見的用戶不當(dāng)誘導(dǎo)行為或?yàn)E用行為,甚至惡意攻擊行為,是否盡到了風(fēng)險(xiǎn)防范的安全保障義務(wù),包括合理的設(shè)計(jì)、持續(xù)監(jiān)測(cè)和及時(shí)處置的義務(wù)。如果提供者未盡到上述義務(wù),可視為其存在過錯(cuò),并且不能因?yàn)橛脩舨划?dāng)誘導(dǎo)行為的介入而阻斷因果關(guān)系的成立,此時(shí),可以將提供者與該用戶看作是共同侵權(quán)行為為人,共同對(duì)遭受損害的第三人承擔(dān)侵權(quán)責(zé)任。
。ǘ┤斯ぶ悄芴摷訇愂龅呢(zé)任認(rèn)定
虛假信息的泛濫是國(guó)內(nèi)外監(jiān)管機(jī)構(gòu)和社會(huì)公眾對(duì)人工智能生成內(nèi)容共同的擔(dān)憂。國(guó)內(nèi)外有許多研究都指出生成式人工智能系統(tǒng)有可能生成大量的虛假信息。制作和發(fā)布虛假信息不僅會(huì)損害公共秩序,還有可能產(chǎn)生侵權(quán)責(zé)任。由于人工智能本身不具備獨(dú)立的主體資格,因此,我們可以將人工智能生成的信息內(nèi)容看作是人工智能提供者作出的陳述。
我國(guó)民法典侵權(quán)責(zé)任編并沒有使用虛假陳述這一概念,但是,其關(guān)于一般侵權(quán)責(zé)任的制度框架可以容納由虛假陳述產(chǎn)生的侵權(quán)責(zé)任問題。虛假陳述(misrepresentation)這一概念的表述可見于英美侵權(quán)法與合同法中。美國(guó)《侵權(quán)法重述》(第2版)將虛假陳述區(qū)分為造成人身?yè)p害的虛假陳述和造成純經(jīng)濟(jì)損失的虛假陳述,又可分為故意虛假陳述、過失虛假陳述和無辜的虛假陳述,其對(duì)虛假陳述責(zé)任的規(guī)則構(gòu)造比較具體,對(duì)我國(guó)侵權(quán)法的適用具有參考價(jià)值。對(duì)于人工智能生成虛假信息的侵權(quán)責(zé)任而言,基于過失的虛假陳述責(zé)任更為常見。
日常生活經(jīng)驗(yàn)告訴我們,錯(cuò)誤的、不實(shí)的言論或信息在生活中很常見,特別是在網(wǎng)絡(luò)環(huán)境下,但并不是我們每一次不小心的失實(shí)言論都會(huì)產(chǎn)生對(duì)他人的侵權(quán)責(zé)任。法律需要將過失性虛假陳述責(zé)任限制一個(gè)合理的范圍內(nèi),否則將會(huì)危及人們的表達(dá)自由和思想的傳播。美國(guó)侵權(quán)法主要是通過兩個(gè)要件來進(jìn)行控制的,一是作出虛假陳述的行為人對(duì)受害人負(fù)有注意義務(wù),二是受害人對(duì)虛假陳述的信賴是合理的。
就注意義務(wù)要件而言,通常認(rèn)為,陌生人之間的交流在一般情況下不會(huì)產(chǎn)生保障陳述真實(shí)的注意義務(wù);但是,如果當(dāng)事人具有特殊的身份或者當(dāng)事人之間具有特殊的關(guān)系,如律師、醫(yī)生等專業(yè)機(jī)構(gòu)與客戶之間的關(guān)系,則有可能產(chǎn)生法律上的注意義務(wù)。就生成式人工智能與普通公眾用戶之間的關(guān)系而言,一般可以看作是陌生人之間的關(guān)系,不會(huì)產(chǎn)生法律上的注意義務(wù);但是,如果其以專業(yè)人士的名義向用戶提供與人身財(cái)產(chǎn)安全密切相關(guān)的專業(yè)性知識(shí)信息,則有可能在其可合理預(yù)見的范圍內(nèi)產(chǎn)生法律上的注意義務(wù)。為避免承擔(dān)此類責(zé)任,許多生成式人工智能提供者通過程序設(shè)計(jì)和有意識(shí)的人工訓(xùn)練使得人工智能系統(tǒng)拒絕向用戶提供此類信息。
就合理信賴要件而言,需要依照具體情形由法院來作出判斷。就ChatGPT而言,OpenAI公司對(duì)該系統(tǒng)生成內(nèi)容的可信賴性的宣傳和表述是相互矛盾的。一方面,OpenAI宣傳其開發(fā)的GPT具有強(qiáng)大的解決問題的能力,暗示其輸出的內(nèi)容是有價(jià)值的;另一方面,OpenAI又通過用戶協(xié)議等文件警告用戶不可信賴其輸出的內(nèi)容并拒絕對(duì)內(nèi)容的真實(shí)性承擔(dān)責(zé)任,并且,OpenAI公司還將用戶的過度信賴列為GPT系統(tǒng)存在的重要風(fēng)險(xiǎn)之一。實(shí)際上,ChatGPT越成功,其出錯(cuò)概率越低,也越容易被過度信任。判斷用戶對(duì)人工智能生成內(nèi)容的信賴是否合理,需要根據(jù)用戶與人工智能提供者之間的關(guān)系、生成內(nèi)容的性質(zhì)以及其對(duì)用戶人身財(cái)產(chǎn)安全的影響、人工智能提供者對(duì)其系統(tǒng)可靠性所作出的陳述或保證等因素。一般來說,面向社會(huì)公眾提供服務(wù),尤其是提供無償服務(wù)的人工智能系統(tǒng)輸出內(nèi)容的可信賴程度較低,而為滿足用戶個(gè)性化需要而有償定制的人工系統(tǒng)的可信賴程度較高。
有一類用戶比較特殊,那就是專業(yè)人士。人工智能剛出現(xiàn)時(shí),人們擔(dān)心其有可能取代自然人提供相關(guān)服務(wù),這既引發(fā)了人們對(duì)其安全性的擔(dān)憂,也引發(fā)了人們對(duì)失業(yè)的擔(dān)憂,專業(yè)人士對(duì)此尤其敏感。長(zhǎng)期以來,各國(guó)以保障執(zhí)業(yè)質(zhì)量、維護(hù)公共利益的名義為醫(yī)師、律師、會(huì)計(jì)師等職業(yè)設(shè)置了較高的執(zhí)業(yè)門檻,而生成式人工智能的廣泛應(yīng)用有可能降低職業(yè)準(zhǔn)入門檻,并且有可能使得社會(huì)公眾越過專業(yè)人士而直接從人工智能系統(tǒng)獲得專業(yè)服務(wù),從而給專業(yè)人士帶來職業(yè)沖擊。例如,OpenAI聲稱GPT-4可以通過律師執(zhí)業(yè)資格考試并能夠取得高分,因此,從理論上講,其具有為公眾提供法律咨詢服務(wù)的能力。早在20世紀(jì)60年代后期,美國(guó)開始出現(xiàn)利用計(jì)算機(jī)自動(dòng)檢索法律信息的技術(shù)后,美國(guó)律師協(xié)會(huì)就擔(dān)心其對(duì)法律職業(yè)產(chǎn)生沖擊,主張將非律師人士使用計(jì)算機(jī)信息檢索為公眾提供法律咨詢服務(wù)作為非法從事律師業(yè)務(wù)來對(duì)待,從而限制非法律專業(yè)人士對(duì)該項(xiàng)技術(shù)的使用。而在人工智能出現(xiàn)之后,世界各國(guó)都在加強(qiáng)監(jiān)管,其中一個(gè)趨勢(shì)就是將專業(yè)性的人工智能服務(wù)納入到專業(yè)領(lǐng)域,并按照專業(yè)性設(shè)備或服務(wù)來進(jìn)行嚴(yán)格監(jiān)管。例如,醫(yī)療領(lǐng)域的人工智將按照醫(yī)療器械來進(jìn)行監(jiān)管。由此而出現(xiàn)的結(jié)果就是,專業(yè)領(lǐng)域的人工智能系統(tǒng)通常不能直接向公眾提供服務(wù),而是需要通過有執(zhí)業(yè)許可證的專業(yè)人士才可服務(wù)公眾,這樣既增強(qiáng)了專業(yè)人士為客戶提供服務(wù)的能力,同時(shí)亦不致于使其失去工作崗位。在這種模式下,人工智能系統(tǒng)實(shí)際上成為用來輔助專家向客戶提供服務(wù)的工具,其生成的內(nèi)容對(duì)專業(yè)人士而言僅具有輔助的參考作用,而不能也不應(yīng)替代專業(yè)人士獨(dú)立地作出判斷。因此,專業(yè)人士對(duì)人工智能生成內(nèi)容應(yīng)當(dāng)保持謹(jǐn)慎的態(tài)度,會(huì)受到合理信賴的限制。
人工智能提供者除了有可能對(duì)用戶承擔(dān)侵權(quán)責(zé)任外,還有可能對(duì)用戶以外的第三人承擔(dān)侵權(quán)責(zé)任,但是,第三人的范圍應(yīng)當(dāng)受到更為嚴(yán)格的限制,特別是那些未遭受人身或財(cái)產(chǎn)的物質(zhì)性損害而僅遭受純經(jīng)濟(jì)損失的第三人。當(dāng)用戶利用生成式人工智能系統(tǒng)所生成的內(nèi)容從事對(duì)第三人的侵害行為時(shí),如果人工智能生成內(nèi)容本身是合法的、中性的,并且人工智能系統(tǒng)提供者對(duì)用戶的用途并不知情,其可主張免責(zé)。例如,用戶詢問如何分辨哪些類型蘑菇有毒,然后依據(jù)答案采集毒蘑菇去毒害他人。然而,如果用戶詢問的問題本身可以揭示其意欲或有可能從事侵害他人人身財(cái)產(chǎn)安全的行為,甚至犯罪行為,如果人工智能提供者未采取合理的技術(shù)防范措施而導(dǎo)致系統(tǒng)生成了幫助其從事侵權(quán)活動(dòng)的相關(guān)內(nèi)容,則有可能構(gòu)成教唆或幫助侵權(quán)。
。ㄈ┤斯ぶ悄苌蓛(nèi)容侵害他人名譽(yù)的責(zé)任認(rèn)定
以大語(yǔ)言模型為代表的人工智能生成內(nèi)容系統(tǒng),由于其模型設(shè)計(jì)的技術(shù)特點(diǎn),從而有可能出現(xiàn)“幻覺”。曾經(jīng)有學(xué)者向ChatGPT問詢某類信息或某人的信息,結(jié)果ChatGPT反饋稱某人曾被指控犯罪或從事性騷擾等行為,并引用具體的法律文書或權(quán)威的新聞報(bào)道作為信息來源,從表面上看該信息非?煽。然而,經(jīng)查證,上述信息純屬子虛烏有,其所引用的法律文書或新聞報(bào)道根本不存在。而且,在當(dāng)前技術(shù)條件下,盡管OpenAI公司不斷優(yōu)化ChatGPT的算法模型,但是,仍然無法完全消除“幻覺”等編造虛假信息的問題。
雖然ChatGPT是在與用戶一對(duì)一的對(duì)話交流中編造關(guān)于他人的虛假信息,但是,這并不能阻礙侵害他人名譽(yù)權(quán)責(zé)任的成立,因?yàn)槠涮峁┱吣軌蚝侠淼仡A(yù)見到用戶有可能將其收到的信息告知第三人,從而導(dǎo)致受害人的社會(huì)評(píng)價(jià)降低、名譽(yù)受損。另外,盡管OpenAI可以在其用戶協(xié)議中提醒用戶該系統(tǒng)可能存在“幻覺”的問題并免除自己的民事責(zé)任,但是,該免責(zé)協(xié)議即使有效亦只能在合同當(dāng)事人之間產(chǎn)生法律效力,而不能約束遭受名譽(yù)權(quán)損失的第三人。因此,人工智能提供者對(duì)侵害他人名譽(yù)權(quán)的責(zé)任風(fēng)險(xiǎn)是現(xiàn)實(shí)存在的。
從法律規(guī)范所規(guī)定的責(zé)任構(gòu)成要件的角度看,生成式人工智能提供者侵害他人名譽(yù)權(quán)與普通的侵害名譽(yù)權(quán)并無特別之處。但需要斟酌的是,依照我國(guó)民法典第998條的規(guī)定,在認(rèn)定行為人承擔(dān)侵害名譽(yù)權(quán)的民事責(zé)任時(shí),“應(yīng)當(dāng)考慮行為人和受害人的職業(yè)、影響范圍、過錯(cuò)程度,以及行為的目的、方式、后果等因素!睂(duì)此,是否需要基于人工智能生成內(nèi)容系統(tǒng)的特性而對(duì)其特別對(duì)待,是一個(gè)值得討論的問題。侵害名譽(yù)權(quán)責(zé)任的認(rèn)定涉及名譽(yù)權(quán)保護(hù)與言論自由兩種價(jià)值之間的權(quán)衡。在傳統(tǒng)法律背景下,言論自由通常是指人的言論自由,保護(hù)人的創(chuàng)作與思想表達(dá),而人工智能生成內(nèi)容是軟件系統(tǒng)基于算法模型而自動(dòng)生成的。在進(jìn)行價(jià)值權(quán)衡時(shí),是否需要像保護(hù)自然人的言論自由那樣來保護(hù)人工智能的言論自由,是一個(gè)值得思考的話題。對(duì)此,在一些學(xué)者看來,言論自由之所以受到保護(hù),不僅僅是為了維護(hù)言論者的自由,還在于保護(hù)聽眾獲取信息的自由,站在受眾的立場(chǎng)上,無論言論者為自然人還是人工智能,其言論都應(yīng)受到保護(hù)。在本文看來,這一問題涉及如何看待人工智能所生成的內(nèi)容的價(jià)值。如果人工智能所生成內(nèi)容的整體價(jià)值得到了社會(huì)認(rèn)可,那么,給予其恰當(dāng)?shù)谋Wo(hù)對(duì)于社會(huì)而言是有益的,實(shí)際上是給予人工智能提供者以責(zé)任風(fēng)險(xiǎn)的庇護(hù)。只輸出高質(zhì)量、有價(jià)值、真實(shí)的信息而自動(dòng)屏蔽虛假的侵權(quán)信息,在目前的技術(shù)條件下,還只能是良好的愿望。對(duì)于人工智能這樣一項(xiàng)新興的處于發(fā)展中的技術(shù),如果我們對(duì)其生成內(nèi)容提出過高的要求或科以過嚴(yán)的責(zé)任,那么,人工智能提供者為了規(guī)避自身的責(zé)任風(fēng)險(xiǎn)會(huì)過度限制系統(tǒng)自動(dòng)生成內(nèi)容的輸出,同時(shí),也會(huì)抑制相關(guān)技術(shù)的創(chuàng)新和應(yīng)用。
四、關(guān)于人工智能致人損害的責(zé)任限制與受害人救濟(jì)?
生成式人工智能是依托互聯(lián)網(wǎng)發(fā)展起來的新興數(shù)字技術(shù)的產(chǎn)物。在20世紀(jì)90年代互聯(lián)網(wǎng)剛剛興起的時(shí)候,美國(guó)先后通過制定《通信凈化法》第230條款和《數(shù)字千禧年版權(quán)法》,對(duì)網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任作出了限制。前者為網(wǎng)絡(luò)服務(wù)提供者作出了范圍寬廣的免責(zé)規(guī)定,后者通過“通知—?jiǎng)h除”規(guī)則在版權(quán)法領(lǐng)域?yàn)榫W(wǎng)絡(luò)服務(wù)提供者提供了“避風(fēng)港”式的保護(hù)。美國(guó)通過的上述兩部法律不僅對(duì)本國(guó)互聯(lián)網(wǎng)產(chǎn)業(yè)的發(fā)展起到了極大的促進(jìn)作用,而且對(duì)歐盟、中國(guó)等世界其他國(guó)家的網(wǎng)絡(luò)立法都產(chǎn)生了深遠(yuǎn)的影響。在ChatGPT等大語(yǔ)言模型出現(xiàn)后,人們禁不住要問,其可否適用現(xiàn)行法中關(guān)于網(wǎng)絡(luò)服務(wù)提供者的責(zé)任限制規(guī)定。
從我國(guó)民法典第1194—1197條關(guān)于網(wǎng)絡(luò)侵權(quán)的規(guī)定來看,其區(qū)分了網(wǎng)絡(luò)服務(wù)提供者因自身行為而承擔(dān)的侵權(quán)責(zé)任和網(wǎng)絡(luò)服務(wù)提供者因其用戶實(shí)施侵權(quán)行為而承擔(dān)的責(zé)任。體現(xiàn)對(duì)網(wǎng)絡(luò)服務(wù)提供者責(zé)任限制的“通知—?jiǎng)h除”規(guī)則僅適用于后者,而對(duì)前一種情形并不適用。然而,就ChatGPT之類的大語(yǔ)言模型提供者而言,大語(yǔ)言模型系統(tǒng)自動(dòng)生成的信息內(nèi)容并不是其用戶創(chuàng)作或發(fā)布的信息,而應(yīng)看作是系統(tǒng)提供者創(chuàng)作、發(fā)布的信息,因此,其無法適用網(wǎng)絡(luò)服務(wù)提供者的責(zé)任限制規(guī)定,而只能適用侵權(quán)責(zé)任的一般規(guī)定。對(duì)于生成式人工智能提供者無法適用網(wǎng)絡(luò)服務(wù)提供者的責(zé)任限制規(guī)定的另一個(gè)重要原因還在于:在現(xiàn)行法框架下,當(dāng)網(wǎng)絡(luò)服務(wù)提供者的責(zé)任被限制或免除以后,受害人仍可向制作發(fā)布侵權(quán)信息、實(shí)施直接侵權(quán)行為的用戶提出索賠;而在人工智能生成內(nèi)容的模式下,如果免除了人工智能提供者的侵權(quán)責(zé)任,那么,受害人將無法找到其他索賠對(duì)象進(jìn)行索賠。
如果依目前法律規(guī)定生成式人工智能提供者的侵權(quán)責(zé)任不會(huì)受到限制,那么,是否應(yīng)當(dāng)通過制定新的立法來限制該類提供者的侵權(quán)責(zé)任,亦是當(dāng)前學(xué)術(shù)界和產(chǎn)業(yè)界討論的話題。在本文看來,將人工智能提供者的侵權(quán)責(zé)任保持在合理水平,對(duì)于保持促進(jìn)人工智能產(chǎn)業(yè)發(fā)展與保護(hù)公眾安全之間的平衡,具有至關(guān)重要的作用。從當(dāng)前生成式人工智能的技術(shù)模式和商業(yè)應(yīng)用模式來看,通過立法對(duì)其侵權(quán)責(zé)任進(jìn)行限制,尚缺乏充足的正當(dāng)性理由。要求生成式人工智能提供者按照侵權(quán)法一般規(guī)則承擔(dān)過錯(cuò)責(zé)任而非依產(chǎn)品責(zé)任法承擔(dān)無過錯(cuò)責(zé)任,這本身就蘊(yùn)含了對(duì)提供者的責(zé)任限制。在認(rèn)定提供者是否存在過錯(cuò)時(shí),法院可以將當(dāng)前人工智能技術(shù)的發(fā)展水平、避免損害的替代設(shè)計(jì)的可行性與成本,以及侵權(quán)責(zé)任的承擔(dān)對(duì)行業(yè)的影響等因素,納入到考量范圍內(nèi),通過動(dòng)態(tài)地調(diào)整過錯(cuò)的認(rèn)定標(biāo)準(zhǔn),實(shí)現(xiàn)將責(zé)任水平控制在合理程度的目標(biāo),并可以避免由立法直接作出責(zé)任限制規(guī)定而產(chǎn)生的僵硬性。
由于過錯(cuò)責(zé)任原則的限制會(huì)導(dǎo)致許多受害人無法得到賠償,為了維持人工智能提供者與受害人之間的利益平衡,仍應(yīng)給予受害人以必要的救濟(jì),防止其持續(xù)地受到損害。建議未來的立法可通過確立“通知—處置”規(guī)則,在給人工智能提供者施加義務(wù)的同時(shí)也為受害人提供相應(yīng)的救濟(jì)。所謂“通知—處置”規(guī)則,是指當(dāng)權(quán)益受到損害的用戶或者第三人發(fā)現(xiàn)人工智能系統(tǒng)生成的內(nèi)容含有侵權(quán)信息并通知提供者后,提供者負(fù)有及時(shí)采取處置措施以消除侵權(quán)信息的影響并防止系統(tǒng)再次生成侵權(quán)信息的義務(wù);如果提供者未及時(shí)采取處置措施,將對(duì)擴(kuò)大的損害承擔(dān)賠償責(zé)任。該“通知—處置”規(guī)則不同于我國(guó)民法典所規(guī)定的“通知—?jiǎng)h除”規(guī)則。首先,其性質(zhì)并不屬于“避風(fēng)港”規(guī)則或責(zé)任免除條款,而是義務(wù)與責(zé)任構(gòu)成條款。人工智能提供者在接到通知后所負(fù)有的消除侵權(quán)信息的影響并防止系統(tǒng)再次生成侵權(quán)信息的義務(wù),具有停止侵害、排除妨礙、消除危險(xiǎn)的性質(zhì),其不以服務(wù)提供是否有無過錯(cuò)作為適用的前提。其次,由于生成式人工智能的技術(shù)特點(diǎn),在采取處置方式時(shí),不同于對(duì)待傳統(tǒng)網(wǎng)絡(luò)侵權(quán)所用的刪除、屏蔽、斷開鏈接等方式。生成式人工智能所生成的內(nèi)容被認(rèn)為含有侵權(quán)信息時(shí),往往很難追溯其產(chǎn)生的具體原因,也無法直接通過修改輸出結(jié)果來糾正其錯(cuò)誤,而是通過再次精準(zhǔn)訓(xùn)練的方式來實(shí)現(xiàn)算法模型的調(diào)整和優(yōu)化,以此避免系統(tǒng)下次再犯同樣或類似的錯(cuò)誤。
五、結(jié)語(yǔ)
以ChatGPT為代表的大語(yǔ)言模型的出現(xiàn)標(biāo)志著生成式人工智能技術(shù)取得了里程碑式的突破。人們?cè)跒檫@一新興技術(shù)的應(yīng)用歡呼的同時(shí)也感受到了其存在的損害風(fēng)險(xiǎn)。由于大語(yǔ)言模型固有的技術(shù)特點(diǎn)和當(dāng)前的技術(shù)水平,尚無法完全避免人工智能生成的內(nèi)容中含有侵權(quán)信息,因此,如何合理地分配損害風(fēng)險(xiǎn)、確定人工智能提供者的侵權(quán)責(zé)任就變得至關(guān)重要。
在當(dāng)前的法律背景下,關(guān)于生成式人工智能致人損害的侵權(quán)責(zé)任,涉及眾多復(fù)雜的法律問題,在法律適用方面尚存在許多不確定性,需要法院作出相應(yīng)的法律解釋,以增強(qiáng)法律規(guī)則的可預(yù)期性,這對(duì)于促進(jìn)人工智能技術(shù)的發(fā)展和應(yīng)用具有重要的影響。將以大語(yǔ)言模型為代表的生成式人工智能軟件系統(tǒng)納入產(chǎn)品責(zé)任的范疇,可能并不是最佳的法律政策選擇。通過一般侵權(quán)責(zé)任制度并輔之以過錯(cuò)推定規(guī)則,既可以解決受害人的舉證困難問題,也便于通過司法控制機(jī)制對(duì)生成式人工智能提供者的責(zé)任負(fù)擔(dān)進(jìn)行動(dòng)態(tài)調(diào)整。為了維持生成式人工智能提供者與受害人之間的利益平衡,可以通過“通知—處置”規(guī)則對(duì)提供者施加消除侵權(quán)信息的影響并防止系統(tǒng)再次生成侵權(quán)信息的義務(wù)。
作者:周學(xué)峰,北京航空航天大學(xué)法學(xué)院教授,法學(xué)博士
出處:《比較法研究》2023年第4期
