主持人
周尚君 教授
國家級人才項目入選者
第十屆全國十大杰出青年法學(xué)家
主持人語
今年全國兩會期間,習(xí)近平總書記就發(fā)展新質(zhì)生產(chǎn)力、推動高質(zhì)量發(fā)展等發(fā)表一系列重要講話,“深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,開展 ‘ 人工智能+’ 行動”也首次寫入兩會政府工作報告。眾所周知,人工智能是發(fā)展新質(zhì)生產(chǎn)力的重要引擎,人工智能賦能千行百業(yè)將成為我國經(jīng)濟社會發(fā)展的常態(tài)。人工智能社會應(yīng)用在產(chǎn)生巨大收益的同時,不可避免地會引發(fā)不少風(fēng)險。這些收益與風(fēng)險如何分配?是分配給人工智能產(chǎn)業(yè)鏈條上的各利益相關(guān)者,還是分配給人工智能自身?對這一問題的回答,涉及到人工智能的法律主體地位,追問的是人工智能是不是法律意義上的人,能不能成為權(quán)利義務(wù)的最終歸屬。
本期“廌會筆談”,我們邀請到國內(nèi)六位相關(guān)領(lǐng)域法律學(xué)者,圍繞這一問題進(jìn)行觀點交鋒,以期引發(fā)更多人對這一問題的關(guān)注和思考。
人工智能也可以成為法律意義上的人
陳亮
西南政法大學(xué)人工智能法學(xué)院教授、科技法學(xué)研究院副院長
法律意義上的人是法定權(quán)利與法定義務(wù)的最終歸屬,是法律分配收益和分?jǐn)傦L(fēng)險的最終承受者。一國法律的人法制度,關(guān)乎該國社會主體的行為激勵與行為約束,進(jìn)而關(guān)乎該國的經(jīng)濟發(fā)展、社會穩(wěn)定乃至整個人類社會的持久繁榮。在人工智能廣泛介入人類社會生活各領(lǐng)域的當(dāng)代中國,理性而科學(xué)地回答人工智能是不是法律意義上的人,并據(jù)此反思和重構(gòu)我國的人法制度,不僅具有非常重要的理論意義,而且具有極其不菲的實踐價值。
從詞源學(xué)上看,英文世界中用以表示法律意義上的人person一詞,源自拉丁詞匯persona,意為戲劇舞臺上演員所佩戴的面具,引申為演員所扮演的角色。與之相適應(yīng),法律意義上的人,則是活躍于法律世界中的各種角色的統(tǒng)稱,用以區(qū)別活躍于生活世界中的各色人等。法律意義上的人與戲曲舞臺上的面具的這種同源同宗,為我們考察法律意義上的人提供了非常有趣的視角。具體而言,我們可以推論出以下3個非常有意義的結(jié)論:(1)特定實體能否成為法律意義上的人,這是法律根據(jù)社會需要而定,正如戲劇中的演員是由戲劇根據(jù)其劇情需要而設(shè)一樣;(2)法律意義上的人與生物學(xué)意義上的人是分離的,正如戲曲中演員所扮演的角色有別于演員在社會生活中的真實樣態(tài)一樣;(3)法律意義上的人是為保護(hù)其背后的實體而設(shè),正如面具是為保護(hù)其背后的演員而戴一樣(想想因飾演黃世仁而險些被觀眾揍死的惡霸專業(yè)戶陳強便可窺豹一斑)。
從法律史來看,法律上的人的演化史,或多或少證實了上述三個結(jié)論的有效性:(1)各國法律所承認(rèn)的法律意義上的人,盡管總體上趨于“大同”,但仍存在“小異”,這種“小異”正是各國法律根據(jù)其社會需要進(jìn)行理性選擇的結(jié)果;(2)從古至今的法律意義上的人,歷經(jīng)了從“人為非人”到“人人為人”再到“非人為人”的滄海桑田般的巨大變遷,這恰恰是法律意義上人與生物學(xué)意義上的人相互分離的如山鐵證;(3)公司法人資格的取得,使其股東獲得了免受公司債權(quán)人直接追索債務(wù)的“公司面紗”,則活脫脫地證明了法律意義上的人具有護(hù)佑其背后實體免受法律制裁的保護(hù)功能。
由是觀之,人工智能是不是法律意義上的人,應(yīng)該根據(jù)法律意義上的人的制度功能進(jìn)行綜合研判,而不能僅僅因為人工智能不具有生物學(xué)意義上的人的某些本質(zhì)特征而斷然否決。畢竟,法律意義上的人與生物學(xué)意義上的人是分離的,以人工智能是否具備生物學(xué)上的某些特征而判斷其是否是法律意義上的人,無益于緣木求魚、南轅北轍。若僅僅因為這一點而否認(rèn)人工智能的法律主體地位,那么公平分配人工智能收益和分?jǐn)側(cè)斯ぶ悄茱L(fēng)險將成為一句空話,更遑論激勵我國人工智能產(chǎn)業(yè)鏈上的利益相關(guān)者為將我國打造成“世界主要人工智能創(chuàng)新中心”而奮斗!
尹鋒林
中國科學(xué)院大學(xué)公共政策與管理學(xué)院知識產(chǎn)權(quán)系主任、副教授
隨著人工智能技術(shù)的發(fā)展,特別是隨著ChatGPT、Sora等生成式人工智能系統(tǒng)的廣泛應(yīng)用,人工智能系統(tǒng)在智力成果創(chuàng)造方面對人類的輔助作用、甚至替代作用越來越大。人工智能系統(tǒng)能否成為AI發(fā)明的發(fā)明人、能否成為“文生圖”或“文生視頻”的作者?這些問題已經(jīng)實實在在地擺在了各國知識產(chǎn)權(quán)主管機構(gòu)和法院面前。關(guān)于人工智能知識產(chǎn)權(quán)法律主體地位問題,根據(jù)目前各國的知識產(chǎn)權(quán)制度和相關(guān)實踐,至少有如下思考:
第一,人工智能創(chuàng)造物,包括利用人工智能系統(tǒng)創(chuàng)作的發(fā)明創(chuàng)作、文字材料、圖畫和視頻等,雖然這些人工智能創(chuàng)造物與人類單純的智力成果(即人類未利用人工智能而創(chuàng)造的成果)相比,可能可以通過圖靈測試,難分伯仲,但是這些人工智能創(chuàng)造物能否可以像人類單純的智力成果那樣作為知識產(chǎn)權(quán)的客體,則仍然存在較大爭議,不同國家、不同法院根據(jù)不同的案情會有不同的答案。一般而言,在人工智能創(chuàng)造物中,如果人類對之的智力貢獻(xiàn)越大,比如人類向人工智能系統(tǒng)輸入的提示詞越多、進(jìn)行的選擇或判斷越多越復(fù)雜,那么,該創(chuàng)造物就越有可能被認(rèn)為是可專利或可版權(quán)的客體。相反,在人工智能創(chuàng)造物中,如果人類對之的智力貢獻(xiàn)越小,比如人類僅向人工智能輸入了一個簡單的提示詞,人工智能就輸出的一段文字、一幅畫、一個視頻或一個技術(shù)方案,那么該“創(chuàng)造物”就可能不會被認(rèn)為是可專利性或可版權(quán)性的客體。
第二,由于知識產(chǎn)權(quán)制度本質(zhì)目標(biāo)是鼓勵人類智力成果的創(chuàng)造和傳播,因此,各國法律和實踐絕大部分否認(rèn)人工智能系統(tǒng)可以作為人工創(chuàng)造物的發(fā)明人或作者,更否認(rèn)人工智能系統(tǒng)可以作為專利權(quán)人或著作權(quán)人。例如,我國最新版的《專利審查指南》就明確規(guī)定:發(fā)明人應(yīng)當(dāng)是個人,不得填寫人工智能系統(tǒng)。美國版權(quán)局《包含人工智能生成內(nèi)容作品的版權(quán)登記指南》也明確規(guī)定,只有自然人才能被登記為作品的作者,美國憲法和美國版權(quán)法均排除非人類可以作為作品的作者。因此,人工智能系統(tǒng)不能作為作品的作者,如果申請人把人工智能系統(tǒng)列為作者,美國版權(quán)局將直接不予登記。在人工智能創(chuàng)造物被認(rèn)為具有可版權(quán)性或可專利性的前提下,輸入提示詞或?qū)I輸出結(jié)果進(jìn)行選擇和判斷的人則通常會被認(rèn)為是發(fā)明人或作者。這種實踐可能會引發(fā)爭議。例如,在某些情況下,提示詞非常簡單,提示詞輸入者確實對AI系統(tǒng)輸出的“作品”或“發(fā)明創(chuàng)造”并無實質(zhì)性創(chuàng)造貢獻(xiàn),“作品”或“發(fā)明創(chuàng)造”幾乎完全來自于AI系統(tǒng)的貢獻(xiàn),那么在這種情況下把提示詞輸入者列為發(fā)明人或作者,就會與民法中的誠實信用原則相悖。為了解決這一問題,美國版權(quán)局的上述指南進(jìn)一步規(guī)定,如果AI輸出的結(jié)果的表達(dá)要素確實是由AI系統(tǒng)決定的,那么該輸出內(nèi)容就不屬于人類作品,當(dāng)然,也就不能獲得版權(quán)保護(hù)。
第三,雖然人工智能系統(tǒng)不能作為作者或發(fā)明人對其“創(chuàng)造物”享有相關(guān)權(quán)利,但是,當(dāng)其“創(chuàng)造物”涉及侵權(quán)時,該人工智能系統(tǒng)的所有者就有可能作為責(zé)任主體承擔(dān)侵權(quán)責(zé)任。最近,廣州互聯(lián)網(wǎng)法院審理了一起AI公司文生圖版權(quán)侵權(quán)案,在該案中,原告是奧特曼系列形象的國內(nèi)版權(quán)獨占被許可人,被告是一家人工智能系統(tǒng)公司,原告使用被告的人工智能系統(tǒng)要求其生成與奧特曼相關(guān)的圖片時,原告使用被告人工智能系統(tǒng)生成的圖片與原告享有獨占許可權(quán)的奧特曼形象可構(gòu)成實質(zhì)相似,因此,原告指控被告構(gòu)成版權(quán)侵權(quán)。法院審理后判決被告侵犯了原告對奧特曼作品所享有的復(fù)制權(quán)和改編權(quán)。而在上述案件之前,北京互聯(lián)網(wǎng)法院也審理了一起涉及AI系統(tǒng)文生圖的著作權(quán)糾紛案,北京互聯(lián)網(wǎng)法院判決向人工智能系統(tǒng)輸入提示詞、利用AI系統(tǒng)生成的圖片可構(gòu)成美術(shù)作品,同時還認(rèn)為提示詞的輸入者或AI系統(tǒng)的使用者可以作為AI文生圖的作者,并享有著作權(quán)。雖然廣州互聯(lián)網(wǎng)法院與北京互聯(lián)網(wǎng)法院在AI文生圖的相關(guān)法律主體認(rèn)定問題上可能有著不同的審理思路,但是,人工智能“創(chuàng)造物”侵犯他人知識產(chǎn)權(quán)的可能性卻是現(xiàn)實的,到底應(yīng)由誰——是AI系統(tǒng)的所有者、還是AI系統(tǒng)的使用者來承擔(dān)侵權(quán)責(zé)任,以及AI系統(tǒng)所有者在何種情況下應(yīng)承擔(dān)責(zé)任或者可以受到“避風(fēng)港”原則的保護(hù)?這些問題不僅是當(dāng)前實務(wù)界直接面對的問題,而且也是理論界需要深入研究的問題。
人工智能挑戰(zhàn)了法律上人與物的關(guān)系
丁曉東
中國人民大學(xué)法學(xué)院教授、未來法治研究院副院長
人工智能是不是法律上的人?答案可能非常明顯,絕大多數(shù)學(xué)者和專家可能都會給出否定回答。ChatGPT與Sora或許可以創(chuàng)造類似于人類或遠(yuǎn)勝于人類的生成內(nèi)容,自動駕駛或許可以比人類更安全與高效駕駛,但人工智能在本質(zhì)上仍然是一種工具。人工智能既不像人一樣具有個人意志,也不像法人一樣具有群體聚合性的集體意志,將人工智能視為法律上的人,無法通過法律制度的權(quán)利義務(wù)設(shè)置而對其進(jìn)行合理激勵。
但人工智能挑戰(zhàn)了傳統(tǒng)法律中對人與物的關(guān)系設(shè)定。傳統(tǒng)法律預(yù)設(shè)了人是具有創(chuàng)造性、自由意志的主體,而物則是人類被支配的對象。在這種預(yù)設(shè)下,法律圍繞人與物設(shè)置了不同的法律制度。例如合同與侵權(quán)以人為中心,其典型制度設(shè)計包含了“意思自治”“過錯”等具有典型人類特征的要素;物權(quán)或財產(chǎn)權(quán)則以物為中心,產(chǎn)品責(zé)任也以物為中心,這些制度往往不注重人類的主觀狀態(tài)或人的特征,往往具有可以針對不特定個體的“對世性”(in rem)特征。而知識產(chǎn)權(quán)則可以視為人與物的鏈接性制度,這一制度一邊強調(diào)知識產(chǎn)權(quán)的人格性特征,強調(diào)作品、專利與人的聯(lián)系性;另一方面則將作品、專利作為物來看待,對其適用權(quán)利用盡原則。
人工智能帶來的變化是,人工智能變得越來越像人,而人類在不少情況下則反而變得更像機器主體。例如在智能投顧、股市量化交易中,人工智能算法替代了人類進(jìn)行“意思表示”;在自動駕駛中,人類駕駛員則轉(zhuǎn)變?yōu)槌丝突虺袚?dān)較少監(jiān)督義務(wù)的安全監(jiān)管員。而最為典型的還是知識產(chǎn)權(quán)中的著作權(quán)。很多人工智能生成作品在外觀上更接近于人類作品,具有高價值與歷史創(chuàng)造性( historical creativity),而有的人類作品則更像是沒有價值的機器產(chǎn)出,至多具有心理創(chuàng)造性 ( psychological creativity)。如果完全采取人類中心主義或浪漫主義作者(romantic author)的作者觀,其結(jié)論將是法律可以保護(hù)低價值的人類作品,但不能保護(hù)具有高價值的機器作品。
面對人與物的邊界模糊與關(guān)系變化,傳統(tǒng)法律制度需要與時俱進(jìn)、轉(zhuǎn)型升級。例如對于人工智能的法律責(zé)任,法律可以根據(jù)人工智能的具體特征而將其歸入不同類型。對于那些構(gòu)成產(chǎn)品部分的人工智能系統(tǒng),例如自動駕駛系統(tǒng),法律可以將其視為產(chǎn)品組成部分而進(jìn)行規(guī)制,對其施加產(chǎn)品責(zé)任。對于那些獨立存在的人工智能服務(wù)系統(tǒng),例如生成式人工智能,則可以將其視為人類或人類組織提供的聚合性服務(wù),對涉及人工智能的不同人類主體進(jìn)行行為規(guī)制。對于人工智能生成作品,法律則可以避免著作權(quán)制度的全有或全無適用,提供更具顆粒度的精細(xì)化保護(hù)。例如法律可以賦予人工智能企業(yè)初始署名權(quán),為企業(yè)提供聲譽激勵,同時為人工智能作品提供類數(shù)據(jù)庫保護(hù)與反不正當(dāng)競爭法保護(hù)。
在傳統(tǒng)法學(xué)中,人與物的關(guān)系也是隱匿的核心議題。私法上對物債二分與物權(quán)變動模式的討論,公法對監(jiān)管人還是監(jiān)管物的爭論,都包含了對人與物的關(guān)系的討論。近年來,域外法學(xué)界還興起了模塊理論(modular theory)的研究,試圖重新加深對部門法與法理學(xué)的理解。在這個意義上,人工智能是人還是物,就不僅僅是一個熱點噱頭問題,而是一個真正深刻的法學(xué)命題。
人工智能不具有民事法律主體地位
葉名怡
上海財經(jīng)大學(xué)法學(xué)院教授、博士生導(dǎo)師
人工智能是否具有民事法律主體地位?在未來是否應(yīng)當(dāng)立法賦予其主體地位?是近些年理論界主要的爭議點。確立人工智能主體地位的主要目的是解決涉人工智能的侵權(quán)責(zé)任承擔(dān)問題,而通過現(xiàn)行法的法律解釋或類推適用,即可在人工智能客體性質(zhì)的范圍內(nèi)達(dá)此目的。創(chuàng)設(shè)人工智能主體地位不僅對現(xiàn)有民法體系造成沖擊,還會導(dǎo)致受害者索賠困難、風(fēng)險分配不合理的情況。本人持否定觀點,具體理由如下。
第一,現(xiàn)行法未確認(rèn)人工智能主體地位。
有學(xué)者將人工智能視作其所有人或使用人的代理人,也有學(xué)者將其視為侵權(quán)行為發(fā)生時的被替代責(zé)任人;有觀點建議將人工智能視作擬作人格,即類似法人性質(zhì)的主體;更有激進(jìn)的域外立法草案直接賦予其新型的電子人格。然而這并非我國的法律實際,我國《民法典》不存在確定人工智能民事法律主體地位的條文,實踐中也未曾出現(xiàn)“代理說”“替代說”“法人說”的裁判。
第二,“客體解釋論”足以解決現(xiàn)有涉人工智能侵權(quán)問題。
根據(jù)人工智能模型類型,可以分為判別式人工智能產(chǎn)品與生成式人工智能服務(wù)。前者是根據(jù)輸入數(shù)據(jù)來預(yù)測或者分類不同的結(jié)果,通過“輸入—輸出”的關(guān)系來做出預(yù)測;后者是通過學(xué)習(xí)輸入數(shù)據(jù)的分布和生成規(guī)律來構(gòu)建模型,并根據(jù)該模型生成新的數(shù)據(jù)樣本。二者本質(zhì)都是一種客體意義上的工具。
關(guān)于判別式人工智能產(chǎn)品的侵權(quán)問題,可適用產(chǎn)品責(zé)任認(rèn)定規(guī)則。從保護(hù)受害人角度看,嚴(yán)格責(zé)任不考慮過錯要件,排除受害者證明加害者的過錯義務(wù)。同時,產(chǎn)品責(zé)任降低了受害人因果關(guān)系的證明要求。從市場地位角度看,人工智能產(chǎn)品的制造商(加害人)處于成本承擔(dān)的有利位置,可以通過市場定價等手段分散承擔(dān)產(chǎn)品責(zé)任后的經(jīng)濟負(fù)擔(dān)。從行業(yè)發(fā)展角度看,嚴(yán)格責(zé)任可以對制造商提出更高的產(chǎn)品質(zhì)量要求,激勵產(chǎn)品生產(chǎn)方的投入與行業(yè)的進(jìn)步。
關(guān)于生成式人工產(chǎn)品的侵權(quán)問題,可類推適用網(wǎng)絡(luò)服務(wù)提供者責(zé)任認(rèn)定規(guī)則。生成式人工智能服務(wù)提供者應(yīng)當(dāng)依法處理個人信息的義務(wù)、有對個人信息的安全保護(hù)義務(wù),否則應(yīng)當(dāng)認(rèn)定其具有過錯;服務(wù)提供者面對涉及公共利益的違法、敏感詞匯,有較高的注意義務(wù)來屏蔽,但是不能要求服務(wù)提供者對所有生成內(nèi)容盡一般注意義務(wù);此外,避風(fēng)港規(guī)則可以類推適用于生成式人工智能服務(wù)提供者。
第三,“主體立法論”不符合法律主體的應(yīng)有要件。
作為能夠承擔(dān)責(zé)任的民事法律主體,最重要的兩個要件分別是擁有獨立財產(chǎn)與能夠表達(dá)意思。一方面,即便支持人工智能法律主體的創(chuàng)設(shè),當(dāng)發(fā)生損害賠償時,其財產(chǎn)來源依舊是人工智能設(shè)計、制作、銷售、使用中的傳統(tǒng)民事主體。另一方面,當(dāng)下人工智能仍處于“弱人工智能”時代,其無法產(chǎn)生獨立的意識,即不存在意思表示的能力。因此,立法論層面的主體創(chuàng)設(shè)不符合法律主體固有之義。
綜上所述,目前人工智能事實上不具有民事法律主體地位,其主體地位既不可被解釋論擬制、更不可被立法論創(chuàng)設(shè)。
“法律上的人”有納入人工智能的余地
高艷東
浙江大學(xué)數(shù)字法治研究院副院長
隨著人工智能的發(fā)展,人工智能能否成為法律上的人,成為法律界探討的熱點。法律界討論的核心是從人工智能的角度出發(fā),審視人工智能能否具有人的意思等因素,進(jìn)而判斷其能否成為法律上的人。但是,這一角度忽視了,“法律上的人”從來都不是一個恒定的概念。
首先,“法律上的人”是一個擬制概念。美國法學(xué)家博登海默曾說:“正義有著一張普羅透斯式的臉,變幻無常、可隨時呈現(xiàn)出不同形狀并具有不相同的面貌!边@句話對于“法律上的人”同樣適用!胺梢饬x上的人”是一種擬制規(guī)定,是法律價值的判斷,而非生物學(xué)判斷。生物意義上的人,與法律意義上的人,是不同的概念。狼孩是生物意義上的人,但未必是法律意義上的人。同樣,做過變性手術(shù)的主持人,在生物意義上是男人,但在法律意義上是女人。“法律意義上的人”不僅要考慮人的生物特征,還要考慮人的社會特征。按照這個邏輯,當(dāng)人工智能具有的和人一樣的社會特征,即可以和生物人一樣建立社會關(guān)系,也就當(dāng)然會被評價為“法律意義上的人”。
其次,在不同時代,“法律上的人”的范圍是不同的。不爭的事實是,在奴隸社會中,雖然奴隸是生物意義上的人,但不是法律意義上的人。在歷史上的很多國家中,殺害奴隸和殘害耕畜的處罰大體相當(dāng)。美國的黑人成為法律上的人,進(jìn)而獲得選舉權(quán),也不過是幾十年的事情。法國大革命前,婦女也并非完全法律意義上的人。即使在今天,在很多部落社會(甚至包括印度),很多類型的人,都因為膚色、種族、姓氏、信仰、性別等因素,在事實上沒有成為真正法律意義上的人。顯然,在漫長的歷史長河中,奴隸、黑人、婦女、特定族群,都被排除在“法律意義上的人”的范圍之外。而隨著社會的發(fā)展,“法律意義上的人”的范圍逐漸在擴張,不斷包容著各種擬制的人格體。民法中的法人責(zé)任、刑法中的單位犯罪,都是“法律意義上的人”擴張的結(jié)果。
最后,人工智能不是生物意義上的人,但能夠成為“法律上的人”。當(dāng)然,這取決于兩個條件:一是人工智能發(fā)展的速度,按照目前生成式人工智能的發(fā)展速度,估計在10年左右,人工智能就會具有類似于人的意思和情感能力。即使其達(dá)不到科學(xué)家的程度,也會超越高中生的水平。二是隨著人工智能的發(fā)展,法律概念也將逐漸作出修改,“法人”就是法律因公司等機構(gòu)的出現(xiàn),而擬制出的人格體。未來,“法律上的人”的范圍會不斷擴大,將部分人工智能納入其中。
由于當(dāng)前人工智能發(fā)展水平有限,我們還在討論,人工智能能否成為“法律上的人”?相信3-5年后,我們要討論的問題就會變成,人工智能“何時”會成為“法律上的人”?10年之后,我們要討論的問題就會變成,人工智能“應(yīng)該以何種方式”成為“法律上的人”?
法律只能服務(wù)于技術(shù)。在制度與技術(shù)的較量中,技術(shù)總是勝利者。制度總是想占據(jù)主導(dǎo)地位,但技術(shù)才是制度的設(shè)計者。
人工智能法律主體地位的擬制應(yīng)當(dāng)基于對產(chǎn)業(yè)需求的回應(yīng)
劉曉春
中國社會科學(xué)院大學(xué)法學(xué)院副教授、互聯(lián)網(wǎng)法治研究中心執(zhí)行主任
人工智能是否可以被視為法律中的人,具體而言主要涉及三個層面的問題,一是人工智能是否可以作為權(quán)利主體享有法定權(quán)利或權(quán)益,二是人工智能是否可以作為責(zé)任主體承擔(dān)相應(yīng)的法律責(zé)任,三是人工智能的運行過程是否可以視為法律上的“人”的行為并產(chǎn)生相應(yīng)后果。以當(dāng)下討論熱烈的著作權(quán)法為例,跟這三個層面對應(yīng)的問題,一是人工智能是否可以成為其生成物相關(guān)權(quán)益的權(quán)利主體,二是人工智能生成內(nèi)容過程中出現(xiàn)侵犯在先著作權(quán)的情況時,人工智能是否可以擔(dān)責(zé),三是人工智能生成內(nèi)容的過程是否可以視為“創(chuàng)作”從而形成作品。
從目前的法律原則和規(guī)定來說,的確尚不存在將人工智能認(rèn)定為法律意義上的人的空間。但是以人工智能在自然屬性上是機器而不是人這一理由,直接排除人工智能獲取法律上主體地位的可能性,這個邏輯還是過于簡單了。實際上出于各種利益關(guān)系的考慮,法律體系中對“人”或“主體”的認(rèn)定和安排一直存在擬制和變通。“法人”作為法律體系中最為重要的擬制主體,獨立于單個自然人的意志和法律地位,在社會經(jīng)濟生活中發(fā)揮基礎(chǔ)性的作用,即為典型的順應(yīng)生產(chǎn)模式和利益關(guān)系需要的法律上的創(chuàng)設(shè)。除此之外,法律上對于死者利益、胎兒利益乃至動物利益等的保護(hù),實質(zhì)上也不是僅限于“自然人”的機械考慮。具體制度安排上,例如,在著作權(quán)法上,法人雖無法直接從事自然屬性的智力創(chuàng)造,但代表法人意志并由其組織、負(fù)責(zé)的作品可以視為法人作品,法人可以直接被視為作者;作者去世后,其署名權(quán)、發(fā)表權(quán)等人身權(quán)依然可以得到保護(hù),與民法上的死者名譽權(quán)保護(hù)不同,作者這類權(quán)利并沒有完全轉(zhuǎn)化為對于近親屬利益的保護(hù),而是存在相對獨立的法益包括公眾的知情利益需要保護(hù)。因此,法律上對于“人”的認(rèn)定并不是簡單基于自然屬性,而經(jīng)常是出于社會需求和特定利益關(guān)系安排的需要。
當(dāng)然,如果要將人工智能確立為法律意義上的人,雖然并非全無可能,但也需要充分論證其必要性。在上述三個層次中,第三個層次涉及到比較具體而局部的利益權(quán)衡,是否要將人工智能生成過程視為“創(chuàng)作”從而獲得著作權(quán)保護(hù),根本上需要考慮,是否有必要通過這種擬制方式,由著作權(quán)制度來為人工智能生成內(nèi)容提供生產(chǎn)激勵。其他可選的方案是,或者不必突破法律作出此種擬制,而將生成物采用特殊權(quán)利保護(hù)模式(如創(chuàng)設(shè)鄰接權(quán))或者反不正當(dāng)競爭法保護(hù),或者索性不予保護(hù)。這種情況是涉及具體制度內(nèi)部的價值判斷問題。第一個和第二個層次即人工智能是否可以成為權(quán)利和責(zé)任主體,則涉及比較基礎(chǔ)和全局的決策,需要回答的問題是,人工智能作為一種組織和參與生產(chǎn)的方式,是否產(chǎn)生了具有獨立法律地位的需求。如果人工智能與作為其提供者的法人或者自然人能夠產(chǎn)生一一對應(yīng)的關(guān)系,那么法律上的權(quán)利和責(zé)任完全可以由后者承擔(dān),沒有必要疊床架屋將人工智能獨立出來。但是如果出現(xiàn)了科斯意義上企業(yè)與市場的分野,由于人工智能組織和參與生產(chǎn)的過程過于復(fù)雜,參與主體眾多,以至于在法律上需要承認(rèn)一個單獨的“人工智能”組織體,來降低市場交易帶來的成本,促進(jìn)高效率的生產(chǎn)和分配,此時,確立“人工智能”作為一個生產(chǎn)和分配組織者的法律主體地位,也未嘗不可,只不過,在人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的當(dāng)下,還是沒有看到這樣的必要性。
