近年來,人工智能技術(shù)在很多國家的法律領(lǐng)域得到不同范圍、不同深度的使用和發(fā)展,引發(fā)了各國法學(xué)界的熱烈討論,成為法學(xué)領(lǐng)域的熱點議題和法學(xué)期刊的熱點選題。人工智能在法律領(lǐng)域的適用必須接受法律本身的規(guī)范和治理。圍繞人工智能,特別是以ChatGPT為代表的通用人工智能給法律領(lǐng)域帶來的風(fēng)險和法律對這些風(fēng)險的回應(yīng),以及人工智能時代法律本身、法律職業(yè)、法學(xué)教育的發(fā)展等問題,本報記者采訪了馬克斯·普朗克創(chuàng)新與競爭研究所高級研究員達莉亞·金(Daria Kim),美國商業(yè)雜志《福布斯》專欄作家、人工智能專家蘭斯·艾略特(Lance Eliot),明尼蘇達大學(xué)法學(xué)教授蔡曉峯(Jonathan H. Choi)。
法律具有滯后性
達莉亞·金在采訪中表示,在涉及可能對諸多領(lǐng)域產(chǎn)生變革性影響的新興技術(shù)時,政策和立法決策有著不可避免的滯后性。GPT-4在ChatGPT 3.5發(fā)布后僅幾個月便面世,但是,這種仍處于早期版本的技術(shù)以及一般意義上的大型語言模型(LLMs)可能會對社會互動、創(chuàng)意寫作、語言多樣性等造成什么樣的影響,人們了解得還不夠多。有些人認為,在某種程度上,突破性技術(shù)使得現(xiàn)有的監(jiān)管框架變得過時或不再適用。但這種結(jié)論是基于“目的適用性”評估得出的,即將現(xiàn)有監(jiān)管與法律框架對標政策目標所得出的結(jié)論。原則上,技術(shù)監(jiān)管是為了最大限度地降低技術(shù)風(fēng)險,同時為社會帶來最大的技術(shù)效益。為此,政策制定者需要充分了解這些風(fēng)險和效益分別是什么。在新興技術(shù)領(lǐng)域,對新技術(shù)與現(xiàn)有法律法規(guī)的適用性評估所得出的結(jié)果具有或然性。沒有哪項技術(shù)是絕對安全的,就算進行了大量試驗測試的技術(shù)也一樣,比如新推出的藥品。因此,歸根結(jié)底還是要花時間進行包容性討論,在技術(shù)風(fēng)險和技術(shù)效益之間達到某種平衡。
她表示,為了找到這樣一種平衡,需要花費一定的時間并進行廣泛的討論。同時,政策制定者和立法者需要在社會利益和風(fēng)險、生成式人工智能應(yīng)用所帶來的監(jiān)管挑戰(zhàn)、各國的政策目標以及合適的政策措施等方面達成共識。這是極具挑戰(zhàn)性的,歐盟人工智能法案的立法過程就是一個很好的例子,它表明,在如何貫徹安全可信賴人工智能理念、最佳水平的安全監(jiān)管應(yīng)當(dāng)是什么,以及如何處理人工智能的通用技術(shù)特性等問題上達成共識,需要花費漫長的時間。但與此同時,生成式人工智能領(lǐng)域的發(fā)展卻是躍進式的,新技術(shù)不會等待社會達成共識。
達莉亞·金說,不久前,曾有1000多名相關(guān)專家簽署聯(lián)名信強調(diào)了人工智能系統(tǒng)的潛在危險,包括其對社會、經(jīng)濟、政治的潛在影響和破壞,呼吁立即停止發(fā)展人工智能。像大型語言模型這樣的應(yīng)用程序具有廣泛影響,其使用將影響人類生活中涉及語言的所有領(lǐng)域。鑒于人工智能應(yīng)用廣泛存在,試圖禁止使用人工智能可能會像用網(wǎng)捕捉風(fēng)一般徒勞無功。更可能的情況是,包括政策制定者和監(jiān)管者在內(nèi)的社會各界需要摸著石頭過河,邊使用人工智能邊解決問題。
關(guān)于立法者是否應(yīng)制定或修改法律以應(yīng)對新挑戰(zhàn)的問題,還需要在法律領(lǐng)域內(nèi)進行全面而有針對性的評估。由于像ChatGPT這樣的機器學(xué)習(xí)應(yīng)用具有“通用技術(shù)”的特點,無法就可能需要加以監(jiān)管的使用行為進行窮盡列舉。因此,很難為其設(shè)計監(jiān)管框架。例如,生成式人工智能在知識產(chǎn)權(quán)法領(lǐng)域引發(fā)了一系列問題,包括以訓(xùn)練人工智能系統(tǒng)為目的對受知識產(chǎn)權(quán)保護的內(nèi)容的可訪問性,以及機器學(xué)習(xí)模型和人工智能輸出內(nèi)容的可保護性問題。在人工智能生成文本的使用方面,其合法性可能要受到著作權(quán)法之外的其他法律法規(guī)的約束,如透明度、錯誤信息和誹謗方面的法律法規(guī)的約束。無論涉及哪個領(lǐng)域,都需要制定與人工智能應(yīng)用透明度相關(guān)的特定規(guī)則。這些規(guī)則應(yīng)能幫助人們了解人工智能在特定情況下會發(fā)揮什么作用,以及相應(yīng)的法律后果?偟膩碚f,鑒于這一領(lǐng)域技術(shù)發(fā)展的動態(tài)特性、政策和立法的發(fā)展,以及對人工智能形成更廣泛的社會理解,將會是一個持續(xù)性的過程。
人工智能進入知識產(chǎn)權(quán)領(lǐng)域
達莉亞·金表示,在立法者改革專利法之前,有必要甄別那些暗示計算系統(tǒng)具有“獨立”代理能力的假設(shè)。首先,這種假設(shè)傾向于將人工智能系統(tǒng)視為擁有“獨立自主”的能力,并以“擬人化”的方式描述人工智能。特別是,認為人工智能系統(tǒng)具有做決策、確定實現(xiàn)目標的手段,以及自主完成任務(wù)和目標的能力。這種做法可能會令人困惑,尤其是對于那些對人工智能理解有限的人來說。如果我們假設(shè)人工智能系統(tǒng)能夠“自主”,就意味著這些以人工智能為基礎(chǔ)的系統(tǒng)具有“推理”“決策”和“行為”能力,而人類對于這種“決策”過程的控制力有限或毫無控制力。這些假設(shè)給各種法律和監(jiān)管框架帶來挑戰(zhàn),包括侵權(quán)責(zé)任、消費者保護、透明度監(jiān)管等領(lǐng)域。在專利法領(lǐng)域,假設(shè)人工智能“自主”帶來了許多問題。人們可能會認為發(fā)明的行為被簡單地移交給了人工智能系統(tǒng),是人工智能系統(tǒng)在“自主”發(fā)明。因此,在“人工智能驅(qū)動”發(fā)明的情況下,將專利權(quán)歸屬于人類用戶可能不再能被證成。這個問題成為了全球范圍內(nèi)訴訟案例的核心。目前,法院的主流立場是,只有人類才能被指定為發(fā)明人。然而,我們?nèi)孕璩吻迦斯ぶ悄芟到y(tǒng)究竟是否能夠“自主”發(fā)明。
她進一步解釋道,在關(guān)于人工智能的日常話語和技術(shù)文獻中,“自主”(autonomy)和“自動化”(automation)這兩個術(shù)語經(jīng)常被混用。然而,它們在概念上和技術(shù)上存在顯著差異。雖然“自主”尚不存在人們廣泛接受的定義,但這個詞通常與自我管理和自我決定聯(lián)系在一起,也涉及行使自由意志的能力(表現(xiàn)為能夠自己做決策和做出某個行為)。人工智能系統(tǒng)并不能自主,它無法“決定”違背人類的設(shè)定,不能創(chuàng)造先前不存在于數(shù)據(jù)或者無法從數(shù)據(jù)中推衍出的信息。“自動化”意味著在執(zhí)行過程中無需人類直接干預(yù)即可完成任務(wù)。然而,在實現(xiàn)自動化之前,還需要人類來配置和設(shè)置計算過程。
人工智能系統(tǒng)可以進行自動化計算,即在算法實施過程中無需人類直接參與,人工智能就可以自動執(zhí)行數(shù)據(jù)和信息處理等操作。盡管隨機化在機器學(xué)習(xí)技術(shù)中得到了廣泛應(yīng)用,但仍然具有確定性,即在輸入內(nèi)容相同和條件相同的情況下,機器學(xué)習(xí)系統(tǒng)會輸出相同的內(nèi)容。系統(tǒng)或計算模型的復(fù)雜性和隨機化的使用可能導(dǎo)致內(nèi)容輸出的變化和出人意料的效果。此外,通過傳感器感知的與現(xiàn)實世界的互動可能導(dǎo)致人工智能系統(tǒng)的設(shè)計者或用戶失去對人工智能系統(tǒng)的控制,但控制的缺失應(yīng)歸因于環(huán)境的不可預(yù)測性,而非計算機具有的“自主決策”能力。
達莉亞·金說,主張改革專利法的評論者往往是基于人工智能系統(tǒng)中存在“獨立”代理人的假設(shè)。但她認為人工智能技術(shù)更像是計算工具和解決問題的工具,雖然專利制度可能需要改革,但要想知道該如何改變,我們得進一步了解人工智能技術(shù)對創(chuàng)新過程的影響,以及專利法的目標和功能。這樣,我們才能更好地確定推動創(chuàng)新的最佳方案。
厘清何為“人工智能驅(qū)動”的發(fā)明
達莉亞·金提出,有關(guān)發(fā)明權(quán)的歸屬問題,應(yīng)當(dāng)先明確“人工智能驅(qū)動”的發(fā)明到底是什么。盡管人工智能應(yīng)用程序很強大,但它目前只是一種可被用于發(fā)明創(chuàng)造的工具。在歐洲專利法的語境下,一項發(fā)明可被理解為解決技術(shù)問題的技術(shù)方案。機器學(xué)習(xí)的基礎(chǔ)是數(shù)學(xué)優(yōu)化,這也許可以解釋為什么它可廣泛用于解決技術(shù)和工程問題,比如藥物開發(fā)中應(yīng)用機器學(xué)習(xí)來識別和優(yōu)化分子的結(jié)構(gòu)活性關(guān)系。只要人工智能是作為工具被使用的,就應(yīng)當(dāng)適用發(fā)明權(quán)和創(chuàng)造性(即非顯而易見性)相關(guān)規(guī)則。在大多數(shù)法律制度中,發(fā)明權(quán)的歸屬明確要求或隱含推定某項發(fā)明或其貢獻的背后具有創(chuàng)造性或智能構(gòu)思。為了滿足這一要求,在發(fā)明構(gòu)思階段,創(chuàng)造者的參與方式不應(yīng)當(dāng)只是提出抽象想法,而讓另一端簡單地執(zhí)行他人提出的想法。創(chuàng)造過程應(yīng)該在智能和創(chuàng)造性的層面上進行,而不是在金融、物質(zhì)或僅僅是執(zhí)行層面上開展。
她表示,發(fā)明的概念化涉及抽象思維。盡管機器學(xué)習(xí)系統(tǒng)或計算模型能夠模仿人類的認知過程,但它們的性能仍然依賴于人類在設(shè)計和應(yīng)用這些建模技術(shù)時的思考和決策行為。應(yīng)用計算模型來解決技術(shù)和工程問題需要人類來設(shè)置計算過程。為此,人要能準確把握問題所在,并深入了解相關(guān)的工作設(shè)想、底層數(shù)學(xué)結(jié)構(gòu)、潛在的局限和陷阱等。因此,她并不認為技術(shù)已經(jīng)達到足以讓人類可以簡單“外包”發(fā)明任務(wù)的程度。在使用人工智能進行發(fā)明創(chuàng)造的情況下,一種可能比較合適的做法是將“如何運用人工智能技術(shù)解決手頭的技術(shù)問題”的決策本身作為衡量發(fā)明構(gòu)思中“智能參與”行為的一大指標。誰將是具體決策者則視個案情況而定。
達莉亞·金補充道,毫無疑問,某些技術(shù)發(fā)明比其他發(fā)明更容易實現(xiàn),且發(fā)明者可能會使用不同工具來解決問題或進行研究,如基因組學(xué)或數(shù)學(xué)優(yōu)化技術(shù)。這種情況下,發(fā)明性的要求,即發(fā)明的非顯而易見性變得非常關(guān)鍵。原則上,只有那些比相關(guān)領(lǐng)域“平均”水平專業(yè)人士解決某種技術(shù)問題能力更強的發(fā)明才能被視為“非顯而易見”,從而取得專利權(quán)。一些評論者認為,人類在這種發(fā)明過程中扮演的角色太微不足道。也有人認為,評估發(fā)明性現(xiàn)在需要參照“平均”水平的人工智能系統(tǒng)而非熟練技術(shù)人員。但她認為,目前人工智能算法和系統(tǒng)的作用仍然是工具,因此,熟練技術(shù)人員的概念仍然可作為判斷發(fā)明“顯著性”的相關(guān)指標。她也不認為人工智能系統(tǒng)能使任何問題的解決方案變得顯而易見,因為將人工智能應(yīng)用于解決復(fù)雜問題可能需要人工智能系統(tǒng)的設(shè)計者和用戶做出復(fù)雜的決策。在運用人工智能驅(qū)動創(chuàng)新的情況下,盡管在確定發(fā)明者和發(fā)明的非顯而易見性方面的實體性規(guī)則仍然有效,但其實際應(yīng)用可能面臨挑戰(zhàn),因此有必要進行更詳盡的分析。
力爭采用均衡恰當(dāng)?shù)谋O(jiān)管方式
艾略特在接受記者采訪時表示,我們必須關(guān)注生成式人工智能的出現(xiàn)和使用所引發(fā)的保密風(fēng)險和隱私問題。生成式人工智能應(yīng)用越普及,私人數(shù)據(jù)和機密電子材料遭受侵犯的風(fēng)險就越大。侵犯隱私的情況通常有以下兩種。第一種是,生成式人工智能程序的數(shù)字訓(xùn)練內(nèi)容來自互聯(lián)網(wǎng)上發(fā)布的數(shù)字內(nèi)容,網(wǎng)站和其他在線發(fā)布內(nèi)容會被秘密瀏覽與抓取。在此過程中,網(wǎng)站的所有者并不知悉人工智能的瀏覽行為,也沒有人事先征得他們的明確許可。隨后,生成式人工智能程序會利用瀏覽過的內(nèi)容生成復(fù)雜的模式匹配編碼結(jié)構(gòu)。人工智能收集到的私人或機密數(shù)據(jù)可能會永久存在于這些結(jié)構(gòu)中,在生成式人工智能用戶的請求下被調(diào)取利用。第二種是,在使用生成式人工智能應(yīng)用程序時,用戶可能會輸入私人或機密數(shù)據(jù)。人們通常以為除了用戶本人之外,沒有其他人可以訪問他們輸入的數(shù)據(jù)。實際上,大多數(shù)生成式人工智能程序并未提供這樣的保證。相反,制作或部署人工智能的公司保留使用用戶輸入內(nèi)容的權(quán)利。用戶應(yīng)仔細審查與他們希望使用的生成式人工智能應(yīng)用相關(guān)的許可條件。因此,只有在明確知曉系統(tǒng)所聲明的保護措施或所缺乏的保護措施的情況下,用戶才應(yīng)該考慮使用生成式人工智能程序。
艾略特認為,律師在使用包括ChatGPT在內(nèi)的生成式人工智能時具有雙重職責(zé)。一方面,律師應(yīng)該就如何正確使用生成式人工智能應(yīng)用程序向客戶提供建議,例如,如何進行數(shù)據(jù)保密和隱私保護。另一方面,律師必須遵守自己的建議,同樣要注意在使用ChatGPT等應(yīng)用程序時不能涉及任何與客戶有關(guān)的隱私或保密信息。為了履行這些職責(zé),律師必須迅速了解生成式人工智能。如果一名律師對生成式人工智能的運作方式不了解,他可能會被認為在法律盡職調(diào)查方面做得不夠,而他服務(wù)的客戶將無法獲得充分的法律保障。更糟糕的是,律師在使用生成式人工智能時可能會因為不知道自己在做什么而無意中暴露客戶的私人數(shù)據(jù)或機密數(shù)據(jù)。
此外,他觀察到,生成式人工智能還伴隨著其他法律問題和挑戰(zhàn)。例如,ChatGPT等人工智能應(yīng)用可能會輸出不當(dāng)言論,包含各種偏見言論乃至仇恨言論。如果某家公司選擇使用生成式人工智能來服務(wù)消費者,那么它輸出的內(nèi)容就有可能包含某些具有法律損害性的表述。受到冒犯的消費者看到了可能會反過來抨擊這家公司,甚至對該公司提起訴訟。為了遏制生成式人工智能的負面影響,各國立法者都在努力掌握最恰當(dāng)?shù)墓芸亓Χ取<s束性較強的法律可能會限制人工智能的發(fā)展,削弱人工智能帶來的預(yù)期效益,而采用較為寬松的監(jiān)管方式或索性不設(shè)立相關(guān)法律則可能會縱容甚至變相鼓勵人工智能擾亂社會。每個國家的立法者都需要思考他們想達到何種平衡。
法律職業(yè)和法學(xué)教育應(yīng)及時自我調(diào)整
艾略特認為,人工智能必將滲透到法律實踐的各個方面。人們已經(jīng)在使用人工智能篩選和分析案件材料。人工智能通常是律師事務(wù)所使用的合同生命周期管理(CLM)軟件包的重要組成部分,可以被用于起草、審查合同以及其他與合同相關(guān)的法律事務(wù)等。法學(xué)院的學(xué)生需要了解各類人工智能應(yīng)用,并在初涉法律行業(yè)時便開始使用最新的人工智能應(yīng)用。法學(xué)院應(yīng)確保學(xué)生在畢業(yè)后進入職場時擁有足夠的使用人工智能的經(jīng)驗,從而不至于在職場中處于劣勢。法學(xué)院會意識到有必要將人工智能納入法律課程中,同時,未來的學(xué)生在擇校時也會傾向于選擇設(shè)置相關(guān)課程的院校。
蔡曉峯對記者表示,雖然有朝一日人工智能模型最終可能會替代法律從業(yè)者,但距離這一天的到來還有很長時間。這是因為人工智能目前為止還不夠可靠,而法律實務(wù)涉及的問題往往與人們的切身利益攸關(guān),因此較為重要。短期內(nèi)最有可能發(fā)生的還是人類與人工智能合作。
在蔡曉峯看來,機器將逐漸覆蓋基礎(chǔ)性的法律工作,但律師不應(yīng)該想著與機器競爭,而是應(yīng)該把精力放在機器完成不了的工作任務(wù)上,比如提升判斷力與發(fā)現(xiàn)法律問題的能力,這兩個技能是人工智能目前尚未掌握的。聊天機器人帶來了很多法律問題。例如,從知識產(chǎn)權(quán)的角度看,使用受版權(quán)保護的材料來訓(xùn)練機器人是否侵犯著作權(quán)?讓人工智能法律助理在未經(jīng)授權(quán)的情況下從事法律實務(wù)工作是否存在風(fēng)險?一旦人工智能模型犯下代價高昂的錯誤,誰應(yīng)承擔(dān)法律責(zé)任?這些問題都沒有確切的答案。ChatGPT是一個多用途工具,目前并沒有專門為法律領(lǐng)域做出優(yōu)化調(diào)整,但已經(jīng)有不少公司開始著手這項工作。也許在幾年甚至幾個月內(nèi),我們就能看到法律實務(wù)專用的新的工具。有些公司還在嘗試將人工智能模型嵌入現(xiàn)存的工具中。
蔡曉峯認為,隨著ChatGPT的到來,法學(xué)院的學(xué)生應(yīng)該產(chǎn)生危機感,因為人工智能可以顯著提升律師的工作效率,而這也意味著不及時調(diào)整適應(yīng)的從業(yè)者將被遠遠甩在同行后面。但我們也應(yīng)該樂觀看待科技進步,因為人工智能模型能夠接手律師最不感興趣的工作,比如檢查文件、復(fù)制草稿等,這使得法律從業(yè)者能夠更好地投入到更復(fù)雜、價值感更高的工作當(dāng)中。
