2025年1月13日,由中國(guó)政法大學(xué)法治政府研究院、互聯(lián)網(wǎng)與法律規(guī)制研究中心主辦,阿里巴巴集團(tuán)科技倫理治理委員會(huì)協(xié)辦的“人工智能價(jià)值鏈的法律關(guān)系與倫理治理”研討會(huì)于北京順利召開(kāi)。本次研討會(huì)設(shè)置“人工智能價(jià)值鏈與法律規(guī)制”、“科技倫理與法律的關(guān)系”、“人工智能治理中企業(yè)自治與政府監(jiān)管的邊界”、“如何在具體場(chǎng)景中探尋人工智能倫理原則與開(kāi)展人工智能倫理審查”四個(gè)主題。來(lái)自科技部科技評(píng)估中心、中國(guó)信息通信研究院、北京師范大學(xué)、對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)、首都師范大學(xué)、中國(guó)人民公安大學(xué)、中國(guó)政法大學(xué)的專家學(xué)者,以及來(lái)自阿里、百度、抖音等互聯(lián)網(wǎng)企業(yè)的行業(yè)專家圍繞主題進(jìn)行了熱烈的交流與探討。

中國(guó)政法大學(xué)法治政府研究院院長(zhǎng)、互聯(lián)網(wǎng)與法律規(guī)制研究中心主任趙鵬教授主持會(huì)議,并介紹了會(huì)議主旨。趙鵬教授指出,本次會(huì)議圍繞人工智能治理中兩個(gè)關(guān)鍵議題進(jìn)行研討。一是探討人工智能倫理治理與法律規(guī)制的關(guān)系。前沿技術(shù)的應(yīng)用會(huì)引發(fā)人際關(guān)系和社會(huì)交互方式的深刻調(diào)整,產(chǎn)生相應(yīng)的規(guī)范議題。從歷史經(jīng)驗(yàn)來(lái)看,這種規(guī)范往往是由產(chǎn)業(yè)界、學(xué)術(shù)界率先推動(dòng),先形成具有自律性質(zhì)的倫理規(guī)范,然后被國(guó)家法律引入、確認(rèn)并強(qiáng)化。信息技術(shù)領(lǐng)域的公平信息實(shí)踐、生命科學(xué)領(lǐng)域的生命倫理便是典型例證。這提示,科技與包括倫理、法律在內(nèi)的社會(huì)秩序具有相互影響、共同演化的特質(zhì),我們需要在理解技術(shù)實(shí)質(zhì)的基礎(chǔ)上,充分地辯論其影響,采取契合事物本質(zhì)的規(guī)制方案。而倫理治理與法律規(guī)制的結(jié)合與互動(dòng)便是科學(xué)、理性的規(guī)制的關(guān)鍵之一。因此,針對(duì)人工智能的發(fā)展,如何落實(shí)傳統(tǒng)的倫理治理與法律規(guī)制銜接機(jī)制、如何實(shí)現(xiàn)倫理先行以及軟法向硬法的轉(zhuǎn)化、如何實(shí)施科技倫理審查制度,對(duì)于當(dāng)前的人工智能治理具有至關(guān)重要的意義。二是探討如何圍繞人工智能價(jià)值鏈來(lái)分配注意義務(wù)和相應(yīng)的法律責(zé)任?茖W(xué)的責(zé)任設(shè)計(jì)對(duì)于在防止、填補(bǔ)損害的同時(shí)為創(chuàng)新提供確定性至關(guān)重要。從歷史來(lái)看,自互聯(lián)網(wǎng)興起以來(lái),圍繞作為網(wǎng)絡(luò)社會(huì)“超級(jí)節(jié)點(diǎn)”的平臺(tái)的責(zé)任設(shè)計(jì)一直是互聯(lián)網(wǎng)法律政策的核心爭(zhēng)論之一,法律對(duì)注意義務(wù)邊界的明確也在很大程度上造就了數(shù)字經(jīng)濟(jì)的繁榮。就此而言,人工智能的研發(fā)、生產(chǎn)及應(yīng)用過(guò)程是多主體參與的價(jià)值累積結(jié)果,體現(xiàn)了商業(yè)運(yùn)營(yíng)中的價(jià)值鏈特性。我們是否可以考慮依據(jù)這一價(jià)值鏈特性,為研發(fā)者、應(yīng)用者等相關(guān)主體設(shè)定合理的責(zé)任。本次研討會(huì)誠(chéng)邀各位專家圍繞這些議題研討,以期呈現(xiàn)不同角度的思考,探尋共識(shí)的方向,為法律和監(jiān)管制度完善提供理論支撐。
中國(guó)政法大學(xué)法與經(jīng)濟(jì)學(xué)研究院副教授謝堯雯分享了生成式人工智能價(jià)值鏈法律規(guī)制。生成式人工智能發(fā)展?fàn)可娑嘀黧w參與、共同創(chuàng)造價(jià)值,體現(xiàn)了價(jià)值鏈特征。與傳統(tǒng)軟件研發(fā)價(jià)值鏈不一樣,人工智能價(jià)值鏈涵蓋的數(shù)據(jù)、軟件工具與主體更多元,各參與者間的關(guān)聯(lián)更錯(cuò)綜復(fù)雜。法律需要從兩個(gè)方面規(guī)制人工智能價(jià)值鏈。一是基于研發(fā)、生產(chǎn)與應(yīng)用階段劃分認(rèn)定價(jià)值鏈核心主體,將責(zé)任配置給最低成本風(fēng)險(xiǎn)預(yù)防者;二是,核心主體履行義務(wù)可行性取決于能否從其他行動(dòng)者處獲得必要信息,因此需要建立上下游之間的信息共享機(jī)制。在生成式人工智能價(jià)值鏈規(guī)制中,基礎(chǔ)模型研發(fā)者應(yīng)當(dāng)履行數(shù)據(jù)公平保障義務(wù)和系統(tǒng)安全保障義務(wù)、專業(yè)模型研發(fā)者應(yīng)當(dāng)履行算法影響評(píng)估義務(wù)、生成式內(nèi)容服務(wù)提供者應(yīng)當(dāng)履行內(nèi)容管控義務(wù),同時(shí)關(guān)注基礎(chǔ)模型提供者與下游部署者之間的信息共享。價(jià)值鏈責(zé)任設(shè)置需要考慮行政監(jiān)管與侵權(quán)責(zé)任的匹配。法院在責(zé)任配置上具有信息場(chǎng)景優(yōu)勢(shì),但存在專業(yè)不足。因此,行政監(jiān)管設(shè)置底線規(guī)則,同時(shí)法院在績(jī)效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)框架下,通過(guò)個(gè)案明確行業(yè)習(xí)慣與守則是否符合合理設(shè)計(jì)注意,以此推動(dòng)行業(yè)不斷完善自我規(guī)制、尋求行業(yè)最佳實(shí)踐共識(shí)。
阿里巴巴控股集團(tuán)法務(wù)合規(guī)部法務(wù)總監(jiān)王瑩結(jié)合生成式人工智能價(jià)值鏈的具體產(chǎn)業(yè)實(shí)踐,探討了行業(yè)實(shí)踐層面銜接法律與倫理的難點(diǎn)。首先,王瑩老師介紹了生成式人工智能系統(tǒng)從基礎(chǔ)模型預(yù)訓(xùn)練、微調(diào)到模型對(duì)齊研發(fā)過(guò)程中的訓(xùn)練數(shù)據(jù)實(shí)踐,并提出大模型研發(fā)中的數(shù)據(jù)保護(hù)制度具體設(shè)計(jì)可能需要區(qū)別于傳統(tǒng)規(guī)則。典型如,敏感信息和畫(huà)像數(shù)據(jù)對(duì)于進(jìn)行偏差檢測(cè)、糾正至關(guān)重要,嚴(yán)苛的數(shù)據(jù)保護(hù)規(guī)則可能會(huì)帶來(lái)技術(shù)不公平的結(jié)果。隨后,將生成式人工智能價(jià)值鏈劃分為基礎(chǔ)供應(yīng)、模型訓(xùn)練、服務(wù)上線、內(nèi)容生成、內(nèi)容傳播階段,并分享每一階段涉及的風(fēng)險(xiǎn)源與控制措施。每一階段所涉及的風(fēng)險(xiǎn)控制主體之間的關(guān)系非常復(fù)雜,依賴法律法規(guī)、標(biāo)準(zhǔn)規(guī)范、倫理道德對(duì)技術(shù)研發(fā)設(shè)計(jì)與技術(shù)應(yīng)用進(jìn)行規(guī)制,實(shí)現(xiàn)多方協(xié)同治理目標(biāo)。最后,分享阿里巴巴科技倫理治理的六項(xiàng)基本準(zhǔn)則,并提出倫理原則具體化的實(shí)踐困境。倫理原則具有抽象性特征,企業(yè)內(nèi)部科技倫理審查目前欠缺明確審查標(biāo)準(zhǔn),企業(yè)審查行為程序、行業(yè)守則與法律規(guī)范如何協(xié)調(diào)完善倫理治理,且倫理治理不阻礙新技術(shù)發(fā)展或帶來(lái)不必要?jiǎng)?chuàng)新負(fù)擔(dān),是當(dāng)下科技治理的重點(diǎn)難點(diǎn)。
抖音法律研究總監(jiān)王潔從模型訓(xùn)練的法律問(wèn)題、生成物的法律保護(hù)與侵權(quán)風(fēng)險(xiǎn)、虛假信息治理角度討論了生成式人工智能帶來(lái)的法律挑戰(zhàn)。針對(duì)訓(xùn)練階段高質(zhì)量數(shù)據(jù)集的構(gòu)建而言,日本、韓國(guó)、新加坡等紛紛通過(guò)立法或指導(dǎo)意見(jiàn)等形式為大模型訓(xùn)練合理使用版權(quán)數(shù)據(jù)等提供了合法性基礎(chǔ)。就生成物的法律保護(hù)與侵權(quán)風(fēng)險(xiǎn)而言,需考慮其生成過(guò)程的因果關(guān)系復(fù)雜性和責(zé)任主體多元化等特征,應(yīng)堅(jiān)持價(jià)值鏈主體的權(quán)責(zé)一致原則,并考慮大模型具有智力普惠的工具屬性,克制對(duì)生成環(huán)節(jié)的過(guò)度干預(yù)。就生成內(nèi)容虛假信息的治理問(wèn)題而言,分享了抖音對(duì)生成內(nèi)容標(biāo)識(shí)的技術(shù)探索與實(shí)踐,提出虛假信息治理依賴價(jià)值鏈上下游主體高度協(xié)作。
百度集團(tuán)AI業(yè)務(wù)法律合規(guī)負(fù)責(zé)人徐全全分享了AIGC行業(yè)合規(guī)實(shí)踐與AIGC倫理治理的探索。在行業(yè)合規(guī)實(shí)踐方面,徐老師重點(diǎn)分享了合成數(shù)據(jù)用于訓(xùn)練、AIGC垂類小模型訓(xùn)練等新技術(shù)融合發(fā)展趨勢(shì)可能帶來(lái)的合規(guī)治理新挑戰(zhàn)。倫理治理方面,徐老師提出應(yīng)鼓勵(lì)創(chuàng)新技術(shù)的正向價(jià)值發(fā)揮即“向善”價(jià)值,而非單純強(qiáng)調(diào)管控風(fēng)險(xiǎn)“去惡”。關(guān)于AI“價(jià)值對(duì)齊”,徐老師提出,行業(yè)實(shí)踐維度,強(qiáng)調(diào)具體的落地路徑及兼顧價(jià)值對(duì)齊和技術(shù)創(chuàng)新發(fā)展的解決方案。價(jià)值對(duì)齊一方面涉及工程師與算法之間的價(jià)值對(duì)齊,另一方面也會(huì)關(guān)注AI與社會(huì)公眾期待、監(jiān)管機(jī)構(gòu)指導(dǎo)要求等多方生態(tài)位的價(jià)值對(duì)齊,本身是一個(gè)復(fù)雜需要持續(xù)探索的過(guò)程。因此,在動(dòng)態(tài)的價(jià)值對(duì)齊過(guò)程中,AI生態(tài)各方需建立協(xié)同治理、互信合作的共贏關(guān)系,協(xié)同努力達(dá)成目標(biāo)。
科技集團(tuán)數(shù)據(jù)合規(guī)總監(jiān)兼DPO朱玲鳳分享了AIGC風(fēng)險(xiǎn)規(guī)制理念以及軟法與硬法的銜接。就AIGC風(fēng)險(xiǎn)規(guī)制理念而言,朱老師認(rèn)為應(yīng)進(jìn)行風(fēng)險(xiǎn)分級(jí)管理,不同風(fēng)險(xiǎn)級(jí)別與技術(shù)能力的人工智能系統(tǒng)應(yīng)匹配不同的風(fēng)險(xiǎn)防護(hù)機(jī)制。人工智能風(fēng)險(xiǎn)包括網(wǎng)絡(luò)安全風(fēng)險(xiǎn)、生物核武器風(fēng)險(xiǎn)與自主風(fēng)險(xiǎn),目前如何確定風(fēng)險(xiǎn)等級(jí)、風(fēng)險(xiǎn)劃分的標(biāo)準(zhǔn),是風(fēng)險(xiǎn)規(guī)制的重點(diǎn)。就軟法與硬法銜接而言,朱老師分享了行業(yè)實(shí)踐被監(jiān)管標(biāo)準(zhǔn)吸納的典型案例。歐盟 GPAI 行為守則的草案中,吸納了行業(yè)層面關(guān)于“分級(jí)評(píng)估+外部紅隊(duì)測(cè)試”的實(shí)踐標(biāo)準(zhǔn),以及 Anthropic RSP 的停訓(xùn)承諾與 DeepMind “能力檢測(cè)”模式。美國(guó)NIST 指南(2024 年 7 月草案)在附錄中引用了部分行業(yè)最佳實(shí)踐,如“多階段部署與風(fēng)險(xiǎn)閾值劃分”等,與 OpenAI 預(yù)備框架 Beta 版本提出的多維評(píng)估結(jié)構(gòu)較為一致。這體現(xiàn)人工智能治理中,從“企業(yè)自發(fā)實(shí)踐—行業(yè)形成共識(shí)—監(jiān)管吸納共識(shí)發(fā)布規(guī)則”的軟法-硬法銜接過(guò)程。
淘天集團(tuán)高級(jí)法務(wù)合規(guī)專家姜文分享了科技倫理審查與AIGC標(biāo)識(shí)規(guī)則完善。就科技倫理審查而言,姜老師認(rèn)為人工智能倫理審查需要關(guān)注價(jià)值鏈不同主體在不同階段如何將倫理共識(shí)嵌入至技術(shù)設(shè)計(jì)與應(yīng)用中,尤其是需要關(guān)注前端研發(fā)者與后端應(yīng)用者的責(zé)任配置方案。在生成式人工智能倫理審查中,前端模型研發(fā)與模型專業(yè)應(yīng)用的倫理審查側(cè)重點(diǎn)不同,姜老師以AIGC在電子商務(wù)領(lǐng)域中的專業(yè)應(yīng)用為例,分享行業(yè)實(shí)踐倫理審查側(cè)重點(diǎn)。就AIGC標(biāo)識(shí)規(guī)則而言,姜老師分享了設(shè)置標(biāo)識(shí)主體與標(biāo)識(shí)范圍需要考慮的因素。應(yīng)當(dāng)關(guān)注價(jià)值鏈各主體標(biāo)識(shí)能力差異,綜合特定場(chǎng)景下的應(yīng)用風(fēng)險(xiǎn)可預(yù)期程度確定標(biāo)識(shí)方案。此外,應(yīng)特別關(guān)注國(guó)內(nèi)第三方機(jī)構(gòu)推動(dòng)建設(shè)的AIGC內(nèi)容標(biāo)識(shí)檢測(cè)平臺(tái),發(fā)揮治理優(yōu)勢(shì)。
中國(guó)人民公安大學(xué)法學(xué)院教授蘇宇分享了人工智能價(jià)值鏈法律規(guī)制的制度設(shè)計(jì)。首先,為價(jià)值鏈參與者設(shè)定的行為義務(wù)應(yīng)當(dāng)考慮該主體能力、行為風(fēng)險(xiǎn)、成本-收益比較等因素。例如,應(yīng)當(dāng)建立模型分類測(cè)評(píng)基準(zhǔn),根據(jù)不同模型的技術(shù)底層和風(fēng)險(xiǎn)特征選擇和適用相應(yīng)測(cè)評(píng)方案。在信息共享義務(wù)方面,上游模型研發(fā)者的信息共享范圍設(shè)定應(yīng)當(dāng)考慮商業(yè)秘密和知識(shí)產(chǎn)權(quán)保護(hù)因素,一定范圍內(nèi)共享特定場(chǎng)景的算法解釋信息、法律規(guī)定的模型測(cè)評(píng)信息、特定前提的安全風(fēng)險(xiǎn)報(bào)告即可。其次,在價(jià)值鏈沒(méi)有發(fā)生增量風(fēng)險(xiǎn)時(shí),不應(yīng)對(duì)價(jià)值鏈各參與者實(shí)施重復(fù)監(jiān)管。目前生成式人工智能價(jià)值鏈上下游參與者都需要履行同樣的備案與評(píng)估義務(wù),為部分下游部署者帶來(lái)了過(guò)度的規(guī)制負(fù)擔(dān)。再次,對(duì)于由哪些主體來(lái)制定價(jià)值鏈參與者行為標(biāo)準(zhǔn)議題,需要考慮各規(guī)制主體的信息優(yōu)勢(shì)與專業(yè)能力。人工智能價(jià)值鏈中各主體行為與結(jié)果的關(guān)系、技術(shù)設(shè)計(jì)是否嵌入倫理考量,極其復(fù)雜且專業(yè),而法院欠缺專業(yè)優(yōu)勢(shì),也無(wú)法像立法過(guò)程一樣調(diào)動(dòng)足夠的資源和參與,因此應(yīng)盡可能使治理規(guī)則形成任務(wù)前置,而不是依賴法院確定。同時(shí),在具體個(gè)案中,如果價(jià)值鏈參與者違反了行政監(jiān)管規(guī)則,可適用過(guò)錯(cuò)推定的歸責(zé)原則。最后,人工智能價(jià)值鏈規(guī)制可引入“風(fēng)險(xiǎn)增量規(guī)制”理念。價(jià)值鏈各主體應(yīng)當(dāng)為自己行為負(fù)責(zé),只有當(dāng)參與者的后續(xù)行為產(chǎn)生了實(shí)質(zhì)性的新風(fēng)險(xiǎn),才需要進(jìn)行風(fēng)險(xiǎn)評(píng)估和增量治理。
北京師范大學(xué)法學(xué)院副教授王靜分享了如何完善人工智能倫理治理與法律治理。首先,人工智能科技倫理治理旨在為科技研發(fā)者設(shè)定行為準(zhǔn)則,確保人類社會(huì)的核心道德準(zhǔn)則與價(jià)值觀被嵌入至技術(shù)系統(tǒng)。其次,相較于其他國(guó)家,我國(guó)科技倫理治理實(shí)踐尤為注重通過(guò)法律促進(jìn)倫理治理。典型如,我國(guó)頒布了專門(mén)的《科技倫理審查辦法》,這有助于增強(qiáng)倫理治理的規(guī)范性與強(qiáng)制性。但在具體實(shí)踐中,倫理規(guī)范如何向法律規(guī)則的轉(zhuǎn)化、如何設(shè)置具體的倫理審查程序、倫理審查是否應(yīng)納入行政訴訟等議題,仍有待厘清和完善。再次,處理好人工智能倫理治理與法律治理關(guān)系關(guān)鍵在于,協(xié)調(diào)好自下而上治理與自上而下治理的關(guān)系。在人工智能規(guī)制領(lǐng)域,政府層面存在信息與專業(yè)能力不足,應(yīng)當(dāng)依賴企業(yè)與行業(yè)發(fā)展符合最佳實(shí)踐的倫理準(zhǔn)則與技術(shù)標(biāo)準(zhǔn),并協(xié)調(diào)好軟法向硬法轉(zhuǎn)化的路徑。最后,在數(shù)字政府發(fā)展背景下,應(yīng)當(dāng)關(guān)注到公共監(jiān)管部門(mén)研發(fā)、應(yīng)用人工智能與私主體研發(fā)、應(yīng)用人工智能可能需要不同的制度規(guī)范。
首都師范大學(xué)政法學(xué)院副教授崔俊杰分享了如何完善人工智能價(jià)值鏈法律責(zé)任與人工智能倫理治理。首先,有必要區(qū)分價(jià)值鏈參與者的行為責(zé)任與結(jié)果責(zé)任,前者體現(xiàn)為行為過(guò)程的合規(guī)義務(wù),后者關(guān)注行為導(dǎo)致的最終結(jié)果。其次,人工智能價(jià)值鏈法律責(zé)任是一個(gè)多維度、立體化的責(zé)任體系,這其中尤其需要重視公法責(zé)任與私法責(zé)任的不同制度功能,從而建立相互補(bǔ)充與制約的公私法協(xié)同責(zé)任體系。再次,不同于道德,倫理是基于程序得到的共識(shí),這種共識(shí)包括“去劣”與“擇優(yōu)”。在“去劣”方面,通過(guò)程序達(dá)成“不能做什么”較為簡(jiǎn)單,難點(diǎn)在于得出“什么是善的行為”的結(jié)論。為此,需要借助倫理審查與商談程序進(jìn)行價(jià)值對(duì)齊。 但基于程序得出的共識(shí)具有較大不穩(wěn)定性,如果轉(zhuǎn)化為法律規(guī)則,則屬于法律中的“不確定概念”。最后,人工智能治理依賴行業(yè)守則、倫理原則等軟法規(guī)范,但某一軟法規(guī)范是否是最佳實(shí)踐難以評(píng)判,這為法院在具體個(gè)案中評(píng)判某一軟法規(guī)范是否符合合理注意標(biāo)準(zhǔn)帶來(lái)了挑戰(zhàn),因此需要進(jìn)一步探索軟法規(guī)范轉(zhuǎn)化為硬法規(guī)則的標(biāo)準(zhǔn)與程序。
對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院副教授孔祥穩(wěn)分享了人工智能價(jià)值鏈法律責(zé)任設(shè)置考慮因素與倫理法治化的制度意涵與難點(diǎn)。首先,責(zé)任體現(xiàn)為行為義務(wù)的分配,因此為價(jià)值鏈各主體分配行為義務(wù)需要考慮:相關(guān)主體是否開(kāi)啟了風(fēng)險(xiǎn),相關(guān)主體是否對(duì)風(fēng)險(xiǎn)具有控制能力。其次,倫理法治化包括兩個(gè)層面的方式——將某些基本倫理原則轉(zhuǎn)化為法律要求,或者設(shè)置特定的法律裝置要求科研主體進(jìn)行倫理審查。將倫理原則轉(zhuǎn)化為法律需要考慮倫理的特殊性。一方面,倫理與道德不同,后者具有很強(qiáng)的個(gè)體差異性,而前者是社會(huì)成員共同認(rèn)可的基本準(zhǔn)則。但在科技倫理中,各方主體對(duì)科技發(fā)展的態(tài)度存在重大差異,基于什么樣的機(jī)制產(chǎn)生的共識(shí)能夠轉(zhuǎn)化為法律規(guī)則,是科技倫理治理法治化面臨的難點(diǎn)。另一方面,倫理具有多層次化特征,科技應(yīng)用的不同場(chǎng)景存在不同的倫理要求。因此,需要明確將哪些倫理規(guī)范轉(zhuǎn)化為法律由公共部門(mén)執(zhí)行,哪些倫理規(guī)范交由倫理審查或企業(yè)信息披露等機(jī)制執(zhí)行。最后,目前倫理審查制度仍然較為薄弱,欠缺明確和具體的審查標(biāo)準(zhǔn),且很多法律將倫理審查責(zé)任界定為“承擔(dān)相應(yīng)責(zé)任”,欠缺威懾效力。
中國(guó)政法大學(xué)人文學(xué)院講師陰昭暉從倫理學(xué)視角分析了“自動(dòng)駕駛電車難題”。首先,“自動(dòng)駕駛電車難題”可從邏輯學(xué)與倫理學(xué)兩個(gè)視角分析。從邏輯學(xué)看,這一難題屬于沖突情境下的非單調(diào)推理問(wèn)題。從倫理學(xué)看,智能機(jī)器會(huì)按照預(yù)先設(shè)定的倫理算法,對(duì)交通參與者的生命安全進(jìn)行分配決策。其次,在倫理選擇方面,后果主義或功利論主張以整體利益最大化或損失最小化為原則;康德義務(wù)論強(qiáng)調(diào)人的生命至高無(wú)上,人絕非手段;羅爾斯公正原則倡導(dǎo)通過(guò)“無(wú)知之幕”的方式進(jìn)行選擇。再次,研究發(fā)現(xiàn),不同文化背景下的人們?cè)诓糠诌x擇上存在全球道德共識(shí),比如傾向于保護(hù)多數(shù)人、人類、年幼者和守法者。但在某些選擇上也存在差異,如東亞和中東部分地區(qū)保護(hù)年幼者的意愿相對(duì)較低,而中國(guó)更注重保護(hù)車內(nèi)乘客等。再次,德國(guó)相關(guān)倫理規(guī)則指導(dǎo)報(bào)告體現(xiàn)出康德義務(wù)論,并兼顧功利論考量,遵循羅爾斯“無(wú)知之幕”原則,確保駕駛算法的公正性。最后,對(duì)于AI的可解釋性問(wèn)題,基于邏輯的方法有助于提升AI決策的可解釋性,這對(duì)AI的法律規(guī)制、倫理審查等至關(guān)重要。
中國(guó)政法大學(xué)法與經(jīng)濟(jì)學(xué)研究院助理教授遲舜雨從敏捷治理與公司治理兩個(gè)視角闡述人工智能科技倫理治理制度設(shè)計(jì)。人工智能科技治理倫理主要包含兩個(gè)維度。一是“不作惡”,二是“做善事”。不作惡指的是負(fù)責(zé)任地運(yùn)用AI,避免創(chuàng)造負(fù)外部性,需要自上而下的規(guī)制路徑,依賴敏捷治理。敏捷治理則強(qiáng)調(diào)以整體性、關(guān)聯(lián)性、動(dòng)態(tài)性為主導(dǎo)的多主體共治與多主體交流,建立暢通的交流機(jī)制。政府負(fù)責(zé)制定監(jiān)管規(guī)則和法律框架,設(shè)定宏觀政策;企業(yè)積極探索構(gòu)建內(nèi)部治理體系,尋求發(fā)展與倫理規(guī)制之間的平衡;行業(yè)協(xié)會(huì)和科研機(jī)構(gòu)制定行業(yè)規(guī)則和準(zhǔn)則。做善事,即讓做善事的公司獲得收獲,創(chuàng)造正外部性,依賴公司治理。公司治理理論的經(jīng)典觀點(diǎn)認(rèn)為公司經(jīng)營(yíng)和治理應(yīng)以股東價(jià)值最大化為目標(biāo),但近年來(lái),隨著企業(yè)社會(huì)責(zé)任、可持續(xù)發(fā)展、環(huán)保意識(shí)等理念的興起,股東中心主義逐漸朝多元利益主義發(fā)展,這與倫理治理相契合。如何判斷公司真正做了善事,可通過(guò)統(tǒng)一標(biāo)準(zhǔn)化的信息披露和第三方審計(jì)來(lái)評(píng)估,但披露標(biāo)準(zhǔn)和指標(biāo)仍有待進(jìn)一步完善。
中國(guó)信息通信研究院互聯(lián)網(wǎng)法律研究中心工程師杜安琪分享了當(dāng)前人工智能治理面臨的問(wèn)題和可行的治理機(jī)制。就治理問(wèn)題而言,人工智能治理涵蓋整體性和要素性兩方面。目前在整體性上,我國(guó)關(guān)于責(zé)任劃分、監(jiān)管機(jī)制等需要完善。在要素方面,目前關(guān)于數(shù)據(jù)、算法、算力等要素規(guī)制制度仍然有待完善。就治理機(jī)制而言,人工智能治理機(jī)制包括政策、法律、科技倫理、標(biāo)準(zhǔn)、技術(shù)、自治六大層面,不同治理機(jī)制的選擇取決于具體問(wèn)題的表現(xiàn)形式。法律具有穩(wěn)定可預(yù)期性以及普遍約束力,主要關(guān)注權(quán)利與義務(wù),旨在“定分止?fàn)帯;科技倫理具有指引性、基礎(chǔ)性、可以凝聚廣泛共識(shí);企業(yè)自治具有適應(yīng)性、自主性、模式多樣性的特征。我國(guó)人工智能治理應(yīng)當(dāng)充分考慮技術(shù)產(chǎn)業(yè)發(fā)展階段、不同治理手段的優(yōu)勢(shì)特點(diǎn)、立法認(rèn)知水平等,從關(guān)鍵問(wèn)題出發(fā),考慮應(yīng)用各種治理機(jī)制。
科技部科技評(píng)估中心知識(shí)產(chǎn)權(quán)與法務(wù)部處長(zhǎng)鄧益志分享了人工智能倫理治理與法律規(guī)制的關(guān)系。當(dāng)前,人工智能技術(shù)快速發(fā)展為人類社會(huì)帶來(lái)諸多便利,同時(shí)也帶來(lái)巨大變革和挑戰(zhàn),人工智能倫理、安全和社會(huì)問(wèn)題日益凸顯,F(xiàn)有人工智能相關(guān)法律規(guī)范零散、系統(tǒng)性和操作性不強(qiáng)、規(guī)章效力層級(jí)較低,科技倫理規(guī)范剛性約束不足、涉及人工智能倫理審查監(jiān)管的可操作性制度規(guī)范有待健全,亟需加強(qiáng)人工智能倫理治理和法律規(guī)制,以期實(shí)現(xiàn)人工智能技術(shù)向善與增進(jìn)人類福祉并向前行。人工智能立法需要厘清倫理與法律的關(guān)系,倫理與法律各有特性,倫理治理和法律規(guī)制相輔相成,實(shí)現(xiàn)人工智能治理手段的“軟硬結(jié)合”。人工智能治理要遵循良法善治,將倫理基本原則和立法原則相結(jié)合,提升倫理原則的指引力和執(zhí)行力,形成倫理與法律的合力。通過(guò)立法設(shè)置人工智能管制框架和紅線,明晰各類主體的權(quán)責(zé)關(guān)系,建立系統(tǒng)的人工智能倫理審查監(jiān)管制度,以及人工智能倫理風(fēng)險(xiǎn)評(píng)估和監(jiān)測(cè)預(yù)警機(jī)制,設(shè)定人工智能研發(fā)和應(yīng)用相關(guān)主體違反法律和倫理規(guī)范的問(wèn)責(zé)機(jī)制,確保人工智能創(chuàng)新發(fā)展與安全可控。
中國(guó)政法大學(xué)法學(xué)院行政法研究所所長(zhǎng)成協(xié)中教授對(duì)會(huì)議進(jìn)行總結(jié),并對(duì)人工智能治理中軟法與硬法關(guān)系進(jìn)行了分享。本次研討會(huì)就人工智能法律規(guī)制取得了三點(diǎn)核心共識(shí)。一是人工智能規(guī)制需要法律與倫理并行,發(fā)揮法律規(guī)制與倫理治理回應(yīng)科技發(fā)展的制度優(yōu)勢(shì),同時(shí)做好倫理與法律的銜接。二是人工智能價(jià)值鏈規(guī)制需要在研發(fā)與應(yīng)用階段進(jìn)行不同的規(guī)則設(shè)計(jì),同時(shí),需要結(jié)合不同行業(yè)特征與應(yīng)用領(lǐng)域,為價(jià)值鏈主體設(shè)置不同法律責(zé)任。三是人工智能法律規(guī)制需要處理公法與私法的關(guān)系。對(duì)于高度復(fù)雜的技術(shù)專業(yè)問(wèn)題,法院在分配注意義務(wù)方面存在專業(yè)不足,應(yīng)更依賴立法前端分配價(jià)值鏈主體行為義務(wù)。成協(xié)中教授隨后指出,人工智能法律治理與倫理治理需要協(xié)調(diào)好軟法與硬法關(guān)系,并就此進(jìn)行了分享。一是,在存在硬法供給不足時(shí),軟法可以作為規(guī)范試驗(yàn)。人工智能技術(shù)發(fā)展迅速,且其帶來(lái)的行為方式具有開(kāi)放性,因此缺乏確定性規(guī)則通過(guò)硬法規(guī)范。不同于硬法基于政治權(quán)力形成規(guī)則,軟法在規(guī)則生成上具有自下而上屬性,更有助于引到產(chǎn)業(yè)尋求符合自身發(fā)展特征治理規(guī)則。因此,在人工智能領(lǐng)域,軟法發(fā)揮規(guī)范準(zhǔn)備與試驗(yàn)功能。根據(jù)軟法實(shí)施情況,可以即時(shí)將共識(shí)性較強(qiáng)的軟法規(guī)范轉(zhuǎn)化為硬法實(shí)施。二是,軟法有助于形成多中心治理格局。軟法與硬法在實(shí)施方式上存在區(qū)別,前者依賴說(shuō)服、指導(dǎo)等柔性方式,后者依賴權(quán)力強(qiáng)制方式。在人工智能技術(shù)發(fā)展實(shí)踐中,這種柔性治理方式有助于發(fā)揮社會(huì)主體治理能力,激勵(lì)產(chǎn)業(yè)界形成共識(shí),有助于推動(dòng)人工智能治理形成多中心治理格局。
