人工智能系統(tǒng)是用一種或多種人工智能技術(shù)和方法開發(fā)的軟件,針對人類界定的特定一系列目標,可以生成影響其交互環(huán)境的內(nèi)容、預(yù)測、建議或決策等輸出。倫理風險是指在人與人、人與社會、人與自然、人與自身的倫理關(guān)系方面,由于正面或負面影響可能產(chǎn)生不確定事件或條件,尤指其產(chǎn)生的不確定的倫理負效應(yīng)。在技術(shù)、數(shù)據(jù)、應(yīng)用和社會層面,都可能引發(fā)人工智能倫理風險:技術(shù)層面涉及算法及系統(tǒng)安全問題、可解釋性問題、算法歧視問題和算法決策問題;數(shù)據(jù)層面涉及人工智能治理過程中,數(shù)據(jù)采集、存儲、流通和利用行為所蘊含的風險;應(yīng)用層面的風險體現(xiàn)為人工智能活動中算法的濫用與誤用;就社會層面而言,人工智能應(yīng)用可能會引發(fā)不平等,間接引發(fā)失業(yè)和財富再分配等倫理問題。
2018年10月30日,習近平總書記在主持中共中央政治局第九次集體學習時,指出要“加強人工智能相關(guān)法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”。有必要認真對待和防范人工智能倫理風險,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架,制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范。
一、堅持人工智能治理的“倫理先行”
倫理是一個錯綜復雜的概念,可將其界定為規(guī)范個人或群體行為的道德原則。換言之,倫理是一套原則、規(guī)則或準則系統(tǒng),它有助于確定什么是好的或正確的,也可以將倫理視為界定是與非,界定人類或人工智能體的道德義務(wù)與責任的學科。法律和倫理在規(guī)范價值層次、規(guī)范調(diào)整范圍、規(guī)范方式和強制程度等方面都存在很大差異。法律規(guī)范是調(diào)整有意識行為的行為規(guī)范,倫理規(guī)范則包含了價值觀念和行為準則。法律規(guī)范是他律式的,是國家制定的以國家強制力為后盾來保證實施的規(guī)范;倫理規(guī)范更多是自律式的,是社會形成的,主要依靠社會成員自覺遵守。在人工智能領(lǐng)域,要倡導設(shè)計和發(fā)展“有道德”的人工智能倫理規(guī)范,將“倫理先行”的理念貫穿于人工智能的開發(fā)、設(shè)計和使用全過程,促進人工智能科技活動與人工智能倫理協(xié)調(diào)發(fā)展、良性互動,確保人工智能安全、可靠、可控,實現(xiàn)負責任的人工智能創(chuàng)新。
人工智能治理中的“倫理先行”也是包容審慎監(jiān)管的生動體現(xiàn)。包容審慎監(jiān)管要求規(guī)制者對新業(yè)態(tài)持寬容態(tài)度,要鼓勵創(chuàng)新、保護創(chuàng)新、寬容創(chuàng)新。《優(yōu)化營商環(huán)境條例》第55條規(guī)定:“政府及其有關(guān)部門應(yīng)當按照鼓勵創(chuàng)新的原則,對新技術(shù)、新產(chǎn)業(yè)、新業(yè)態(tài)、新模式等實行包容審慎監(jiān)管。”人工智能業(yè)態(tài)仍處于快速發(fā)展變化過程之中,筆者認為,此時或許很難通過立法來約束權(quán)利義務(wù),應(yīng)堅持“倫理先行”,立足我國自身人工智能發(fā)展階段及社會文化特點,遵循科技創(chuàng)新規(guī)律,逐步建立符合我國國情的人工智能倫理體系。應(yīng)當將倫理約束融入人工智能研究開發(fā)過程各環(huán)節(jié),在數(shù)據(jù)收集、存儲、使用等環(huán)節(jié)嚴格遵守相應(yīng)的倫理要求,禁止使用違反倫理要求的人工智能技術(shù)及應(yīng)用。人工智能倫理治理的目的并非要為人工智能技術(shù)和應(yīng)用“踩剎車”,其目的也是鼓勵創(chuàng)新,是為人工智能科技前沿的探索和創(chuàng)新設(shè)定可行性條件。
“倫理先行”的原則蘊含了對倫理規(guī)范與法律規(guī)范關(guān)系的審視。倫理在一定程度上是法律的重要補充,倫理觀念支配了法律蘊含的價值觀念,影響著法律的性質(zhì)和方向;倫理規(guī)范所蘊含的精神實質(zhì)和價值取向常常被法律規(guī)范所吸收。人工智能倫理規(guī)范興起于法律規(guī)范之前,未來的人工智能立法則可將倫理規(guī)范中的核心要素納入法律框架之中。例如,中共中央辦公廳、國務(wù)院辦公廳在2022年印發(fā)的《關(guān)于加強科技倫理治理的意見》中提出:“推動在科技創(chuàng)新的基礎(chǔ)性立法中對科技倫理監(jiān)管、違規(guī)查處等治理工作作出明確規(guī)定,在其他相關(guān)立法中落實科技倫理要求!痹2023年國家網(wǎng)信辦等7部門發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》中,即規(guī)定提供和使用生成式人工智能,應(yīng)遵守社會公德和倫理道德,并寫入了堅持社會主義核心價值觀、防止歧視、不得實施壟斷和不正當競爭行為、尊重他人合法權(quán)益、提升服務(wù)透明度等要求,這一定程度上體現(xiàn)了人工智能法律規(guī)范對倫理規(guī)則的吸納。
二、人工智能倫理規(guī)范的制定
在人工智能等新興風險領(lǐng)域,立法者無法將從事與人工智能風險有關(guān)的活動,以及所遵循的安全標準與要求加以詳細規(guī)定。而且新興風險也處于動態(tài)發(fā)展之中,目前我國統(tǒng)一人工智能立法的時機尚不成熟,無法以法律來確立人工智能活動的行為規(guī)范。因此,亟待引入人工智能倫理規(guī)范。引入倫理規(guī)范的考慮是,既引導科技發(fā)展的基本方向,又給相關(guān)研發(fā)機構(gòu)和企業(yè)根據(jù)具體的技術(shù)場景提供選擇的靈活空間。當通過倫理規(guī)范的人工智能治理積累充分經(jīng)驗后,可考慮逐步再用更為細節(jié)化、精確化的法律來取代人工智能倫理規(guī)范。
例如,美國國防部于2020年2月頒布了《人工智能倫理準則》,美國國家情報總監(jiān)辦公室于2020年7月頒布了《情報共同體的人工智能倫理準則》和《情報體系人工智能倫理框架》。歐盟委員會2021年的《人工智能法》第69條第1款規(guī)定,歐盟委員會和成員國應(yīng)鼓勵和促進制定行為準則,從而根據(jù)技術(shù)規(guī)范和解決方案,來自愿地將該草案第2章中規(guī)定的要求,應(yīng)用于除高風險人工智能系統(tǒng)之外的人工智能系統(tǒng),此行為準則可以針對人工智能系統(tǒng)的預(yù)期用途,構(gòu)成了確保系統(tǒng)合規(guī)的適宜手段。2019年3月29日,日本內(nèi)閣通過《以人為中心的人工智能社會原則》,確立了日本人工智能倫理監(jiān)管的最高準繩,該原則闡述了人工智能開發(fā)利用的7項原則。日本經(jīng)濟產(chǎn)業(yè)省則于2019年、2021年先后制定了《人工智能·合同利用指針》和《實現(xiàn)人工智能原則的監(jiān)管指針》,前者用于指導企業(yè)在數(shù)據(jù)利用和人工智能軟件開發(fā)過程中保護隱私和權(quán)利,后者用于指導企業(yè)建立人工智能倫理監(jiān)管制度。
我國人工智能倫理規(guī)范的制定某種程度上體現(xiàn)了“自上而下”的特點。在2017年國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中,提出要更好發(fā)揮政府在倫理法規(guī)制定等方面的重要作用,建立保障人工智能健康發(fā)展的倫理道德框架。在2022年中共中央辦公廳、國務(wù)院辦公廳印發(fā)《關(guān)于加強科技倫理治理的意見》時,指出,國家科技倫理委員會各成員單位按照職責分工負責科技倫理規(guī)范制定等相關(guān)工作,提出要制定包括人工智能等重點領(lǐng)域的科技倫理規(guī)范、指南等。在2020年國家標準化管理委員會等五部門頒布的《國家新一代人工智能標準體系建設(shè)指南》中,指出要建立人工智能倫理標準,特別是防范人工智能服務(wù)沖擊傳統(tǒng)道德倫理和法律秩序而產(chǎn)生的風險。
2019年6月,中國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負責任的人工智能》,強調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理八項原則。2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,提出了增進人類福祉、促進公平公正、保護隱私安全、確?煽乜尚、強化責任擔當、提升倫理素養(yǎng)六項基本倫理要求,對人工智能管理、研發(fā)、供應(yīng)、使用等特定活動提出了十八項具體倫理要求。
人工智能這樣的新興技術(shù),具有迭代快、不確定性強、復雜及存在潛在風險等特點。人工智能倫理規(guī)范的引入,也是“敏捷治理”的體現(xiàn)!懊艚葜卫怼笔恰熬哂腥犴g性、流動性、靈活性或適應(yīng)性的行動或方法”。其特征可歸納為以下兩點。
其一,人工智能倫理規(guī)范的形成具有較為廣泛的參與度,其需要政府、企業(yè)、消費者等利益相關(guān)者參與規(guī)范形成過程。在人工智能倫理規(guī)范的形成過程中,通過引入程序化理念和參與式程序,讓不同主體表達各自的觀點、偏好和立場,從而形成促進和鼓勵組織之間協(xié)商和相互學習的機制。以2023年3月頒布的《人工智能倫理治理標準化指南》為例,其由中國電子技術(shù)標準化研究院牽頭,依托國家人工智能標準化總體組和全國信標委人工智能分技術(shù)委員會,組織浙江大學、上海商湯智能科技有限公司等政、產(chǎn)、學、研、用56家單位共同編制完成。
其二,人工智能倫理規(guī)范也體現(xiàn)了“反思性法”的典型樣態(tài)。在動態(tài)演進的人工智能治理環(huán)境下,可以定期評估人工智能倫理規(guī)范的績效,思考人工智能倫理體系中的各項內(nèi)容是否需要變更,從而對人工智能倫理規(guī)范的原則和內(nèi)容加以適當修正。相對法律規(guī)范而言,倫理規(guī)范是“活的文件”(living document),更容易對其進行不斷補充和修正,通過及時動態(tài)調(diào)整治理方式和倫理規(guī)范,來快速、靈活應(yīng)對人工智能創(chuàng)新帶來的倫理挑戰(zhàn)。
三、人工智能倫理規(guī)范應(yīng)秉承的基本原則
受歷史條件和發(fā)展階段限制,人類對人工智能產(chǎn)品的道德風險存在認知的滯后性,往往對人工智能產(chǎn)品缺少完善的倫理控制,同時賦予了這些產(chǎn)品更多的自主決策權(quán),由此催生了更多的倫理道德問題。因此更需采取政府牽頭、多元主體參與的形式,共同推動人工智能倫理規(guī)范的形成。作為科技倫理規(guī)范,人工智能倫理規(guī)范也應(yīng)體現(xiàn)增進人類福祉、促進公平公正、保護隱私安全、保持公開透明、強化問責擔當?shù)脑瓌t。
。ㄒ唬┰鲞M人類福祉
我國《憲法》中沒有明文規(guī)定“增進人類福祉”的國家任務(wù),但在憲法序言中,載明要“推動物質(zhì)文明、政治文明、精神文明、社會文明、生態(tài)文明協(xié)調(diào)發(fā)展”!稇椃ā返47條規(guī)定了公民有進行科學研究的自由,根據(jù)該條規(guī)定,國家對于從事科學、技術(shù)事業(yè)的“有益于人民的創(chuàng)造性工作”,有“給以鼓勵和幫助”的義務(wù)。而人工智能帶來社會建設(shè)的新機遇,其在教育、醫(yī)療、養(yǎng)老、環(huán)境保護、城市運行等場景的廣泛運用,將提高公共服務(wù)精準化水平,全面增進人類福祉。
在2020年11月中央全面依法治國工作會議上,習近平總書記指出,全面依法治國“必須堅持為了人民、依靠人民。要把體現(xiàn)人民利益、反映人民愿望、維護人民權(quán)益、增進人民福祉落實到全面依法治國各領(lǐng)域全過程”。人工智能的開發(fā)與應(yīng)用應(yīng)堅持以人民為中心的發(fā)展思想,遵循人類共同價值觀,尊重人權(quán)和人類根本利益訴求,遵守倫理道德。人工智能的開發(fā)和利用應(yīng)促進人機和諧友好,以建設(shè)智能社會促進民生福祉改善,不斷增強人民獲得感、幸福感。
沿著此論說的脈絡(luò),人工智能的開發(fā)與利用不得侵害“人的尊嚴”。人不能被視為客體、被視為工具,尊重“人的尊嚴”意味著社會成員中的每個個體都會從社會得到最低限度的、有尊嚴生活的積極保障。我國《憲法》第38條規(guī)定:“中華人民共和國公民的人格尊嚴不受侵犯!痹谌斯ぶ悄荛_發(fā)和利用時,尤其要注意維護兒童、老人等的尊嚴,避免對兒童的人格尊嚴造成傷害,避免加劇老年人的無力感和孤獨感。
。ǘ┐龠M公平公正
人工智能應(yīng)用過程中,可能會存在算法歧視和數(shù)據(jù)歧視。算法可能會蘊含價值判斷,可能會不當?shù)貙⑻囟▽ο、特定項目、特定風險給予不當?shù)臋?quán)重,乃至有可能植入不當?shù)哪康,而且算法很難對規(guī)則和數(shù)字之外的因素加以充分考量,算法學習的結(jié)果也可能存在不可預(yù)見性。人工智能應(yīng)用所利用的數(shù)據(jù)也可能會缺乏均衡性、代表性,數(shù)據(jù)自身可能存在偏見,這些都會影響人工智能活動的公平公正性。
在人工智能應(yīng)用過程中,應(yīng)堅持促進公平公正的原則,即秉承“相同事物相同對待”的平等理念,對于具有相同重要特征的人或群體,給予相同的分配。其一,當以人工智能方式開展行政執(zhí)法、司法裁判或配置有限的社會資源時,應(yīng)考慮受眾所開展的活動、所生成的結(jié)果、個體的實際需要等因素,盡量讓受眾“得其應(yīng)得”。其二,人工智能的應(yīng)用應(yīng)具有普惠性和包容性(inclusion),應(yīng)努力縮減、調(diào)和乃至消除“事實上不平等”的狀態(tài),讓每個人在立足點相同的基礎(chǔ)上,平等地享有全社會共享人工智能的機會,促進社會公平正義和機會平等,還要考慮不同年齡、不同文化體系、不同民族的具體需求。其三,要避免在數(shù)據(jù)獲取、算法設(shè)計、技術(shù)開發(fā)、產(chǎn)品研發(fā)與應(yīng)用過程中,產(chǎn)生針對不同或特定群體的歧視與偏見。
。ㄈ┍Wo隱私安全
1保護隱私
隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息。自然人享有隱私權(quán)。任何組織或者個人不得以刺探、侵擾、泄露、公開等方式侵害他人的隱私權(quán)。人工智能的利用以算法的深度學習為前提,但深度學習作為數(shù)據(jù)驅(qū)動的技術(shù),需要收集大量的數(shù)據(jù),這些數(shù)據(jù)可能涉及用戶興趣、愛好、個人信息等隱私信息。此外,當利用人工智能技術(shù)收集、分析和使用個人數(shù)據(jù)、信息、言論時,都可能給個人隱私帶來危害、威脅和損失。
就隱私保護而言,開展人工智能研發(fā)和應(yīng)用,不得提供侵害個人隱私或者個人信息權(quán)益的產(chǎn)品和服務(wù)。人工智能服務(wù)的提供者應(yīng)遵守《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律、行政法規(guī)的有關(guān)規(guī)定和有關(guān)主管部門的相關(guān)監(jiān)管要求。開展人工智能研發(fā)和應(yīng)用,涉及個人信息時,應(yīng)依照合法、正當、必要和誠信原則處理個人信息。處理個人信息時,應(yīng)以個人在充分知情的前提下自愿、明確同意為前提。不得損害個人合法數(shù)據(jù)權(quán)益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵犯個人隱私權(quán)。
2保護安全
根據(jù)《網(wǎng)絡(luò)安全法》第76條的規(guī)定,網(wǎng)絡(luò)安全“是指通過采取必要措施,防范對網(wǎng)絡(luò)的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使網(wǎng)絡(luò)處于穩(wěn)定可靠運行的狀態(tài),以及保障網(wǎng)絡(luò)數(shù)據(jù)的完整性、保密性、可用性的能力”。應(yīng)保障人工智能系統(tǒng)的安全性,算法不被黑客控制,系統(tǒng)和算法不能被黑客攻擊或改變。同時還應(yīng)注重人工智能活動中的人身安全,即確保人工智能技術(shù)不會傷害人類。因此,需強化人工智能產(chǎn)品和系統(tǒng)網(wǎng)絡(luò)安全防護,構(gòu)建人工智能安全監(jiān)測預(yù)警機制,確保把人工智能發(fā)展規(guī)制在安全可控范圍內(nèi)。
另外,根據(jù)人工智能系統(tǒng)的重要性和危害程度,或可將人工智能系統(tǒng)分為中低風險智能系統(tǒng)、高風險智能系統(tǒng)和超高風險智能系統(tǒng)三級。國家有關(guān)主管部門應(yīng)針對不同人工智能技術(shù)特點及其在有關(guān)行業(yè)和領(lǐng)域的服務(wù)應(yīng)用,完善與創(chuàng)新發(fā)展相適應(yīng)的科學監(jiān)管方式,制定相應(yīng)的分類分級監(jiān)管規(guī)則或者指引。例如,針對高風險和超高風險的人工智能應(yīng)用,可以采用事前評估和風險預(yù)警的監(jiān)管模式;針對中低風險的人工智能應(yīng)用,則可采用事前披露和事后跟蹤的監(jiān)管模式。這有助于更好地配置有限的監(jiān)管資源,確保人工智能的安全利用。
。ㄋ模┍3止_透明
在人工智能倫理領(lǐng)域,人工智能的公開透明是指在不傷害人工智能算法所有者利益的情況下,公開其人工智能系統(tǒng)中使用的源代碼和數(shù)據(jù),避免“技術(shù)黑箱”。例如,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第16條規(guī)定:“算法推薦服務(wù)提供者應(yīng)當以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運行機制等!笨梢钥紤]公開算法流程,公開驗證算法時所生成的適當記錄,向公眾披露如何開發(fā)算法,開發(fā)算法時有哪些考量。但應(yīng)當結(jié)合具體場景與具體對象,來確定算法的公開程度,有時應(yīng)公開算法,有時只適合小范圍公開,有時甚至不公開算法,不應(yīng)將算法的公開作為一般原理而機械化地適用。完全公開算法的代碼和數(shù)據(jù),可能會泄露個人的敏感隱私數(shù)據(jù),可能損害人工智能系統(tǒng)設(shè)計主體的商業(yè)秘密和競爭優(yōu)勢,乃至有可能危及國家安全。
公開透明還體現(xiàn)為人工智能系統(tǒng)的可解釋性!秱人信息保護法》第24條第3款規(guī)定:“通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定!崩碛烧f明有助于保障當事人的程序性權(quán)利,增強決定的可接受性。因此,當人工智能產(chǎn)品、服務(wù)對個人權(quán)益有重大影響的,人工智能使用者有權(quán)要求提供者對產(chǎn)品、服務(wù)決策的過程、方式等作出解釋,有權(quán)對不合理的解釋進行投訴。當人工智能提供者進行解釋時,首先是局部的解釋,這是對某一特定決定的解釋,不需要對整個人工智能系統(tǒng)的活動進行解釋。其次是對因果關(guān)系的解釋,說明存在哪些因素,為何這些因素導出這樣的結(jié)果。但不必對系統(tǒng)技術(shù)細節(jié)加以過多解釋。
。ㄎ澹⿵娀瘑栘煋
可問責性(accountability)適用于人工智能活動中的不同主體。可問責性是良好治理的一部分,它與職責擔當、透明、可回答性和回應(yīng)性有關(guān)?蓡栘熜允墙忉屝缘,有責任對所采取行為加以記述或說明;可問責性也是修正性的,如果出現(xiàn)錯誤,則應(yīng)承擔糾錯的責任;蚩蓪⑷斯ぶ悄芾弥械目蓡栘熜苑纸鉃椤罢l承擔責任”“對誰承擔責任”“遵循什么樣的標準來承擔責任”“對何事項”“通過什么程序”“應(yīng)當產(chǎn)生何種結(jié)果”六個要素,通過明確問責主體、問責方式、問責標準、問責范圍、問責程序、責任后果,使得能夠?qū)θ斯ぶ悄芑顒泳W(wǎng)絡(luò)中的多元主體加以問責,通過無遺漏的問責方式,通過依法設(shè)定的程序機制,讓問責體系與被問責的人工智能活動相匹配。
人工智能系統(tǒng)是數(shù)據(jù)集、技術(shù)堆棧和復雜人際網(wǎng)絡(luò)的集合體,因此問責關(guān)系經(jīng)常錯綜復雜。人工智能技術(shù)有可能取代人的勞動,乃至把控人的精神世界,但人工智能是將人的特征、技能予以片段化、分割化和分散化;蚩蓪⑷斯ぶ悄芤暈椤疤囟康牡娜恕,但它只能在特定領(lǐng)域、特定方面、特定環(huán)節(jié)發(fā)揮作用。人工智能不能完全取代人,更不能由此弱化人的主體性地位。因此,在人工智能利用過程中,應(yīng)堅持人類是最終責任主體,明確利益相關(guān)者的責任,全面增強責任意識,在人工智能全生命周期各環(huán)節(jié)自省自律,建立人工智能問責機制,不回避責任審查,不逃避應(yīng)負責任。
四、建設(shè)多元交迭的人工智能倫理規(guī)范體系
以上討論了在人工智能利用全生命周期中,引入“倫理先行”原則的可能性,并討論了我國人工智能倫理規(guī)范的大致現(xiàn)狀,以及倫理規(guī)范應(yīng)蘊含哪些實體原則和核心關(guān)切,又如何將這些原則和關(guān)切內(nèi)化于我國的人工智能法律規(guī)則和政策體系之中。
需要指出,不能依靠人工智能倫理規(guī)范來回應(yīng)我國人工智能活動的所有問題。就人工智能倫理規(guī)范的內(nèi)容形成及實施機制而言,或許還存在如下問題:第一,人工智能倫理規(guī)范很多時候是指導性規(guī)范或倡議性規(guī)范,如果不能在法律規(guī)范中將人工智能倫理規(guī)范的核心內(nèi)容嵌入其中,則倫理規(guī)范的諸多內(nèi)容仍是倡導性的,業(yè)界并不一定遵從;第二,人工智能倫理規(guī)范的內(nèi)容可能會較為模糊,或者過于理想化,業(yè)界可能并不知道要采取哪些舉措,來踐行人工智能倫理規(guī)范中的要求;第三,很難對違反人工智能倫理規(guī)范的行為加以確證,也很難對違反倫理規(guī)范的行為給予后續(xù)的制裁。
在未來的人工智能立法中,應(yīng)該明確給倫理原則和倫理規(guī)范一席之地。筆者認為,可在立法中規(guī)定,“從事人工智能研究、開發(fā)、應(yīng)用及相關(guān)活動,應(yīng)當符合倫理原則和倫理規(guī)范”。但倫理規(guī)范制定的主體不限于行政部門,可在法律中明確規(guī)定學會、協(xié)會、產(chǎn)業(yè)技術(shù)聯(lián)盟等有權(quán)通過頒布標準或規(guī)則,來制定和實施人工智能倫理規(guī)范。需知,《標準化法》第18條第1款規(guī)定:“國家鼓勵學會、協(xié)會、商會、聯(lián)合會、產(chǎn)業(yè)技術(shù)聯(lián)盟等社會團體協(xié)調(diào)相關(guān)市場主體共同制定滿足市場和創(chuàng)新需要的團體標準,由本團體成員約定采用或者按照本團體的規(guī)定供社會自愿采用!眻F體標準是供團體成員或社會自愿采用的標準。由學會、協(xié)會、產(chǎn)業(yè)技術(shù)聯(lián)盟來制定自律性的人工智能倫理規(guī)范,有助于在協(xié)商一致的基礎(chǔ)上制定倫理規(guī)范,更好適應(yīng)人工智能產(chǎn)業(yè)的變化。這不僅激發(fā)了社會的力量,而且利用專業(yè)的知識來尋求自我規(guī)制,縮短了規(guī)則制定者和公眾之間的距離,有助于倫理規(guī)范的實施,讓人工智能倫理規(guī)范與法律規(guī)范互為替代和補充,從而構(gòu)成交迭的規(guī)則體系。
應(yīng)鼓勵企業(yè)個體頒布規(guī)范本企業(yè)的人工智能倫理規(guī)范,以落實關(guān)于人工智能技術(shù)、產(chǎn)品和服務(wù)的可信要求。2018年以來,谷歌、微軟、IBM、曠視、騰訊等國內(nèi)外企業(yè)都推出了企業(yè)人工智能治理準則,并設(shè)置了內(nèi)設(shè)機構(gòu),來落實人工智能治理責任。筆者認為,在未來的人工智能立法中,應(yīng)明確規(guī)定從事人工智能科技活動的單位要履行人工智能倫理管理主體責任,努力制定本單位的人工智能倫理規(guī)范或準則。對于從事人工智能科技活動的單位,當研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立人工智能倫理審查委員會,并明晰人工智能倫理審查和監(jiān)管職責,完善人工智能倫理審查、風險處置、違規(guī)處理等規(guī)則流程。
當法律為人工智能領(lǐng)域的市場主體設(shè)定制定人工智能倫理規(guī)范、設(shè)立人工智能倫理審查委員會等義務(wù)時,其體現(xiàn)了“對自我規(guī)制的規(guī)制”或“元規(guī)制”精髓,這在以命令手段為特征的行政規(guī)制和私人主體的自我規(guī)制之間進行了勾連,形成了“鉸鏈”。元規(guī)制開辟了一張“疏而不漏”的羅網(wǎng),給自我規(guī)制系統(tǒng)的活動留足了彈性空間,但綿密之處在于,當出現(xiàn)自我規(guī)制的失靈時,依然可以實現(xiàn)人工智能規(guī)制結(jié)構(gòu)的安定性。
需要指出,不應(yīng)因人工智能倫理規(guī)范有著濃厚的科技背景,就放棄正當法律程序的要求、放棄公眾參與。在建設(shè)多元交迭的人工智能倫理規(guī)范體系時,應(yīng)建構(gòu)更為妥當?shù)拿裰鲗徸h程序,讓包括普通公眾、社會團體、新聞媒體在內(nèi)的利益相關(guān)方,能在信息充分、參與機會平等、決策程序公開的條件下,對相應(yīng)人工智能政策議題進行討論,讓不同聲音都能進入人工智能倫理規(guī)范形成的競技場,讓不同利益都能得到恰如其分的衡量,從而更好凝練科學共識,以保障倫理規(guī)范的合法性、合目的性、民主性、透明性,進而改進倫理規(guī)范的科學性、有效性、靈活性,切實為人工智能產(chǎn)業(yè)提供助力和引導。
(作者系南開大學法學院院長。)
