□特約撰稿 陳宇超
人工智能快速發(fā)展也意味著其中存在更多已知與未知的風(fēng)險(xiǎn),這對(duì)法律回應(yīng)和規(guī)制方式提出了挑戰(zhàn)。應(yīng)在法律層面對(duì)企業(yè)收集數(shù)據(jù)的技術(shù)應(yīng)用及數(shù)據(jù)過濾保護(hù)機(jī)制進(jìn)行更細(xì)致的規(guī)定與嚴(yán)格監(jiān)管,并完善制度體系。
5月14日凌晨,美國(guó)人工智能OpenAI在官網(wǎng)發(fā)布了旗艦生成式人工智能模型“GPT-4o”,其中的“o”代表“omni”(全能),指的是該模型處理文本、語音和視頻的能力。和2022年11月上線的人工智能聊天機(jī)器人ChatGPT相比,它具有與人類相似的對(duì)話能力,具有幽默感,可以現(xiàn)場(chǎng)自拍,并提供描述,包括你的穿著,甚至伴隨著現(xiàn)實(shí)世界中幾乎所有的傾向,比如打斷、理解語氣等。此外,除響應(yīng)速度更快外,GPT-4o似乎很容易捕捉到情緒,并根據(jù)用戶的要求調(diào)整語氣和風(fēng)格,甚至還在回應(yīng)中加入了音效、笑聲和歌聲。有媒體認(rèn)為,這預(yù)示著強(qiáng)人工智能——生成式人工智能領(lǐng)域再次迎來了歷史性時(shí)刻,這引發(fā)了人們的廣泛關(guān)注、討論。
近年來,隨著人工智能技術(shù)的快速發(fā)展,它可以為人類社會(huì)提供極大便利,以ChatGPT為代表的強(qiáng)人工智能除可以實(shí)現(xiàn)傳統(tǒng)人工智能的功能外,還可以進(jìn)行自我學(xué)習(xí)、撰寫論文、編寫代碼、起草法律意見書、智能診療等,應(yīng)用場(chǎng)景廣泛,對(duì)社會(huì)發(fā)展變革產(chǎn)生了深刻影響。但是,機(jī)遇總是與挑戰(zhàn)并存,人工智能有如一把雙刃劍,其快速發(fā)展及更新?lián)Q代必然也意味著其中存在更多已知與未知的風(fēng)險(xiǎn),比如:潛在的數(shù)據(jù)隱私、“算法歧視”、知識(shí)產(chǎn)權(quán)等方面的法律風(fēng)險(xiǎn)等,這對(duì)法律回應(yīng)和規(guī)制方式提出了挑戰(zhàn)。
強(qiáng)人工智能可能帶來的風(fēng)險(xiǎn)與挑戰(zhàn)
相比于傳統(tǒng)人工智能,強(qiáng)人工智能帶來的挑戰(zhàn)與風(fēng)險(xiǎn)可能更明顯。本文主要從數(shù)據(jù)隱私、“算法歧視”與知識(shí)產(chǎn)權(quán)三個(gè)方面對(duì)生成式人工智能可能引發(fā)的風(fēng)險(xiǎn)和爭(zhēng)議進(jìn)行分析。
首先,數(shù)據(jù)安全問題。ChatGPT等生成式人工智能意味著相比傳統(tǒng)人工智能,其數(shù)據(jù)收集和爬取能力更強(qiáng)大,除使用者提供的數(shù)據(jù)外,網(wǎng)絡(luò)平臺(tái)本身的海量?jī)?nèi)容均可能被其收集讀取用于內(nèi)容生成,從而可能引發(fā)數(shù)據(jù)侵權(quán)、泄露和侵犯隱私問題。ChatGPT等生成式人工智能的升級(jí)迭代需要大量數(shù)據(jù)支撐,這些數(shù)據(jù)通常來自公司購(gòu)買或其自行采集和爬取。這兩種方式均存在數(shù)據(jù)侵權(quán)和隱私泄露風(fēng)險(xiǎn),公司購(gòu)買的第三方數(shù)據(jù)可能存在權(quán)屬不清問題;自行采集的數(shù)據(jù),由于生成式人工智能用戶受眾十分廣泛,使用者涵蓋政務(wù)處理者、公司員工和個(gè)人用戶等,這使得其收集到的數(shù)據(jù)和信息十分龐大。其中,所儲(chǔ)備的數(shù)據(jù)一旦因不明攻擊等原因被泄露,則可能危害國(guó)家安全、泄露商業(yè)機(jī)密、侵犯?jìng)(gè)人隱私等。此外,在數(shù)據(jù)收集過程中,人工智能本身也可能存在不當(dāng)收集的情況,如違規(guī)收集用戶未授權(quán)的數(shù)據(jù),突破用戶知情同意原則自行爬取數(shù)據(jù)等。
其次,ChatGPT等生成式人工智能可能存在“算法歧視”。生成式人工智能往往基于海量數(shù)據(jù)和強(qiáng)大模型算力生成文本,其生成的內(nèi)容受研發(fā)者和使用者提供的數(shù)據(jù)及模型多次訓(xùn)練而形成,這使得其“算法歧視”更隱蔽。目前,生成式人工智能的訓(xùn)練數(shù)據(jù)和語料庫多來自西方國(guó)家,與我國(guó)價(jià)值立場(chǎng)并不一致,因而在生成內(nèi)容上可能潛藏價(jià)值歧視風(fēng)險(xiǎn),比如主要傾向于西方國(guó)家的價(jià)值觀。同時(shí),生成式人工智能的使用者少有社會(huì)弱勢(shì)群體用戶,如殘障人士、不會(huì)使用電子產(chǎn)品的老年人群體等。因此,生成式人工智能在收集數(shù)據(jù)及輸出數(shù)據(jù)時(shí)可能因“數(shù)據(jù)鴻溝”的存在而對(duì)這部分人群的權(quán)利形成歧視。
最后,強(qiáng)人工智能的快速發(fā)展給傳統(tǒng)知識(shí)產(chǎn)權(quán)保護(hù)體系帶來很大挑戰(zhàn)。和傳統(tǒng)簡(jiǎn)單完成人類指令的“弱人工智能”不同,生成式人工智能基于數(shù)據(jù)讀取和模型訓(xùn)練具有類人性的抽象思考能力及解決問題能力。從外觀上看,它似乎具有人類所擁有的自行“創(chuàng)作”能力,其生成的內(nèi)容歸屬應(yīng)當(dāng)屬于使用者還是人工智能本身,這值得思考。此外,生成式人工智能輸出的內(nèi)容均基于海量的數(shù)據(jù)收集和爬取,這之中可能存在未經(jīng)授權(quán)的內(nèi)容被人工智能讀取收集并用于文本內(nèi)容的輸出,且并不標(biāo)注出處,這是否侵害原數(shù)據(jù)作者的知識(shí)產(chǎn)權(quán)?現(xiàn)行法律法規(guī)該如何規(guī)制這種行為并制定保護(hù)措施呢?這些問題都對(duì)傳統(tǒng)知識(shí)產(chǎn)權(quán)保護(hù)體系帶來挑戰(zhàn),需要現(xiàn)行法律和規(guī)范進(jìn)行回應(yīng)和規(guī)制。
強(qiáng)人工智能到來,法律如何應(yīng)對(duì)
針對(duì)ChatGPT等生成式人工智能可能帶來的各類法律風(fēng)險(xiǎn),世界各國(guó)大多表現(xiàn)出謹(jǐn)慎態(tài)度并積極制定法律法規(guī)進(jìn)行引導(dǎo)和規(guī)制。如美國(guó)政府已開始研究是否需要對(duì)ChatGPT等人工智能工具進(jìn)行審查;意大利、德國(guó)監(jiān)管機(jī)構(gòu)已發(fā)布ChatGPT禁令;近日,歐洲議會(huì)通過全球首個(gè)人工智能監(jiān)管法案《人工智能法案》。2023年7月,我國(guó)國(guó)家網(wǎng)信辦聯(lián)合國(guó)家發(fā)展改革委、教育部、科技部、工信部、公安部等七部門發(fā)布并施行《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《辦法》),進(jìn)一步規(guī)范生成式人工智能的發(fā)展?梢姡澜绺鲊(guó)對(duì)人工智能風(fēng)險(xiǎn)規(guī)避均十分重視。但要想更好地發(fā)揮強(qiáng)人工智能在人類社會(huì)中的作用,實(shí)現(xiàn)其最大程度合理應(yīng)用,且規(guī)避潛在風(fēng)險(xiǎn),還應(yīng)以更加科學(xué)直接的法律方式進(jìn)行治理。
首先,細(xì)化《辦法》規(guī)定,保護(hù)數(shù)據(jù)安全。盡管現(xiàn)行《辦法》確立了對(duì)數(shù)據(jù)的保護(hù)立場(chǎng),如規(guī)定“使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型”,但具體性與可操作性有待進(jìn)一步提升。對(duì)此,應(yīng)在法律層面對(duì)企業(yè)收集數(shù)據(jù)的技術(shù)應(yīng)用及數(shù)據(jù)過濾保護(hù)機(jī)制進(jìn)行更細(xì)致的規(guī)定與嚴(yán)格監(jiān)管。在數(shù)據(jù)收集方面,要求恪守用戶知情同意原則,禁止突破用戶的知情同意原則違法收集未授權(quán)信息。同時(shí),規(guī)定在用戶使用生成式人工智能時(shí),開發(fā)者須在軟件端明確告知其享有的信息自決權(quán)和刪除權(quán)等個(gè)人信息權(quán)益,使用戶提升個(gè)人隱私保護(hù)意識(shí)。在與國(guó)家安全、商業(yè)機(jī)密有關(guān)的數(shù)據(jù)上,要求人工智能開發(fā)者設(shè)置嚴(yán)格的過濾和保護(hù)機(jī)制,從而有效預(yù)防數(shù)據(jù)隱私泄露。需要注意的是,生成式人工智能在數(shù)據(jù)處理、應(yīng)用形態(tài)上更復(fù)雜,相關(guān)立法部門要隨時(shí)關(guān)注技術(shù)演化走向,從而更好地制定與數(shù)據(jù)保護(hù)有關(guān)的規(guī)則。
其次,完善制度體系建設(shè),避免“算法歧視”!掇k法》對(duì)防止人工智能“算法歧視”已有條款規(guī)定,比如在第四條第四項(xiàng)規(guī)定:“在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國(guó)別、地域、性別、年齡、職業(yè)、健康等歧視!钡撘(guī)定與數(shù)據(jù)安全的相關(guān)規(guī)定一樣,較為原則,缺乏具體的規(guī)則引導(dǎo)和規(guī)制。避免“算法歧視”,應(yīng)加強(qiáng)和完善反歧視的制度體系建設(shè),這包括企業(yè)內(nèi)部的倫理審查監(jiān)督制度及監(jiān)管部門和中立第三方的監(jiān)督審查體系。法律應(yīng)規(guī)定企業(yè)自身在算法設(shè)計(jì)時(shí),將公正、平等的原則貫徹其中,在模型訓(xùn)練時(shí),要特別注意性別、年齡、職業(yè)、國(guó)別等可能產(chǎn)生歧視的因素。同時(shí),制定監(jiān)管部門以及外部中立組織定期抽查算法模型的規(guī)則,通過監(jiān)管機(jī)構(gòu)或中立第三方組織定期對(duì)生成式人工智能的算法進(jìn)行審查,以監(jiān)督是否存在“算法歧視”問題。
在對(duì)生成式人工智能涉及的知識(shí)產(chǎn)權(quán)爭(zhēng)議問題上,應(yīng)當(dāng)明確人工智能對(duì)數(shù)據(jù)使用的界限,保護(hù)知識(shí)產(chǎn)權(quán)。目前,大多數(shù)觀點(diǎn)并不認(rèn)為生成式人工智能具有“獨(dú)立創(chuàng)作”能力,它與具有情感、價(jià)值判斷和思想的“人”創(chuàng)作的內(nèi)容和過程并不相同。因此,由人工智能生成的文本仍應(yīng)當(dāng)由使用者享有其知識(shí)產(chǎn)權(quán),并不能被看作獨(dú)立的創(chuàng)作者。在知識(shí)產(chǎn)權(quán)保護(hù)方面,為防止人工智能對(duì)未授權(quán)內(nèi)容進(jìn)行違規(guī)數(shù)據(jù)收集和爬取,侵犯原作者的知識(shí)產(chǎn)權(quán),應(yīng)在法律中明確生成式人工智能收集和讀取信息的邊界,對(duì)于挖掘未經(jīng)權(quán)利人授權(quán)的數(shù)據(jù)和內(nèi)容形成文本的,予以懲處。
。ㄗ髡邌挝唬荷虾I鐣(huì)科學(xué)院法學(xué)研究所)
