近段時(shí)間以來(lái),一款來(lái)自國(guó)外的Avatarify軟件在朋友圈、短視頻平臺(tái)上迅速走紅。用戶只要在該軟件中上傳一張照片,照片上的任何人就可以扭動(dòng)脖子唱一曲魔性十足的“螞蟻呀嘿”。這不由使公眾聯(lián)想起2019年國(guó)內(nèi)紅極一時(shí)的換臉軟件ZAO。這些軟件都涉及深度偽造技術(shù)。
就在近日,國(guó)家網(wǎng)信部門和公安部門依法約談?dòng)晨、小米?1家互聯(lián)網(wǎng)企業(yè),督促其加強(qiáng)對(duì)語(yǔ)音社交軟件和涉深度偽造技術(shù)的互聯(lián)網(wǎng)新技術(shù)新應(yīng)用安全評(píng)估,完善風(fēng)險(xiǎn)防控機(jī)制和措施,并對(duì)發(fā)現(xiàn)的安全隱患及時(shí)采取有效整改措施。這也讓更多的公眾意識(shí)到深度偽造技術(shù)所蘊(yùn)含的安全隱患。
“深度偽造”是隨著現(xiàn)代人工智能技術(shù)(尤其是語(yǔ)音模擬、人臉合成、視頻生成等)的發(fā)展而出現(xiàn)的技術(shù),是計(jì)算機(jī)“深度學(xué)習(xí)”和“偽造”組合的產(chǎn)物。簡(jiǎn)單地說(shuō),就是通過(guò)人工智能技術(shù)來(lái)制作虛假的視頻或音頻,或者對(duì)原本真實(shí)的視頻或音頻的內(nèi)容進(jìn)行修改,從而呈現(xiàn)與真相不符合的狀態(tài)。
可以說(shuō),在深度偽造技術(shù)面前,傳統(tǒng)的“眼見(jiàn)為實(shí)”“有圖有真相”的說(shuō)法會(huì)變得不堪一擊,親眼所見(jiàn)和親耳所聽(tīng)的東西都可能是完全子虛烏有的。深度偽造技術(shù)的濫用會(huì)對(duì)公眾的合法權(quán)益造成損害,破壞社會(huì)秩序、經(jīng)濟(jì)秩序和政治秩序,損害社會(huì)公共利益乃至危害國(guó)家安全,包括我國(guó)在內(nèi)的許多國(guó)家的法律都對(duì)之作出規(guī)范,例如換臉軟件ZAO上線不久,就被工信部約談。
目前我國(guó)尚未發(fā)生因深度偽造技術(shù)而產(chǎn)生侵權(quán)糾紛案件,但實(shí)踐中,一些違法犯罪分子利用深度偽造技術(shù)侵害他人人身財(cái)產(chǎn)權(quán)益的情形屢見(jiàn)不鮮。從被侵害的民事權(quán)益的類型看,這些侵害行為包括以下幾種:
首先,利用深度偽造技術(shù),實(shí)現(xiàn)移花接木,會(huì)對(duì)他人名譽(yù)權(quán)構(gòu)成侵害。我國(guó)民法典第1024條規(guī)定:“民事主體享有名譽(yù)權(quán)。任何組織或者個(gè)人不得以侮辱、誹謗等方式侵害他人的名譽(yù)權(quán)。”制作虛假色情視頻,是深度偽造技術(shù)最早也是最常見(jiàn)的非法運(yùn)用方式之一。利用該技術(shù)能將一些知名歌星、影星等公眾人物的臉移轉(zhuǎn)到色情明星身上,偽造逼真的色情場(chǎng)景。這些虛假色情視頻一經(jīng)傳播,公眾可能真假莫辨,從而導(dǎo)致受害人的名譽(yù)嚴(yán)重受損。即便不是用于制作色情視頻,深度偽造技術(shù)也完全可以通過(guò)制造虛假的視頻或音頻,侵害自然人、法人或非法人組織的名譽(yù)權(quán),進(jìn)而給其造成財(cái)產(chǎn)損失以及精神損害。
其次,深度偽造技術(shù)會(huì)構(gòu)成對(duì)自然人肖像權(quán)的侵害。運(yùn)用深度偽造技術(shù),可以實(shí)現(xiàn)所謂的“換臉”,即將某個(gè)自然人的臉部形象逼真地移植到他人身上,從而構(gòu)成對(duì)該自然人肖像權(quán)的侵害。我國(guó)在編纂民法典時(shí),有單位提出,利用信息技術(shù)手段“深度偽造”他人的肖像、聲音,不僅侵害自然人的人格權(quán)益,嚴(yán)重的還可能造成惡劣的社會(huì)影響,危害國(guó)家安全和社會(huì)公共利益,建議法律對(duì)深度偽造技術(shù)帶來(lái)的“換臉”等問(wèn)題予以回應(yīng)。后來(lái)民法典在制定時(shí)采納了這一意見(jiàn)——第1019條第1款明確規(guī)定,任何組織或者個(gè)人不得以丑化、污損,或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán)。
再次,深度偽造技術(shù)為違法犯罪分子實(shí)施詐騙等行為提供了便利。實(shí)踐中,一些犯罪分子利用深度偽造技術(shù),非常逼真地克隆出被害人的近親屬、朋友或同事的聲音,然后輕易地騙取巨額錢財(cái)。據(jù)報(bào)道,2019年3月,就有犯罪分子使用深度偽造技術(shù)成功模仿了英國(guó)某能源公司的母公司CEO的聲音,從而詐騙了22萬(wàn)歐元。從民法角度說(shuō),這種行為侵害了他人財(cái)產(chǎn)權(quán),而從刑法角度講則可能構(gòu)成詐騙等犯罪,均應(yīng)依法承擔(dān)法律責(zé)任。
最后,在深度偽造技術(shù)利用的過(guò)程中,還往往會(huì)涉及非法收集、買賣個(gè)人信息的違法行為。我國(guó)民法典、網(wǎng)絡(luò)安全法等法律對(duì)于個(gè)人信息保護(hù)作出明確規(guī)定,人的臉部特征信息就屬于生物識(shí)別信息。而深度偽造技術(shù)能夠應(yīng)用的一個(gè)重要前提,就是要大量處理包括生物識(shí)別信息在內(nèi)的個(gè)人信息。因此,深度偽造技術(shù)還會(huì)侵害自然人的個(gè)人信息權(quán)益。
總之,由于目前業(yè)界還沒(méi)有相關(guān)標(biāo)準(zhǔn)對(duì)這些用深度偽造技術(shù)制作出來(lái)的假視頻、假音頻進(jìn)行檢測(cè),因此,公眾因深度偽造技術(shù)遭受侵害時(shí),往往很難加以證明并得到有效救濟(jì)。這就迫切需要從民法、刑法、行政法等多個(gè)角度對(duì)于深度偽造技術(shù)進(jìn)行嚴(yán)格規(guī)范,從而充分保護(hù)廣大民事主體的合法權(quán)益。此次兩部門約談一些互聯(lián)網(wǎng)企業(yè),要求其對(duì)這一技術(shù)進(jìn)行安全評(píng)估,也旨在督促企業(yè)履行主體責(zé)任,實(shí)現(xiàn)有效的事先風(fēng)險(xiǎn)管理,這也會(huì)為以后從法律角度進(jìn)行規(guī)制積累有益經(jīng)驗(yàn)。
(作者系清華大學(xué)法學(xué)院副院長(zhǎng)、教授)
