ChatGPT是由美國公司OpenAI基于一種GPT—3.5架構(gòu)開發(fā)的大型語言模型,能夠生成各種不同的文本類型,可以針對(duì)對(duì)話場(chǎng)景進(jìn)行特別優(yōu)化,根據(jù)上下文自動(dòng)生成跟人類一樣的對(duì)話文本。
OpenAI在公司官網(wǎng)對(duì)ChatGPT產(chǎn)生方法進(jìn)行介紹時(shí)說,該模型是使用人類反饋強(qiáng)化學(xué)習(xí)訓(xùn)練而來,方法與InstructGPT(OpenAI開發(fā)的一種“指令生成預(yù)訓(xùn)練”語言模型)一致,但在數(shù)據(jù)收集設(shè)置上略有不同。我們通過監(jiān)督微調(diào)的方法訓(xùn)練出一個(gè)初始模型:人類人工智能訓(xùn)練師分別扮演用戶與AI助手的角色。我們?cè)试SAI訓(xùn)練師為模型編寫建議,幫助他們撰寫回復(fù);我們把新的對(duì)話數(shù)據(jù)集與InstructGPT數(shù)據(jù)集混合,并轉(zhuǎn)化為對(duì)話格式。為了創(chuàng)建強(qiáng)化學(xué)習(xí)的獎(jiǎng)勵(lì)模型進(jìn)行收集對(duì)比數(shù)據(jù),包括兩個(gè)或多個(gè)按質(zhì)量排序的模型反應(yīng)。同時(shí),為了更好收集此類數(shù)據(jù),使用AI訓(xùn)練師與聊天機(jī)器人的對(duì)話,隨機(jī)選擇一個(gè)模型編寫信息,抽樣幾個(gè)替代信息,并讓AI訓(xùn)練師對(duì)它們進(jìn)行排序。繼而,我們利用這些獎(jiǎng)勵(lì)模型,通過策略優(yōu)化方式進(jìn)行微調(diào)。
由此可知,ChatGPT工作的原理及技術(shù)架構(gòu)包括四方面內(nèi)容:第一,生成基于GPT的模型(AI在海量數(shù)據(jù)下學(xué)習(xí)基于前后文生成后續(xù)文本能力),由于GPT模型會(huì)產(chǎn)生多個(gè)不同的輸出結(jié)果,例如:告訴GPT“世界上最大的平原是____”,可以給出“綠色的”“是無邊無盡的”“亞馬孫平原”等多個(gè)合理答案。第二,引導(dǎo)方向,并監(jiān)督微調(diào)初始模型,通過前述問題,不難看出“亞馬孫平原”是最符合人類期望的答案,因此,開發(fā)者通過人工給出一些問題答案,進(jìn)而訓(xùn)練AI學(xué)習(xí),從而形成一個(gè)初始的ChatGPT模型。第三,提升能力的獎(jiǎng)勵(lì)模型。在兩步基礎(chǔ)上,如何提升初始模型處理能力?研究人員會(huì)讓GPT對(duì)特定問題給出多個(gè)答案,由人類進(jìn)行好壞排序,基于比較數(shù)據(jù)生成符合人類標(biāo)準(zhǔn)的模型。第四,AI指導(dǎo)AI,強(qiáng)化學(xué)習(xí),由于以上三步形成較為成熟AI,因此使用AI指導(dǎo)AI進(jìn)行強(qiáng)化學(xué)習(xí),不斷訓(xùn)練迭代,形成完整ChatGPT模型。
ChatGPT具有廣泛的知識(shí)儲(chǔ)備和強(qiáng)大的語言理解能力,讓翻譯、生成文案、分析文本等工作變得簡單,極大提升了工作效率。它還具有較強(qiáng)的自我學(xué)習(xí)及推理能力,也讓應(yīng)用場(chǎng)景變得多樣,不僅能夠從事文字工作,還能夠從事AI建模、語音交流、圖像生成等復(fù)雜工作。但它也存在一定的缺陷及限制,比如邏輯不透明,ChatGPT訓(xùn)練數(shù)據(jù)來自人類歷史數(shù)據(jù),可能充滿了各式各樣的偏見;回復(fù)滯后性及有限性,ChatGPT根據(jù)預(yù)設(shè)數(shù)據(jù)集進(jìn)行數(shù)據(jù)分析及整合,它的數(shù)據(jù)來源具有滯后性及有限性,這使得本身很難獲取最新數(shù)據(jù)信息。
ChatGPT應(yīng)用可能產(chǎn)生的安全風(fēng)險(xiǎn)
數(shù)據(jù)安全風(fēng)險(xiǎn)。ChatGPT是以對(duì)話方式進(jìn)行交互,使用機(jī)器學(xué)習(xí)技術(shù)根據(jù)接收到的“輸入內(nèi)容”生成“類似人類的文本”。它的技術(shù)優(yōu)勢(shì)主要來源于先進(jìn)的算法及海量的數(shù)據(jù),但這也引起了人們關(guān)于數(shù)據(jù)安全方面的擔(dān)憂。我國數(shù)據(jù)安全法明確規(guī)定,維護(hù)數(shù)據(jù)安全,應(yīng)當(dāng)堅(jiān)持總體國家安全觀,建立健全數(shù)據(jù)安全治理體系,提高數(shù)據(jù)安全保障能力。ChatGPT是通過GPT模型進(jìn)行不斷的監(jiān)督微調(diào)及強(qiáng)化學(xué)習(xí)進(jìn)行數(shù)據(jù)分析,它本身的算法技術(shù)及預(yù)設(shè)數(shù)據(jù)集均來自域外,主要以西方價(jià)值觀為導(dǎo)向,可能存在著意識(shí)形態(tài)偏差。ChatGPT還可以進(jìn)行深度的自主學(xué)習(xí),也無法排除存在對(duì)國家相關(guān)信息數(shù)據(jù)深度分析及發(fā)掘的可能。因此,ChatGPT技術(shù)的應(yīng)用可能會(huì)給國家數(shù)據(jù)安全帶來潛在風(fēng)險(xiǎn),從而影響國家數(shù)據(jù)權(quán)益保護(hù)。此外,ChatGPT通過連接大量的語料庫來訓(xùn)練模型,其中數(shù)據(jù)不僅來源于預(yù)設(shè)的數(shù)據(jù)集,還包括用戶輸入的相關(guān)數(shù)據(jù)信息。用戶一旦使用ChatGPT輸入相關(guān)數(shù)據(jù),它會(huì)成為機(jī)器智能學(xué)習(xí)的一部分,從而對(duì)用戶的個(gè)人信息、秘密信息、商業(yè)秘密和其他秘密情報(bào)形成安全風(fēng)險(xiǎn)!
網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。一是基于虛假信息產(chǎn)生的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。一方面,ChatGPT依賴海量數(shù)據(jù)信息進(jìn)行深度學(xué)習(xí),數(shù)據(jù)主要來源于現(xiàn)有互聯(lián)網(wǎng)公開文本數(shù)據(jù)。這些數(shù)據(jù)有真實(shí)準(zhǔn)確來源的信息,也有虛假信息。ChatGPT在監(jiān)督微調(diào)、獎(jiǎng)勵(lì)模式、強(qiáng)化學(xué)習(xí)過程中若以虛假信息作為處理分析對(duì)象,進(jìn)而生成文本也會(huì)存在虛假信息。另一方面,ChatGPT具有強(qiáng)大的自主性特質(zhì),即便處理數(shù)據(jù)均來自真實(shí)、準(zhǔn)確信息,亦不能排除基于ChatGPT通過算法進(jìn)行數(shù)據(jù)整合生成虛假信息的可能。二是基于網(wǎng)絡(luò)攻擊產(chǎn)生的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。ChatGPT的出現(xiàn),意味著“強(qiáng)人工智能時(shí)代”的來臨,但與之相關(guān)的網(wǎng)絡(luò)安全問題也越來越受到關(guān)注。首先,從生成內(nèi)容角度看,ChatGPT為網(wǎng)絡(luò)犯罪分子提供更便捷的網(wǎng)絡(luò)攻擊武器,比如利用ChatGPT的編寫功能,非?焖偕舍烎~電子郵件,騙取他人信息。其次,ChatGPT降低了惡意軟件的開發(fā)門檻。借助ChatGPT,黑客甚至不需要編碼就可以生成一個(gè)惡意軟件,這極大地降低了黑客的技術(shù)能力門檻,從一定程度上加速惡意軟件的開發(fā),提高漏洞利用的可能性和速度。最后,ChatGPT提高了網(wǎng)絡(luò)防御難度。借助ChatGPT,黑客能夠開發(fā)出安全人員極難識(shí)別的惡意軟件,提高網(wǎng)絡(luò)攻擊的有效性!
知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)。使用ChatGPT也面臨著較為嚴(yán)重的版權(quán)風(fēng)險(xiǎn)。從ChatGPT生成框架來看,ChatGPT運(yùn)用大量不同的數(shù)據(jù)集訓(xùn)練形成大型語言模型,它的數(shù)據(jù)集可能來自受著作權(quán)保護(hù)的材料,若沒有經(jīng)過授權(quán),則可能存在侵犯他人作品復(fù)制權(quán)的問題!
從ChatGPT生成內(nèi)容來看,ChatGPT具有強(qiáng)大的語言重組和整理能力,當(dāng)用戶輸入特定命令時(shí),若ChatGPT生成的內(nèi)容主旨與他人在先作品獨(dú)創(chuàng)性表達(dá)存在部分或完全一致時(shí),基于ChatGPT通過計(jì)算機(jī)傳播,且用戶可以在自己選定時(shí)間及地點(diǎn)獲取內(nèi)容,符合信息網(wǎng)絡(luò)傳播權(quán)構(gòu)成要件,因此存在作品信息網(wǎng)絡(luò)傳播權(quán)侵權(quán)風(fēng)險(xiǎn)。此外,ChatGPT作為典型的語言模型,它的模型訓(xùn)練需要海量的文本數(shù)據(jù)集,若開發(fā)公司為訓(xùn)練ChatGPT引入特定作者的作品進(jìn)行訓(xùn)練,在未經(jīng)相關(guān)著作權(quán)人許可情況下,當(dāng)用戶輸入特定命令時(shí),ChatGPT生成的內(nèi)容若具有一定獨(dú)創(chuàng)性,且存在與在先作品的相似表達(dá),即便其可能會(huì)構(gòu)成演繹作品,但其生成內(nèi)容也為侵權(quán)作品;若開發(fā)公司訓(xùn)練ChatGPT時(shí),從未引入特定作者的作品,只是由于用戶的特定問題使算法“預(yù)測(cè)”生成內(nèi)容時(shí)剛好與在先作品相同,則不構(gòu)成侵權(quán)。因此,如何規(guī)制ChatGPT帶來的侵權(quán)風(fēng)險(xiǎn),需要持續(xù)性的關(guān)注和思考。
ChatGPT等生成式人工智能的監(jiān)管路徑
隨著人工智能的快速發(fā)展,以ChatGPT為代表的新技術(shù)將廣泛應(yīng)用于人們未來的生產(chǎn)生活。但ChatGPT等生成式人工智能也是一把“雙刃劍”。一方面,它高度的智能性為生產(chǎn)生活帶來了極大便利,提高了社會(huì)生產(chǎn)力,給社會(huì)各領(lǐng)域活動(dòng)帶來了顛覆性變革。另一方面,它的快速發(fā)展沖擊現(xiàn)有規(guī)則,存在較多潛在風(fēng)險(xiǎn)!
鑒于目前ChatGPT技術(shù)應(yīng)用尚未完全成熟,可能存在較大的數(shù)據(jù)安全風(fēng)險(xiǎn),世界各國采用了不同的監(jiān)管規(guī)范思路。以對(duì)數(shù)據(jù)與隱私保護(hù)較為嚴(yán)苛的歐盟為代表,對(duì)ChatGPT持續(xù)嚴(yán)監(jiān)管。比如,意大利已于當(dāng)?shù)貢r(shí)間3月31日發(fā)布ChatGPT禁令,宣布將暫時(shí)封鎖意大利境內(nèi)訪問ChatGPT的途徑,并審查OpenAI在最近一次網(wǎng)絡(luò)安全事件中收集的個(gè)人信息等問題。同時(shí),歐盟計(jì)劃出臺(tái)全面人工智能法規(guī)《人工智能法案》,對(duì)ChatGPT等生成式AI設(shè)置專門監(jiān)管部門。以引領(lǐng)科技創(chuàng)新為目標(biāo)的美國對(duì)ChatGPT持寬松監(jiān)管態(tài)勢(shì)。5月4日,美國拜登政府宣布對(duì)“值得信賴的”人工智能增加投資,強(qiáng)調(diào)加強(qiáng)對(duì)ChatGPT在倫理道德方面的監(jiān)管,擬研究和制定針對(duì)ChatGPT的監(jiān)管政策和指南,以確保ChatGPT的發(fā)展和應(yīng)用符合法律法規(guī)和倫理標(biāo)準(zhǔn)。
針對(duì)人工智能應(yīng)用,我國今年4月發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》,主要規(guī)制生成式人工智能服務(wù)提供者的行為,為提供者設(shè)置較高的合規(guī)義務(wù)。方向上鼓勵(lì)促進(jìn)生成式人工智能技術(shù)和產(chǎn)品發(fā)展,管理上強(qiáng)化規(guī)范化、法治化,力求在保障合法合規(guī)的同時(shí),為生成式人工智能未來的技術(shù)創(chuàng)新和推廣應(yīng)用保留一定政策空間。
此外,ChatGPT生成式人工智能服務(wù)提供者也應(yīng)當(dāng)積極利用自身技術(shù)的完善減少相關(guān)風(fēng)險(xiǎn),比如,通過算法優(yōu)化以及人為介入管控等方式提升信息過濾能力;對(duì)于用戶輸入內(nèi)容,加強(qiáng)內(nèi)容識(shí)別能力,對(duì)虛假或危險(xiǎn)信息作出警示。對(duì)于用戶隱私建立完善的保存機(jī)制并形成日志以便后續(xù)監(jiān)督等!
黨的二十大報(bào)告強(qiáng)調(diào),“推動(dòng)戰(zhàn)略性新興產(chǎn)業(yè)融合集群發(fā)展,構(gòu)建新一代信息技術(shù)、人工智能、生物技術(shù)、新能源、新材料、高端裝備、綠色環(huán)保等一批新的增長引擎!盋hatGPT等生成式人工智能技術(shù)具有高度智能化,可應(yīng)用于教育、科研、醫(yī)療等多個(gè)領(lǐng)域,極大提高社會(huì)生產(chǎn)效率,與此同時(shí),也對(duì)數(shù)據(jù)安全、網(wǎng)絡(luò)安全、知識(shí)產(chǎn)權(quán)等多領(lǐng)域帶來巨大沖擊及挑戰(zhàn)。因此,這需要我們以“包容審慎”的監(jiān)管理念進(jìn)行政策制定和引導(dǎo),既有效地減少AI帶來的風(fēng)險(xiǎn),保障數(shù)據(jù)隱私和安全、版權(quán)保護(hù)方面的合法權(quán)益,又加大對(duì)AI基礎(chǔ)創(chuàng)新領(lǐng)域和生態(tài)能力開放的政策支持力度,為AI產(chǎn)業(yè)發(fā)展?fàn)I造良好的外部政策環(huán)境,確保我國在全球新一輪科技革命中獲得領(lǐng)先地位。
