郵件系統(tǒng):
用戶名: 密碼:
2024年10月30日 星期三
位置: 首頁 》法學(xué)人物 》法界資訊 》學(xué)者觀點(diǎn)
劉艷紅:生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制 以ChatGPT為例

時(shí)間:2023-08-01   來源:法治網(wǎng)  責(zé)任編輯:陳聰

□ 劉艷紅 (中國政法大學(xué)刑事司法學(xué)院教授、博士生導(dǎo)師)

4月11日,中國國家互聯(lián)網(wǎng)信息辦公室《生成式人工智能服務(wù)管理辦法(征求意見稿)》規(guī)定,生成式人工智能,“是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。2022年11月,OpenAI公司推出了名為ChatGPT的生成式人工智能。生成式人工智能是元宇宙技術(shù)架構(gòu)的終極樣態(tài)之一,其加速了元宇宙的實(shí)現(xiàn),而元宇宙也為其提供了良好的技術(shù)運(yùn)行環(huán)境。在生成式人工智能技術(shù)的推動(dòng)下,元宇宙的概念不但沒有“褪色”,反而獲得了新的發(fā)展動(dòng)能。尤其是聽得懂、說得出、能互動(dòng)的GPT4的面世,使社會(huì)各行各業(yè)都遭受到了不同程度沖擊。與以往的人工智能技術(shù)相比,ChatGPT等生成式人工智能給人類社會(huì)帶來的潛在風(fēng)險(xiǎn)真實(shí)而緊迫。

如果說互聯(lián)網(wǎng)引發(fā)了空間革命、智能手機(jī)引發(fā)了時(shí)間革命的話,ChatGPT類技術(shù)正在引發(fā)人類社會(huì)的知識(shí)革命。埃隆·馬斯克評(píng)價(jià)說其不亞于iPhone、比爾·蓋茨說其不亞于重新發(fā)明互聯(lián)網(wǎng)、周鴻祎認(rèn)為其可類比蒸汽機(jī)和電力的發(fā)明。相較于已有的人工智能技術(shù),ChatGPT的現(xiàn)象級(jí)躥紅得益于大規(guī)模語言模型和生成式人工智能架構(gòu)所塑造的技術(shù)性能的實(shí)質(zhì)躍升。海量數(shù)據(jù)與強(qiáng)大算力支撐之下的“涌現(xiàn)”能力使得ChatGPT類技術(shù)不僅可以“理解”人類自然語言,“記住”訓(xùn)練期間獲得的大量事實(shí),還可以基于“記住”的知識(shí)生成高質(zhì)量的內(nèi)容。良好的互動(dòng)性、高度通用性與智能生成性正在加速ChatGPT類技術(shù)與人類社會(huì)形成更加剛性、高頻、泛在與深刻的聯(lián)結(jié)。與之對應(yīng),這也意味著ChatGPT類技術(shù)給人類社會(huì)帶來的潛在風(fēng)險(xiǎn)較之已有的人工智能技術(shù)而言更具現(xiàn)實(shí)緊迫性。深度學(xué)習(xí)之父杰弗里·辛頓在談及ChatGPT時(shí)認(rèn)為,“多數(shù)人認(rèn)為這(AI危害)還很遙遠(yuǎn)。我過去也認(rèn)為這還很遙遠(yuǎn),可能是30到50年甚至更長的時(shí)間。但顯然,我現(xiàn)在不這么想了”。在此背景下,分析生成式人工智能的潛在風(fēng)險(xiǎn)并提出法律治理路徑就絕非科幻意義上的“感性空想”,而是建構(gòu)在現(xiàn)實(shí)基礎(chǔ)之上的理性思考。為此,如何結(jié)合生成式人工智能的運(yùn)行機(jī)理與安全風(fēng)險(xiǎn)進(jìn)行法律規(guī)制,成為當(dāng)下科技界、產(chǎn)業(yè)界、法律界共同關(guān)注的話題。

生成式人工智能的運(yùn)行分為三個(gè)階段,即機(jī)器學(xué)習(xí)與人工標(biāo)注的準(zhǔn)備階段、算法處理數(shù)據(jù)的運(yùn)算階段以及產(chǎn)出物流入社會(huì)的生成階段,對應(yīng)了準(zhǔn)備階段的數(shù)據(jù)安全風(fēng)險(xiǎn)、運(yùn)算階段的算法偏見風(fēng)險(xiǎn)以及生成階段的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn),需要對此進(jìn)行事先預(yù)防并提供法律保護(hù)。

強(qiáng)基賦能:生成式人工智能準(zhǔn)備階段中的數(shù)據(jù)安全風(fēng)險(xiǎn)與合規(guī)處置

ChatGPT在準(zhǔn)備階段的數(shù)據(jù)分為國家數(shù)據(jù)、政務(wù)數(shù)據(jù)以及個(gè)人數(shù)據(jù),并分別存在一定的安全風(fēng)險(xiǎn),應(yīng)該進(jìn)行合規(guī)處置。第一,針對國家數(shù)據(jù),應(yīng)該基于總體國家安全觀的理念進(jìn)行統(tǒng)籌規(guī)劃,構(gòu)建審查分級(jí)監(jiān)管機(jī)制,采用穿透式監(jiān)管的模式來分析國家數(shù)據(jù)的產(chǎn)生來源、內(nèi)容架構(gòu)以及潛在價(jià)值,從而保護(hù)數(shù)據(jù)主權(quán)。第二,針對政務(wù)數(shù)據(jù),應(yīng)該根據(jù)國家的整體布局來構(gòu)建對應(yīng)的合規(guī)監(jiān)管體系,由政務(wù)機(jī)構(gòu)在事前報(bào)備可以公開利用的數(shù)據(jù),設(shè)立限制加工利用的前提要件。第三,針對個(gè)人數(shù)據(jù),應(yīng)該設(shè)置獨(dú)立監(jiān)督機(jī)構(gòu)來審查收集廣度,基于最小比例原則限制收集深度,同時(shí)禁止其編造虛假回復(fù)。

內(nèi)核優(yōu)化:生成式人工智能運(yùn)算階段中算法模型的分析與糾偏

《生成式人工智能服務(wù)管理辦法(征求意見稿)》第四條(二)規(guī)定,在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中不得出現(xiàn)各類歧視。ChatGPT在機(jī)器學(xué)習(xí)的同時(shí),通過人工標(biāo)注來修正和校對機(jī)器學(xué)習(xí)的結(jié)論,而“機(jī)器學(xué)習(xí)+人工標(biāo)注”作為算法技術(shù)內(nèi)核,在提升技術(shù)水平的同時(shí)也會(huì)增加算法偏見的風(fēng)險(xiǎn)。鑒于此,應(yīng)該遵循技管結(jié)合理念,從技術(shù)與規(guī)范兩方面進(jìn)行全流程監(jiān)管。第一,針對先天性算法偏見調(diào)整算法的學(xué)習(xí)路徑,強(qiáng)調(diào)算法應(yīng)該遵守技術(shù)標(biāo)準(zhǔn),在算法程序編譯環(huán)節(jié)進(jìn)行預(yù)防、調(diào)整和校對,設(shè)置統(tǒng)一的人工標(biāo)注規(guī)范標(biāo)準(zhǔn),避免造成偏向性誤導(dǎo)。第二,針對后天性算法偏見,應(yīng)該建立自動(dòng)化、生態(tài)化、全流程的動(dòng)態(tài)監(jiān)管體系,自動(dòng)對運(yùn)行全程進(jìn)行實(shí)時(shí)監(jiān)控,構(gòu)建多主體的生態(tài)化監(jiān)管網(wǎng)絡(luò),落實(shí)全流程覆蓋的監(jiān)管機(jī)制。

提質(zhì)增效:生成式人工智能生成階段中知識(shí)產(chǎn)權(quán)的剖析與重塑

ChatGPT在生產(chǎn)中注入自主意識(shí),通過神經(jīng)卷積網(wǎng)絡(luò)形成深度學(xué)習(xí)能力,而這也給知產(chǎn)保護(hù)帶來巨大挑戰(zhàn)。第一,公眾向ChatGPT反饋?zhàn)约旱男枨?,這表明人類意志已經(jīng)干預(yù)了ChatGPT的創(chuàng)作。第二,算法中的人工標(biāo)注模式注入了人的意志,可以追溯和解釋結(jié)論產(chǎn)生路徑。第三,ChatGPT具備一定的“自我反省能力”,解釋其運(yùn)行機(jī)理具有實(shí)際可行性。因此,ChatGPT的生成物具有獨(dú)創(chuàng)性與創(chuàng)新性,應(yīng)該被賦予知識(shí)產(chǎn)權(quán)并加以保護(hù)。當(dāng)前應(yīng)該構(gòu)建重點(diǎn)突出的知產(chǎn)合規(guī)保護(hù)體系,ChatGPT的可解釋性算法及其生成的內(nèi)容具有獨(dú)創(chuàng)性與創(chuàng)新性,屬于重點(diǎn)保護(hù)對象。具體合規(guī)保護(hù)任務(wù)分為提供一般預(yù)防措施的基礎(chǔ)性保護(hù)與強(qiáng)化技術(shù)特征的專門性保護(hù),最終構(gòu)建全流程保護(hù)體系,并及時(shí)引入全新的知產(chǎn)保護(hù)技術(shù)。

總之,伴隨生成式人工智能技術(shù)的蓬勃發(fā)展,必須提前預(yù)防可能產(chǎn)生的安全風(fēng)險(xiǎn),比如影響教育公平、科研倫理、環(huán)境保護(hù)、數(shù)字鴻溝等。為了規(guī)避技術(shù)主義的陷阱,需要分析生成式人工智能對當(dāng)前及未來社會(huì)可能造成的影響,并提供法律規(guī)制手段,在發(fā)揮技術(shù)效能的同時(shí)減少社會(huì)負(fù)面影響。

全文
搜索

關(guān)注
微信

關(guān)注官方微信

關(guān)注
微博

關(guān)注官方微博

網(wǎng)絡(luò)
信箱