時間:2023-08-01 來源:法治網(wǎng) 責(zé)任編輯:陳聰
□ 劉艷紅 (中國政法大學(xué)刑事司法學(xué)院教授、博士生導(dǎo)師)
4月11日,中國國家互聯(lián)網(wǎng)信息辦公室《生成式人工智能服務(wù)管理辦法(征求意見稿)》規(guī)定,生成式人工智能,“是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。2022年11月,OpenAI公司推出了名為ChatGPT的生成式人工智能。生成式人工智能是元宇宙技術(shù)架構(gòu)的終極樣態(tài)之一,其加速了元宇宙的實現(xiàn),而元宇宙也為其提供了良好的技術(shù)運行環(huán)境。在生成式人工智能技術(shù)的推動下,元宇宙的概念不但沒有“褪色”,反而獲得了新的發(fā)展動能。尤其是聽得懂、說得出、能互動的GPT4的面世,使社會各行各業(yè)都遭受到了不同程度沖擊。與以往的人工智能技術(shù)相比,ChatGPT等生成式人工智能給人類社會帶來的潛在風(fēng)險真實而緊迫。
如果說互聯(lián)網(wǎng)引發(fā)了空間革命、智能手機引發(fā)了時間革命的話,ChatGPT類技術(shù)正在引發(fā)人類社會的知識革命。埃隆·馬斯克評價說其不亞于iPhone、比爾·蓋茨說其不亞于重新發(fā)明互聯(lián)網(wǎng)、周鴻祎認為其可類比蒸汽機和電力的發(fā)明。相較于已有的人工智能技術(shù),ChatGPT的現(xiàn)象級躥紅得益于大規(guī)模語言模型和生成式人工智能架構(gòu)所塑造的技術(shù)性能的實質(zhì)躍升。海量數(shù)據(jù)與強大算力支撐之下的“涌現(xiàn)”能力使得ChatGPT類技術(shù)不僅可以“理解”人類自然語言,“記住”訓(xùn)練期間獲得的大量事實,還可以基于“記住”的知識生成高質(zhì)量的內(nèi)容。良好的互動性、高度通用性與智能生成性正在加速ChatGPT類技術(shù)與人類社會形成更加剛性、高頻、泛在與深刻的聯(lián)結(jié)。與之對應(yīng),這也意味著ChatGPT類技術(shù)給人類社會帶來的潛在風(fēng)險較之已有的人工智能技術(shù)而言更具現(xiàn)實緊迫性。深度學(xué)習(xí)之父杰弗里·辛頓在談及ChatGPT時認為,“多數(shù)人認為這(AI危害)還很遙遠。我過去也認為這還很遙遠,可能是30到50年甚至更長的時間。但顯然,我現(xiàn)在不這么想了”。在此背景下,分析生成式人工智能的潛在風(fēng)險并提出法律治理路徑就絕非科幻意義上的“感性空想”,而是建構(gòu)在現(xiàn)實基礎(chǔ)之上的理性思考。為此,如何結(jié)合生成式人工智能的運行機理與安全風(fēng)險進行法律規(guī)制,成為當(dāng)下科技界、產(chǎn)業(yè)界、法律界共同關(guān)注的話題。
生成式人工智能的運行分為三個階段,即機器學(xué)習(xí)與人工標(biāo)注的準備階段、算法處理數(shù)據(jù)的運算階段以及產(chǎn)出物流入社會的生成階段,對應(yīng)了準備階段的數(shù)據(jù)安全風(fēng)險、運算階段的算法偏見風(fēng)險以及生成階段的知識產(chǎn)權(quán)風(fēng)險,需要對此進行事先預(yù)防并提供法律保護。
強基賦能:生成式人工智能準備階段中的數(shù)據(jù)安全風(fēng)險與合規(guī)處置
ChatGPT在準備階段的數(shù)據(jù)分為國家數(shù)據(jù)、政務(wù)數(shù)據(jù)以及個人數(shù)據(jù),并分別存在一定的安全風(fēng)險,應(yīng)該進行合規(guī)處置。第一,針對國家數(shù)據(jù),應(yīng)該基于總體國家安全觀的理念進行統(tǒng)籌規(guī)劃,構(gòu)建審查分級監(jiān)管機制,采用穿透式監(jiān)管的模式來分析國家數(shù)據(jù)的產(chǎn)生來源、內(nèi)容架構(gòu)以及潛在價值,從而保護數(shù)據(jù)主權(quán)。第二,針對政務(wù)數(shù)據(jù),應(yīng)該根據(jù)國家的整體布局來構(gòu)建對應(yīng)的合規(guī)監(jiān)管體系,由政務(wù)機構(gòu)在事前報備可以公開利用的數(shù)據(jù),設(shè)立限制加工利用的前提要件。第三,針對個人數(shù)據(jù),應(yīng)該設(shè)置獨立監(jiān)督機構(gòu)來審查收集廣度,基于最小比例原則限制收集深度,同時禁止其編造虛假回復(fù)。
內(nèi)核優(yōu)化:生成式人工智能運算階段中算法模型的分析與糾偏
《生成式人工智能服務(wù)管理辦法(征求意見稿)》第四條(二)規(guī)定,在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中不得出現(xiàn)各類歧視。ChatGPT在機器學(xué)習(xí)的同時,通過人工標(biāo)注來修正和校對機器學(xué)習(xí)的結(jié)論,而“機器學(xué)習(xí)+人工標(biāo)注”作為算法技術(shù)內(nèi)核,在提升技術(shù)水平的同時也會增加算法偏見的風(fēng)險。鑒于此,應(yīng)該遵循技管結(jié)合理念,從技術(shù)與規(guī)范兩方面進行全流程監(jiān)管。第一,針對先天性算法偏見調(diào)整算法的學(xué)習(xí)路徑,強調(diào)算法應(yīng)該遵守技術(shù)標(biāo)準,在算法程序編譯環(huán)節(jié)進行預(yù)防、調(diào)整和校對,設(shè)置統(tǒng)一的人工標(biāo)注規(guī)范標(biāo)準,避免造成偏向性誤導(dǎo)。第二,針對后天性算法偏見,應(yīng)該建立自動化、生態(tài)化、全流程的動態(tài)監(jiān)管體系,自動對運行全程進行實時監(jiān)控,構(gòu)建多主體的生態(tài)化監(jiān)管網(wǎng)絡(luò),落實全流程覆蓋的監(jiān)管機制。
提質(zhì)增效:生成式人工智能生成階段中知識產(chǎn)權(quán)的剖析與重塑
ChatGPT在生產(chǎn)中注入自主意識,通過神經(jīng)卷積網(wǎng)絡(luò)形成深度學(xué)習(xí)能力,而這也給知產(chǎn)保護帶來巨大挑戰(zhàn)。第一,公眾向ChatGPT反饋自己的需求,這表明人類意志已經(jīng)干預(yù)了ChatGPT的創(chuàng)作。第二,算法中的人工標(biāo)注模式注入了人的意志,可以追溯和解釋結(jié)論產(chǎn)生路徑。第三,ChatGPT具備一定的“自我反省能力”,解釋其運行機理具有實際可行性。因此,ChatGPT的生成物具有獨創(chuàng)性與創(chuàng)新性,應(yīng)該被賦予知識產(chǎn)權(quán)并加以保護。當(dāng)前應(yīng)該構(gòu)建重點突出的知產(chǎn)合規(guī)保護體系,ChatGPT的可解釋性算法及其生成的內(nèi)容具有獨創(chuàng)性與創(chuàng)新性,屬于重點保護對象。具體合規(guī)保護任務(wù)分為提供一般預(yù)防措施的基礎(chǔ)性保護與強化技術(shù)特征的專門性保護,最終構(gòu)建全流程保護體系,并及時引入全新的知產(chǎn)保護技術(shù)。
總之,伴隨生成式人工智能技術(shù)的蓬勃發(fā)展,必須提前預(yù)防可能產(chǎn)生的安全風(fēng)險,比如影響教育公平、科研倫理、環(huán)境保護、數(shù)字鴻溝等。為了規(guī)避技術(shù)主義的陷阱,需要分析生成式人工智能對當(dāng)前及未來社會可能造成的影響,并提供法律規(guī)制手段,在發(fā)揮技術(shù)效能的同時減少社會負面影響。
關(guān)注
微信
關(guān)注
微博