時間:2018-04-19 來源:《中國法律評論》 責(zé)任編輯:fml
?。ū疚臑椤吨袊稍u論》2018年第2期卷首語(第1—4頁),原文3500余字,為閱讀方便,略去腳注,如需引用,請點此購刊,參閱原文。)
隨著大數(shù)據(jù)和人工智能技術(shù)的發(fā)展,許多院校都開始關(guān)注與此相關(guān)的法律問題,也分別設(shè)立了有關(guān)的研究機構(gòu),如大數(shù)據(jù)法律研究院、人工智能法治研究院、未來法治研究院等,大力推動與網(wǎng)絡(luò)、大數(shù)據(jù)、人工智能相關(guān)的現(xiàn)代科技和法律關(guān)系的研究和教學(xué)工作。
有的研究機構(gòu)還專門出版了網(wǎng)絡(luò)、人工智能研究的雜志,凸顯出法律界同行已經(jīng)開始關(guān)注網(wǎng)絡(luò)科技、人工智能等對傳統(tǒng)法制的挑戰(zhàn)。
“問題就是時代的口號。”
我們已經(jīng)進入人工智能的新時代,大數(shù)據(jù)和人工智能的發(fā)展深刻地影響著我們的社會生活,改變了我們的生產(chǎn)和生活方式,也深刻地影響社會的方方面面。但同時,它們也提出了諸多的法律問題,需要法學(xué)理論研究工作者予以回應(yīng)。
大數(shù)據(jù)是人工智能的一種重要分析工具,借助大數(shù)據(jù)分析技術(shù),人工智能可以進行相關(guān)的演練和操作。
大數(shù)據(jù)記載了我們過去發(fā)生的一切,現(xiàn)在發(fā)生的一切,并能準(zhǔn)確地預(yù)測我們的未來?,F(xiàn)代社會的人就好像“裸奔”一樣,我們的一切都有可能被他人“監(jiān)視”,都時刻可能暴露在“第三只眼”之下,“亞馬遜監(jiān)視著我們的購物習(xí)慣,谷歌監(jiān)視著我們的網(wǎng)頁瀏覽習(xí)慣,而微博似乎什么都知道,不僅竊聽到了我們心中的‘TA’,還有我們的社交關(guān)系網(wǎng)”。
無論我們走到哪里,只要攜帶手機,相關(guān)軟件借助于Cookie技術(shù),就可以時刻知道我們的準(zhǔn)確定位。例如,我們下載某新聞軟件后,其就可能準(zhǔn)確知道我們的地理位置,并相應(yīng)地推送與該地相關(guān)的新聞信息。
獲取海量大數(shù)據(jù)信息的主體,可以研究、開發(fā)以大數(shù)據(jù)為基礎(chǔ)的各種產(chǎn)品,并憑借大數(shù)據(jù)無窮的潛力獲取利益,從而刺激其進一步采集、分析人們的大數(shù)據(jù)信息。
隨著收集和分析方式越來越先進,成本越來越低廉,大規(guī)模數(shù)據(jù)收集已成為常態(tài),并越來越普遍,這就進一步加劇了對個人隱私的威脅。
大數(shù)據(jù)的價值并不限于初次利用,經(jīng)過整合和分析,其可以進行二次利用甚至多次利用,價值也較原始數(shù)據(jù)本身更高。很多數(shù)據(jù)在收集時并不確定其用途,但收集之后,其可能被許許多多的數(shù)據(jù)收集者進行各種創(chuàng)新用途。
人工智能的應(yīng)用在很大程度上需要借助大數(shù)據(jù)分析和處理技術(shù),應(yīng)當(dāng)專門設(shè)置相關(guān)的法律規(guī)則,防止人工智能應(yīng)用過程中的數(shù)據(jù)非法收集、泄露、販賣等問題,以有效保護個人信息的安全。
人工智能的發(fā)展涉及人格權(quán)保護問題。
現(xiàn)在很多人工智能系統(tǒng)把一些人的聲音、表情、肢體動作等植人內(nèi)部系統(tǒng),使所開發(fā)的人工智能產(chǎn)品可以模仿他人的聲音、形體動作等,甚至能夠像人一樣表達,并與人進行交流。但如果未經(jīng)他人同意而擅自進行上述模仿活動,就有可能構(gòu)成對他人人格權(quán)的侵害。
此外,人工智能還可能借助光學(xué)技術(shù)、聲音控制、人臉識別技術(shù)等,對他人的人格權(quán)客體加以利用,這也對個人聲音、肖像等的保護提出了新的挑戰(zhàn)。例如,光學(xué)技術(shù)的發(fā)展促進了攝像技術(shù)的發(fā)展,提高了攝像圖片的分辨率,使夜拍圖片具有與日拍圖片同等的效果,也使對肖像權(quán)的獲取與利用更為簡便。
此外,機器人伴侶已經(jīng)出現(xiàn),在虐待、侵害機器人伴侶的情形下,行為人是否應(yīng)當(dāng)承擔(dān)侵害人格權(quán)以及精神損害賠償責(zé)任呢?但這樣一來,是不是需要先考慮賦予人工智能機器人主體資格,或者至少具有部分權(quán)利能力呢?這確實是一個值得探討的問題。
人工智能的發(fā)展也涉及知識產(chǎn)權(quán)的保護問題。
從實踐來看,機器人已經(jīng)能夠自己創(chuàng)作音樂、繪畫,機器人寫作的詩歌集也已經(jīng)出版,這對現(xiàn)行知識產(chǎn)權(quán)法提出了新的挑戰(zhàn)。
例如,百度已經(jīng)研發(fā)出可以創(chuàng)作詩歌的機器人,微軟公司的人工智能產(chǎn)品“微軟小冰”已于2017年5月出版人工智能詩集《陽光失了玻璃窗》;在日本,機器人創(chuàng)作的小說甚至還通過了日本文學(xué)獎的初審,有的機器人甚至?xí)V曲、作畫,這些作品已經(jīng)可以在市面上銷售。
這就提出了一個問題,即這些機器人創(chuàng)作作品的著作權(quán)究竟歸屬于誰?是歸屬于機器人軟件的發(fā)明者?還是機器的所有權(quán)人?還是賦予機器人一定程度的法律主體地位從而由其自身享有相關(guān)權(quán)利?
人工智能的發(fā)展也可能引發(fā)知識產(chǎn)權(quán)的爭議。
智能機器人要通過一定的程序進行“深度學(xué)習(xí)”(deep learning)、“深度思維”(deep mind),在這個過程中有可能收集、儲存大量的他人已享有著作權(quán)的信息,這就有可能構(gòu)成非法復(fù)制他人的作品,從而構(gòu)成對他人著作權(quán)的侵害。
如果人工智能機器人利用獲取的他人享有著作權(quán)的知識和信息創(chuàng)作作品(例如,創(chuàng)作的歌曲中包含他人歌曲的音節(jié)、曲調(diào)),就有可能構(gòu)成剽竊。但構(gòu)成侵害知識產(chǎn)權(quán)的情形下,究竟應(yīng)當(dāng)由誰承擔(dān)責(zé)任,這本身也是一個問題。
人工智能的發(fā)展涉及數(shù)據(jù)財產(chǎn)的保護問題。
我國《民法總則》第127條對數(shù)據(jù)的保護規(guī)則作出了規(guī)定,數(shù)據(jù)在性質(zhì)上屬于新型財產(chǎn)權(quán),但數(shù)據(jù)保護問題并不限于財產(chǎn)權(quán)的歸屬和分配問題,還涉及這一類財產(chǎn)權(quán)的安全,特別是涉及國家安全。
人工智能的發(fā)展也對數(shù)據(jù)的保護提出了新的挑戰(zhàn),一方面,人工智能及其系統(tǒng)能夠正常運作,在很大程度上是以海量的數(shù)據(jù)為支撐的,在利用人工智能時如何規(guī)范數(shù)據(jù)的收集、儲存、利用行為,避免數(shù)據(jù)的泄露和濫用,并確保國家數(shù)據(jù)的安全,是亟須解決的重大現(xiàn)實問題。
另一方面,人工智能的應(yīng)用在很大程度上取決于其背后的一套算法,如何有效規(guī)范這一算法及其結(jié)果的運用,避免侵害他人權(quán)利,也需要法律制度予以應(yīng)對。例如,人工智能通過對一個人在網(wǎng)絡(luò)交易中取消訂單的頻繁程度進行分析,可以得出關(guān)于一個人社會信用狀況和交易能力的評價,此種評價可能對個人的經(jīng)濟生活產(chǎn)生重大影響。
目前,人工智能算法本身的公開性、透明性和公正性的問題,是人工智能時代的一個核心問題,但并未受到充分關(guān)注。
人工智能的發(fā)展還涉及侵權(quán)責(zé)任的認定問題。
人工智能引發(fā)的侵權(quán)責(zé)任問題很早就受到了學(xué)者的關(guān)注,隨著人工智能應(yīng)用范圍的日益普及,其引發(fā)的侵權(quán)責(zé)任認定和承擔(dān)問題將對現(xiàn)行侵權(quán)法律制度提出越來越多的挑戰(zhàn)。無論是機器人致人損害,還是人類侵害機器人,都是新的法律責(zé)任。
據(jù)報載,2016年11月,在深圳舉辦的第十八屆中國國際高新技術(shù)成果交易會上,一臺名為小胖的機器人突然發(fā)生故障,在沒有指令的前提下自行打砸展臺玻璃,砸壞了部分展臺,并導(dǎo)致一人受傷。
毫無疑問,機器人是人制造的,其程序也是制造者控制的,所以,在造成損害后,誰研制的機器人,就應(yīng)當(dāng)由誰負責(zé),似乎在法律上沒有爭議。人工智能就是人的手臂的延長,在人工智能造成他人損害時,當(dāng)然應(yīng)當(dāng)適用產(chǎn)品責(zé)任的相關(guān)規(guī)則。
其實不然,機器人與人類一樣,是用“腦子”來思考的,機器人的腦子就是程序。我們都知道一個產(chǎn)品可以追蹤屬于哪個廠家,但程序是不一定的,有可能是由眾多的人共同開發(fā)的,程序的產(chǎn)生可能無法追蹤到某個具體的個人或組織。
尤其是,智能機器人也會思考,如果有人故意挑逗,惹怒了它,它有可能會主動攻擊人類,此時是否都要由研制者負責(zé),就需要進一步研究。
前不久,深圳已經(jīng)測試無人駕駛公交線路,引發(fā)全球關(guān)注。但由此需要思考的問題就是,一旦發(fā)生交通事故,應(yīng)當(dāng)由誰承擔(dān)責(zé)任?能否適用現(xiàn)行機動車交通事故責(zé)任認定相關(guān)主體的責(zé)任?法律上是否有必要為無人駕駛機動車制定專門的責(zé)任規(guī)則?這確實是一個新問題。
今天,人工智能機器人已經(jīng)逐步具有一定程度的自我意識和自我表達能力,可以與人類進行一定的情感交流。有人估計,未來若干年,機器人可以達到人類50%的智力。
這就提出了一個新的法律問題,即我們將來是否有必要在法律上承認人工智能機器人的法律主體地位?在實踐中,機器人可以為我們接聽電話、語音客服、身份識別、翻譯、語音轉(zhuǎn)換、智能交通,甚至案件分析。
有人統(tǒng)計,現(xiàn)階段23%的律師業(yè)務(wù)已可由人工智能完成。機器人本身能夠形成自學(xué)能力,對既有的信息進行分析和研究,從而提供司法警示和建議。甚至有人認為,機器人未來可以直接當(dāng)法官,人工智能已經(jīng)不僅是一個工具,而且在一定程度上具有了自己的意識,并能作出簡單的意思表示。這實際上對現(xiàn)有的權(quán)利主體、程序法治、用工制度、保險制度、績效考核等一系列法律制度提出了挑戰(zhàn),我們需要妥善應(yīng)對。
人工智能時代已經(jīng)來臨,它不僅改變?nèi)祟愂澜?,也會深刻改變?nèi)祟惖姆芍贫?。本世紀(jì)初,華裔著名經(jīng)濟學(xué)家楊小凱就提出:如果中國僅僅重視技術(shù)模仿,而忽視制度建設(shè),后發(fā)優(yōu)勢就可能轉(zhuǎn)化為后發(fā)劣勢。
因此,我們不能僅注重技術(shù)的應(yīng)用,而忽視其可能帶來的負面效果。
不謀萬世者,不足以謀一時。法治不僅僅是要考慮當(dāng)下,也要考慮未來。法治要提供制度環(huán)境安排,這一安排的質(zhì)量將直接決定新興科技等的發(fā)育狀況。我們的法學(xué)理論研究應(yīng)當(dāng)密切關(guān)注社會現(xiàn)實,積極回應(yīng)大數(shù)據(jù)、人工智能等新興科學(xué)技術(shù)所帶來的一系列法律挑戰(zhàn),從而為我們立法的進一步完善提供有力的理論支撐。
特別是要充分認識和擁抱科學(xué)技術(shù)對社會生產(chǎn)和生活帶來的結(jié)構(gòu)性、革命性的影響,盡早觀察和預(yù)測未來法治發(fā)展的方向,促進良法制定,使我們的法律盡可能地契合未來的發(fā)展,成為未來科技發(fā)展的一股制度支持力量,而不能成為科技發(fā)展的障礙。
關(guān)注
微信
關(guān)注
微博