時間:2017-12-08 來源:《法律科學(xué)》2017年第5期 責(zé)任編輯:att2014
在人工智能技術(shù)日新月異的時代變革中,人類/機(jī)器人關(guān)系所引發(fā)的各種法律、政策和倫理問題緊迫地擺在我們的面前。如何調(diào)整“促進(jìn)”與“規(guī)制”人工智能發(fā)展的法律價值目標(biāo)?如何應(yīng)對人工智能技術(shù)帶來的社會風(fēng)險?如何設(shè)計人工智能時代的調(diào)控規(guī)范體系?這些問題不僅涉及對傳統(tǒng)法律制度的深刻反思,更是以“未來法學(xué)”問題為主旨的有益探索。
一、智能革命圖景:“最后的發(fā)明”抑或最大的風(fēng)險
進(jìn)入新世紀(jì)以來,人類社會的文明演化呈現(xiàn)出加速發(fā)展的態(tài)勢。21世紀(jì)的最初十年,以互聯(lián)網(wǎng)的普及使用為紐帶,社會結(jié)構(gòu)得以重新組織,人類社會與物理社會廣泛連接,自此開啟了與以往有別的網(wǎng)絡(luò)社會時代;時至2010年左右,基于廣泛分布的傳感技術(shù)、大規(guī)模數(shù)據(jù)存儲和通信技術(shù)的應(yīng)用,數(shù)據(jù)規(guī)模呈現(xiàn)指數(shù)型上升,地球村由此步入大數(shù)據(jù)時代;進(jìn)入新世紀(jì)第二個十年的下半段,伴隨著數(shù)據(jù)處理能力的飛速提高,人工智能對社會開始深度介入,世界正在走向人工智能時代。
整體而論,“人類在進(jìn)入到21世紀(jì)的三個關(guān)鍵時間點(diǎn),相繼出現(xiàn)了三個互相聯(lián)系又略有區(qū)別的新時代,即網(wǎng)絡(luò)社會時代、大數(shù)據(jù)時代、人工智能時代,三者共同構(gòu)成了新的社會時代。”
智能時代是以人工智能(Artificial Intelligence,簡稱AI)來命名的,作為研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),旨在了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似方式做出反應(yīng)的智能機(jī)器,其研究領(lǐng)域包括機(jī)器人、語音識別、圖像識別、自然語言處理和專家系統(tǒng)等。這一技術(shù)科學(xué)將改變甚至顛覆人類現(xiàn)存生產(chǎn)工作和交往方式,由此出現(xiàn)一個以新的技術(shù)結(jié)構(gòu)支撐新的社會結(jié)構(gòu)的人類新時代。
“這是最好的時代,也是最壞的時代”,英國文學(xué)巨匠狄更斯在其名著《雙城記》中的開篇話語,一百多年來不斷地被人引用。在這里,我們再次以此來描繪人工智能時代的未來圖景。一方面,智能革命無疑將給我們帶來一個更美好的社會,它是智能的、精細(xì)化和人性化的“最好時代”。
在云計算、大數(shù)據(jù)、深度學(xué)習(xí)算法、人腦芯片的催化下,人工智能模擬和表現(xiàn)了人類的智慧動力,并以高于人類的工作速度、優(yōu)于人類的工作精度、勝于人類的工作態(tài)度,協(xié)助人類解決各種各樣的問題,包括危險場合和極端環(huán)境的難題,從而形成人類智慧的創(chuàng)造力優(yōu)勢與人工智能的操作性優(yōu)勢之間的強(qiáng)強(qiáng)合作。人工智能現(xiàn)已成為全球新一輪科技革命和產(chǎn)業(yè)變革的著力點(diǎn),在人類智慧能力無窮增大的“科學(xué)夢”背后,是一片蘊(yùn)藏?zé)o限生機(jī)的產(chǎn)業(yè)“新藍(lán)?!薄?/span>
社會正在從“互聯(lián)網(wǎng)+”向“人工智能+”轉(zhuǎn)型,舊領(lǐng)域生發(fā)出新的產(chǎn)業(yè)形態(tài),多領(lǐng)域催生了新興的細(xì)分行業(yè),由此創(chuàng)造出巨大的經(jīng)濟(jì)價值和社會財富。在谷歌、臉譜、IBM等領(lǐng)軍企業(yè)的帶領(lǐng)下,全球?qū)θ斯ぶ悄艿年P(guān)注度不斷提升。截至2015年,人工智能國際市場的規(guī)模為1683億元,預(yù)計到2018年將增至2697億元,增長率達(dá)到17%。在投資規(guī)模方面,2015年為484億元,預(yù)計到2020年,投資總量將達(dá)到1190億元。
可以認(rèn)為,人工智能將從專業(yè)性較強(qiáng)的領(lǐng)域逐步拓展到社會生活的各個方面,人類未來會在“萬物皆互聯(lián)、無處不計算”的環(huán)境下精準(zhǔn)生活。但另一方面,智能革命也將給我們帶來諸多麻煩,也許我們面臨著一個社會問題叢生和安全隱患不斷的“最壞時代”。
到目前為止,人工智能已在全球范圍內(nèi)逐步建立起自己的生態(tài)格局,并開始深度介入人類的社會生活。2016年,距離麥卡錫、明斯基、香農(nóng)等人提出人工智能的概念正好過去60年。在過去的一年,人們看到了許多存在于科幻小說的內(nèi)容成為現(xiàn)實(shí):人工智能擊敗了人類頂尖棋手,自動駕駛汽車技術(shù)日趨成熟,生產(chǎn)線上活躍著“機(jī)器人”群體…… “智能時代,未來已來”。人們在為人工智能的強(qiáng)大能力感到驚嘆的同時,也激發(fā)了對人工智能安全問題的普遍憂慮,人工智能是否成為人類“最后的發(fā)明”?我們應(yīng)該如何看待人工智能的潛在風(fēng)險?
人工智能對人類社會的潛在風(fēng)險,聚焦于威脅人類自身安全的可能性,涉及人類基本權(quán)益的生命與健康、尊嚴(yán)與隱私、安全與自由。科學(xué)家認(rèn)為,人工智能存在著威脅人類存續(xù)的可能性,但這種風(fēng)險不是由于自發(fā)的惡意所引起,而應(yīng)來自人工智能發(fā)展過程中出現(xiàn)的不可預(yù)測性和潛在的不可逆性。
質(zhì)言之,人類有智慧能力創(chuàng)造出人工智能,也應(yīng)有能力和理智來控制人工智能。因此,“最好是期待人類的聰明才智,而非低估它;最好是承認(rèn)風(fēng)險的存在,而非否認(rèn)它?!蔽覀儜?yīng)當(dāng)思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰(zhàn)面前,增強(qiáng)風(fēng)險認(rèn)識能力,提高制度風(fēng)險意識,通過法律和其他社會規(guī)范來預(yù)防規(guī)避風(fēng)險,引導(dǎo)規(guī)范人工智能技術(shù)健康發(fā)展,這即是法學(xué)家、法律家的任務(wù)。
人工智能的首要問題是安全問題,可以置于風(fēng)險社會理論的研究范疇之中。德國學(xué)者貝克認(rèn)為,人類面臨著威脅其生存的由社會所制造的風(fēng)險?,F(xiàn)代化正在成為它自身的主題和問題,因此變得具有反思性。風(fēng)險概念表明人們創(chuàng)造了一種文明,以便使自己的決定將會造成的不可預(yù)見的后果具備可預(yù)見性,從而控制不可控制的事情。
在風(fēng)險理論中,人工智能存在著現(xiàn)代性的負(fù)面影響,因此有必要采取風(fēng)險措施,即預(yù)防性行為和因應(yīng)性的制度。對風(fēng)險社會問題的法學(xué)研究,其重點(diǎn)是法律制度與法律秩序?!胺芍贫鹊膬r值和意義就在于規(guī)范和追尋技術(shù)上的可以管理的哪怕是可能性很小或影響范圍很小的風(fēng)險和災(zāi)難的每一個細(xì)節(jié)?!倍芍刃騽t是法律制度實(shí)行和實(shí)現(xiàn)的效果,即社會生活基本方面的法律和制度化?,F(xiàn)代社會是法治社會,制度風(fēng)險及風(fēng)險法律控制是風(fēng)險社會法學(xué)研究理論的基本內(nèi)涵。
人工智能既是人類文明,亦有社會風(fēng)險。它或是“技術(shù)—經(jīng)濟(jì)”決策導(dǎo)致的風(fēng)險,也可能是法律所保護(hù)的科技文明本身所帶來的風(fēng)險。換言之,知識問題是現(xiàn)代性風(fēng)險的根本成因,制度以至法律選擇的實(shí)質(zhì)應(yīng)是基于風(fēng)險的決策。正是在這個意義上,貝克提出知識經(jīng)濟(jì)就是“風(fēng)險經(jīng)濟(jì)”,“風(fēng)險就是知識中的風(fēng)險”。具體說來,人工智能時代的社會風(fēng)險具有以下特點(diǎn):
一是風(fēng)險的共生性。風(fēng)險社會的內(nèi)在風(fēng)險,基于技術(shù)性風(fēng)險和制度化風(fēng)險而形成,且存在共生狀態(tài)。人工智能時代是一個高度技術(shù)化的社會,科學(xué)技術(shù)的高度發(fā)展既是風(fēng)險社會的特征,也是風(fēng)險社會的成因。現(xiàn)代社會中的風(fēng)險是“被制造出來的風(fēng)險”,是由我們不斷發(fā)展的知識對這個世界的影響所產(chǎn)生的風(fēng)險。
馬克斯?韋伯形象地指出,人類在不久的將來注定會生活在“技術(shù)知識的囚室”。人工智能是知識革命中最具代表性和影響力的時代技術(shù)?!皩χR體系和技術(shù)性知識的信任,是人們在風(fēng)險社會中獲得和持有本體性安全的基礎(chǔ)和保證。”從“反思的現(xiàn)代性出發(fā),對法律及其保護(hù)的先進(jìn)技術(shù)僅為信任是不夠的,人工智能在其發(fā)展過程中出現(xiàn)的不可預(yù)測性和潛在的不可逆性”,其本身就是一種風(fēng)險。
同時,人工智能時代的風(fēng)險含義,還依賴于這樣的一個事實(shí),即文明的決策可能觸發(fā)全球化進(jìn)程中的一系列問題和一連串的風(fēng)險,直言之,“風(fēng)險以決策為先決條件”。制度風(fēng)險可能來自我們的工業(yè)制度、科技政策乃至法律規(guī)則,或是表現(xiàn)為對新技術(shù)無措的“制度缺失”,或是表現(xiàn)為對新技術(shù)錯判的“制度失敗”。這些即是規(guī)則運(yùn)轉(zhuǎn)失靈的風(fēng)險,其結(jié)果形成制度化風(fēng)險。
二是風(fēng)險的時代性。在風(fēng)險社會理論中,風(fēng)險社會這一概念并不是社會發(fā)展類型的某一歷史分期,也不是某個具體社會和國家的現(xiàn)實(shí)發(fā)展階段,而是對當(dāng)今人類時代問題的理論概括與形象描述。智能革命是時代的產(chǎn)物,其特點(diǎn)是人類智力與人工智力的結(jié)合,智能技術(shù)導(dǎo)致智力物質(zhì)化、社會智能化,最終出現(xiàn)智能社會。
智能社會的形成將是一個長期的過程,或者說是一個時代變遷。以人類思維能力和意識的遷移為表征,以智能機(jī)器人的活動為中心,人工智能的發(fā)展將會遞進(jìn)呈現(xiàn)出不同階段。如何應(yīng)對智能時代中現(xiàn)實(shí)世界與理念世界的分離,如何防范病毒、黑客對人工智能產(chǎn)品的侵蝕,這種高科技所引發(fā)的高風(fēng)險會持續(xù)整個智能革命的時代過程,它是現(xiàn)實(shí)的風(fēng)險,也是未來潛在的風(fēng)險。
三是風(fēng)險的全球性。經(jīng)濟(jì)全球化、科技全球化、信息全球化乃至治理機(jī)制的全球化,不可避免地帶來風(fēng)險的全球性。反全球化主義者認(rèn)為,全球化正在催生另一種形態(tài)的帝國體制:互聯(lián)網(wǎng)是“信息帝國主義”,世界貿(mào)易組織是“市場帝國主義”,國際貨幣基金組織是“金融帝國主義”,而聯(lián)合國是“政治外交的帝國主義”。貝克對此作出了自己的判斷:全世界面臨著社會認(rèn)同解體、價值利益沖突、主體組織對立、國家立場對峙、生態(tài)環(huán)境破壞等不確定因素,這些危機(jī)與發(fā)展遍布全球,形成對人類生存的新威脅。
可以認(rèn)為,風(fēng)險社會是一種“全球風(fēng)險社會”,風(fēng)險的空間影響超越了地理邊界和社會文化的邊界。正如吉登斯所言,“在全球化的時代里,風(fēng)險的影響被普遍化了?!痹谌斯ぶ悄茱L(fēng)險的國際應(yīng)對方面,2016年聯(lián)合國發(fā)布《人工智能政策報告》,表達(dá)了對人工智能的關(guān)注,并針對人工智能技術(shù)發(fā)展帶來的各種問題,提出了新的思考方式和解決途徑。報告呼吁世界各國加強(qiáng)在人工智能技術(shù)研究與開發(fā)領(lǐng)域的合作,共同應(yīng)對智能機(jī)器人在就業(yè)、倫理道德以及法律層面帶來的挑戰(zhàn)。
科學(xué)技術(shù)在人類的文明進(jìn)步中總是扮演著最活躍、最革命的角色。面對智能革命,我們不能逃避它、否定它和阻止它。上述判斷依賴于以下兩點(diǎn)事實(shí):
第一,人工智能技術(shù)在造福人類的同時也加大了人類危害自身的可能性,這即是技術(shù)的負(fù)面性與風(fēng)險的不確定性的聯(lián)系。
第二,傳統(tǒng)社會治理體系無力解決工業(yè)社會過度發(fā)展而產(chǎn)生的社會問題,這即是法律的確定性與風(fēng)險的不確定性的背離。對于現(xiàn)代各國而言,人工智能發(fā)展的政策考量,其實(shí)是基于風(fēng)險的制度選擇和法律安排,我們應(yīng)“通過法律化解風(fēng)險”,“通過法律吸納風(fēng)險”,“將風(fēng)險社會置于法治社會的背景之中”,即對智能革命時代的法律制度乃至整個社會規(guī)范進(jìn)行新的建構(gòu)。
二、人工智能技術(shù)在挑戰(zhàn)我們的法律
智能革命的出現(xiàn),對當(dāng)下的倫理標(biāo)準(zhǔn)、法律規(guī)則、社會秩序及公共管理體制帶來一場前所未有的危機(jī)和挑戰(zhàn)。它不僅與已有法律秩序形成沖突,凸顯現(xiàn)存法律制度產(chǎn)品供給的缺陷,甚至?xí)嵏参覀儤I(yè)已構(gòu)成的法律認(rèn)知。就調(diào)整人工智能相關(guān)社會關(guān)系的法律制度而言,人們的擔(dān)憂多于期待、疑慮甚于創(chuàng)制?,F(xiàn)擇其主要問題分析如下:
(一)機(jī)器人法律資格的民事主體問題
隨著人工智能技術(shù)的快速發(fā)展,機(jī)器人擁有越來越強(qiáng)大的智能,機(jī)器人與人類的差別有可能逐漸縮小。未來出現(xiàn)的機(jī)器人將擁有生物大腦,甚至可以與人腦的神經(jīng)元數(shù)量相媲美。美國未來學(xué)家甚至預(yù)測:在本世紀(jì)中葉,非生物智能將會10億倍于今天所有人的智慧。
是否賦予機(jī)器人以虛擬的“法律主體資格”,在過去的一段時期,美英等國的哲學(xué)家、科學(xué)家包括法律家都為此開展過激烈的爭論。2016年,歐盟委員會法律事務(wù)委員會向歐盟委員會提交動議,要求將最先進(jìn)的自動化機(jī)器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權(quán)利和義務(wù)”外,還建議為智能自動化機(jī)器人進(jìn)行登記,以便為其進(jìn)行納稅、繳費(fèi)、領(lǐng)取養(yǎng)老金的資金賬號。該項(xiàng)法律動議如獲通過,無疑使得傳統(tǒng)的民事主體制度產(chǎn)生動搖。
機(jī)器人是機(jī)器還是人,在法理上涉及到主客體二分法的基本問題。在民法體系中,主體(人)與客體(物)是民法總則的兩大基本制度。主體與客體、人與物之間有著嚴(yán)格的區(qū)別。凡是人以外的不具有精神、意思的生物歸屬于物,是為權(quán)利的客體。主客體之間這種不可逾越的鴻溝現(xiàn)在正發(fā)生動搖。
從基因時代到智能時代的一個重要變化是,傳統(tǒng)民法的主、客體框架已然打破:人的遺傳基因物質(zhì)不能簡單作為客體物看待,而沒有生命但具有人工智能的機(jī)器人也有可能被賦予法律資格。將機(jī)器人視為“人”,賦予其相應(yīng)的主體資格,難以在現(xiàn)有的民法理論中得到合理的解釋。民法意義上的人,須具有獨(dú)立之人格(權(quán)利能力),該主體既包括具有自然屬性的人(自然人),也包括法律擬制的人(法人)。日本學(xué)者北川善太郎認(rèn)為,在民法上,“法的人格者等于權(quán)利能力者”,關(guān)于人或法人的規(guī)定,“表現(xiàn)了最抽象化層次的抽象的法人格”。
法人格概念的意義在于揭示民事主體的內(nèi)在統(tǒng)一性和其實(shí)質(zhì),界定主體與客體的關(guān)系?!懊袷履芰Ω拍畹囊饬x在于揭示民事主體的差異性,具體刻畫民事主體存在與活動的狀態(tài)與特征?!?/span>
從法律技術(shù)邏輯層面看,《德國民法典》以權(quán)利能力核心概念為中心,進(jìn)行主體人格的制度設(shè)計。在財產(chǎn)權(quán)領(lǐng)域,這種構(gòu)架中的邏輯關(guān)系就是“經(jīng)濟(jì)人—權(quán)利能力—法律人”。在自然人人格場合,“法律人”的成立是以倫理價值為依據(jù),將倫理價值從人的范疇中抽去之后,即通過權(quán)利能力將“生物人”自然本性與“法律人”的法律屬性直接連接的。而在法人人格場合,由于權(quán)利能力扮演“團(tuán)體人格”的角色,從而形成“團(tuán)體—權(quán)利能力—法律人”的邏輯關(guān)系,從而使得法人與同為“法律人”的自然人一樣在某些方面享有人格利益成為可能。
基于上述分析,可以認(rèn)為:機(jī)器人不是具有生命的自然人,也區(qū)別于具有自己獨(dú)立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處。據(jù)多數(shù)科技專家研究,由于人造機(jī)器沒有自身的目的,其工作目的非常特定,且為人類設(shè)計者所設(shè)計。質(zhì)言之,機(jī)器人生成的目的行為,與人類有目的、有意識的行為性質(zhì)完全不同;同時,機(jī)器人沒有自身積累的知識,其機(jī)器知識庫的知識都是特定領(lǐng)域的,并且都是人類輸入的。
在這種情況下,模擬和擴(kuò)展“人類智能”機(jī)器人雖具有相當(dāng)智性,但不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡單等同的。換言之,受自然人、自然人集合體——民事主體控制的機(jī)器人,尚不足以取得獨(dú)立的主體地位。
(二)人工智能生成作品的著作權(quán)問題
人工智能的實(shí)質(zhì),是“讓機(jī)器從事需要人的智能工作”,包括下棋、解題、從事數(shù)學(xué)發(fā)現(xiàn)、學(xué)習(xí)新的概念、解釋視覺場景、診斷疾病、推理?xiàng)l件等?;诖耍膶W(xué)、藝術(shù)和科學(xué)作品的創(chuàng)作也在機(jī)器人的智能范圍之內(nèi)。從計算機(jī)到機(jī)器人的發(fā)展,在作品創(chuàng)作方面即是一個從閱讀到寫作的跨越。
在機(jī)器人時代,某些作品就是人工智能的生成內(nèi)容。據(jù)美國Narrative Science的預(yù)測,未來15年將有90%的新聞稿件由機(jī)器人完成,大量的美術(shù)、音樂等藝術(shù)作品也將出自人工智能創(chuàng)作。機(jī)器人的寫作方式,采取“信息→知識→智能”的技術(shù)路徑,基于“人機(jī)合作”系統(tǒng)而導(dǎo)致內(nèi)容生成。該行為是否構(gòu)成法律意義上的“獨(dú)創(chuàng)性”或“主觀能動性”,一些國家和地區(qū)的法學(xué)家試圖作出正面回應(yīng)。
有消息稱,日本準(zhǔn)備立法保障人工智能的著作權(quán)作品,以防止機(jī)器人創(chuàng)作中的抄襲之風(fēng);歐盟法律事務(wù)委員會提出動議,擬賦予機(jī)器人以著作權(quán)。
關(guān)于人工智能的生成作品,著作權(quán)法有兩個問題需要解決,即機(jī)器人設(shè)計的作品是否享有權(quán)利?該項(xiàng)權(quán)利應(yīng)歸屬于機(jī)器還是創(chuàng)制機(jī)器的人?據(jù)專家研究,人工智能生成的作品,目前還處于在特定的格式和寫作模板下傳達(dá)信息、表達(dá)意思的階段,尚不能無限定格式地寫作內(nèi)容。盡管機(jī)器人稿件的表達(dá)技巧有限,但仍可以視為著作權(quán)法意義上的作品。依世界知識產(chǎn)權(quán)組織的權(quán)威解釋,作品須具獨(dú)創(chuàng)性,即“作品是作者自己的創(chuàng)作,完全不是或基本上不是從另一作品抄襲來的?!?/span>
這就是說,人工智能生成之內(nèi)容,只要由機(jī)器人獨(dú)立完成,即構(gòu)成受著作權(quán)保護(hù)的作品,至于其用途、價值和社會評價則在所不問。機(jī)器人作品享有著作權(quán),但機(jī)器人并不能像自然人作者或法人作者那樣去行使權(quán)利,換言之,該項(xiàng)著作權(quán)應(yīng)歸屬于機(jī)器人的創(chuàng)造人或所有人。
這是因?yàn)?,機(jī)器人是機(jī)器而不是“人”,它是依靠數(shù)據(jù)和算法而完成寫作,該機(jī)器人以及其寫作的技術(shù)路徑無一不是人類創(chuàng)制。在這種情況下,法律可以通過保護(hù)機(jī)器人作品以達(dá)到保護(hù)機(jī)器人的創(chuàng)造人和所有人的目的。具言之,可參照著作權(quán)法關(guān)于職務(wù)作品或雇傭作品的規(guī)定,由創(chuàng)制機(jī)器的“人”而不是機(jī)器人去享有和行使權(quán)利。
(三)智能系統(tǒng)致人損害的侵權(quán)法問題
智能型“新一代機(jī)器人”,與傳統(tǒng)的執(zhí)行重復(fù)任務(wù)的工業(yè)機(jī)器人不同,它擁有相對的自主權(quán)和更高的人工智能水平,且將廣泛而深入地參與人類社會的生活?!爸悄苄蜋C(jī)器人”的廣泛使用,在帶來高效和便捷的同時也不可避免對人類帶來傷害。
機(jī)器人致人損害有兩種情形:
一是侵權(quán)人對智能系統(tǒng)進(jìn)行非法控制而造成的損害。例如,黑客、病毒等人為因素侵入互聯(lián)網(wǎng),進(jìn)而控制人類家庭的兒童看護(hù)機(jī)器人、助老機(jī)器人、護(hù)士機(jī)器人或其他智能系統(tǒng),由此導(dǎo)致危及人類的后果。在這種情況下,發(fā)動黑客攻擊或傳輸病毒的侵權(quán)人應(yīng)該承擔(dān)法律責(zé)任自不待言,這些不是本文研究的主要話題;
二是智能系統(tǒng)自身的產(chǎn)品瑕疵而造成的損害。據(jù)報道,早在上個世紀(jì)80年代,日本即發(fā)生過工業(yè)機(jī)器在作業(yè)現(xiàn)場將工人置入機(jī)器壓死的事件;2007年,美國食品藥品監(jiān)督管理局收到200多份投訴,指控醫(yī)療外科手術(shù)機(jī)器人對病人造成燒傷、切割傷以及感染,其中包含89例導(dǎo)致病患死亡。
上述致人損害的事由,究竟是機(jī)器人創(chuàng)制者的技術(shù)漏洞,抑或智能機(jī)器管理人的不當(dāng)使用?甚至可能是人工智能系統(tǒng)超越原控制方案的“自身行為”?在這種情況下,就必須對機(jī)器人的過錯行為原因進(jìn)行分析,以查找侵權(quán)主體構(gòu)成并分擔(dān)賠償責(zé)任。
關(guān)于智能系統(tǒng)致人損害責(zé)任的認(rèn)定,有兩種責(zé)任方式可供選擇:
一是基于行為人過失所產(chǎn)生的產(chǎn)品責(zé)任。在侵權(quán)責(zé)任法中,產(chǎn)品責(zé)任是指產(chǎn)品生產(chǎn)者、銷售者因生產(chǎn)、銷售缺陷產(chǎn)品致使他人遭受人身損害、財產(chǎn)損失或有致使他人遭受人身、財產(chǎn)損害之虞而應(yīng)承擔(dān)的特殊侵權(quán)責(zé)任。致人損害的產(chǎn)品,必須存在缺陷,它包括制造缺陷、設(shè)計缺陷、警示缺陷、跟蹤觀察缺陷。
上述情形符合智能系統(tǒng)致人損害責(zé)任的一般特征。2016年,聯(lián)合國教科文組織會同世界科學(xué)知識與技術(shù)倫理委員會發(fā)布報告指出,由于機(jī)器人一般被視為通常意義上的科技產(chǎn)品,機(jī)器人以及機(jī)器人技術(shù)造成的損害,可由民法中產(chǎn)品責(zé)任的相關(guān)規(guī)定進(jìn)行調(diào)整。從產(chǎn)品責(zé)任的認(rèn)定條件來看,機(jī)器人造成的損害可歸類于機(jī)器人制造者和銷售者的過失,包括產(chǎn)品制造的過失、產(chǎn)品設(shè)計的過失、產(chǎn)品警告的過失以及沒有盡到合理的注意義務(wù)。
二是基于技術(shù)中立原則所產(chǎn)生的替代責(zé)任。關(guān)于技術(shù)產(chǎn)品致人損害,技術(shù)中立原則可提供責(zé)任規(guī)避。所謂技術(shù)中立原則,是指任何技術(shù)本身原則上都不產(chǎn)生責(zé)任承擔(dān),但是一項(xiàng)特定技術(shù)的主要商業(yè)用途是用來從事侵權(quán)或其他違法行為的,那么該項(xiàng)技術(shù)即不適用“技術(shù)中立”原則。在這種情況下,適用替代責(zé)任較為適宜。替代責(zé)任又稱為轉(zhuǎn)承責(zé)任,最初出現(xiàn)在代理關(guān)系與雇傭關(guān)系中,即被代理人對代理人實(shí)施的,得到被代理人“授權(quán)”或“批準(zhǔn)”的侵權(quán)行為承擔(dān)責(zé)任;雇主對其雇員在“雇傭期間”實(shí)施的侵權(quán)行為承擔(dān)責(zé)任,概稱為“為他人侵權(quán)行為承擔(dān)責(zé)任”。
在替代責(zé)任情形中,機(jī)器人本無瑕疵,符合技術(shù)中立原則要求,但機(jī)器人的所有人或使用人,或不盡善良管理人之義務(wù),或放任機(jī)器人的侵權(quán)行為,則不能以技術(shù)中立原則免除責(zé)任。
(四)人類隱私保護(hù)的人格權(quán)問題
網(wǎng)絡(luò)空間是一個真實(shí)的虛擬存在,是一個沒有物理空間的獨(dú)立世界。在這里,人類實(shí)現(xiàn)了與肉體分離的“數(shù)字化生存”,擁有了“數(shù)字化人格”。所謂數(shù)字化人格就是“通過個人信息的收集和處理勾畫一個在網(wǎng)絡(luò)空間的個人形象”——即憑借數(shù)字化信息而建立起來的人格。
個人信息包括了當(dāng)事人不愿他人知道或他人不便知道的隱私信息,主要類別有:個人登錄的身份和健康狀況、個人的信用和財產(chǎn)狀況、電子郵箱地址、網(wǎng)絡(luò)活動蹤跡等。在信息化社會,這些零散的和廣泛的個人信息有可能被收集,并進(jìn)行數(shù)據(jù)處理,從而拼合成所謂數(shù)字化人格——在很大程度上是被迫建立的人格,個人毫不知情的人格。在今天和未來,當(dāng)移動互聯(lián)網(wǎng)、大數(shù)據(jù)和機(jī)器智能三者疊加后,我們生活在一個“無隱私的社會”。
面對大數(shù)據(jù)對個人隱私潛在的威脅,我們必須重視智能革命時代隱私權(quán)的保護(hù),有三點(diǎn)舉措可供采用:
一是增強(qiáng)自我保護(hù)意識。在當(dāng)下的移動互聯(lián)和今后的萬物聯(lián)網(wǎng)的時代,我們本身就是隱私的泄密者:智能手機(jī)安裝了太多而不甚使用的APP,社交網(wǎng)絡(luò)講了太多而不適宜公開發(fā)表的言論,都可能造成隱私泄露;還有各種電子產(chǎn)品,從帶有GPS的照相機(jī)到與WIFE相連的智能電器,都精細(xì)地記錄私人的行蹤和生活信息。在人工智能時代,挖掘個人隱私是由機(jī)器完成的,因此保護(hù)隱私,須從自己做起,對智能電器有防范之心;
二是強(qiáng)化企業(yè)保護(hù)用戶隱私的責(zé)任。企業(yè)須負(fù)有保護(hù)用戶隱私的意愿和責(zé)任,“這將是用戶隱私是否得到有效保護(hù)的關(guān)鍵”。在當(dāng)下,用戶數(shù)據(jù)日益聚集在大型互聯(lián)網(wǎng)或數(shù)據(jù)處理的企業(yè)手中,對其進(jìn)行保護(hù)個人隱私的責(zé)任約束就顯得非常重要。在歐盟和美國,根據(jù)政府要求,也出于用戶主張,服務(wù)條款應(yīng)特別聲明從用戶獲得的數(shù)據(jù)屬于用戶本人,如對個人數(shù)據(jù)有不當(dāng)處置,應(yīng)承擔(dān)責(zé)任。這不僅是合同規(guī)定的違約責(zé)任,也是違反法律的侵權(quán)責(zé)任。
三是加強(qiáng)網(wǎng)絡(luò)、電訊隱私保護(hù)的專門立法。隱私權(quán)的保護(hù)應(yīng)以民法保護(hù)為基礎(chǔ),明確隱私權(quán)的權(quán)利屬性、權(quán)能內(nèi)容、保護(hù)方式等;同時以專門法律保護(hù)為補(bǔ)充,規(guī)定特定領(lǐng)域的特定主體隱私保護(hù)的原則和辦法。
例如,美國1974年制定《聯(lián)邦隱私權(quán)法》,是為隱私權(quán)保護(hù)的基本法,后又于1986年通過《聯(lián)邦電子通訊隱私法案》,2000年出臺《兒童網(wǎng)上隱私保護(hù)法》,此外還頒布了《公民網(wǎng)絡(luò)隱私權(quán)保護(hù)暫行條例》、《個人隱私與國家信息基礎(chǔ)設(shè)施》等法律。
歐盟則在1997年通過《電信事業(yè)個人數(shù)據(jù)處理及隱私保護(hù)指令》之后,又先后制定了《網(wǎng)上個人隱私權(quán)保護(hù)的一般原則》、《信息公路上個人數(shù)據(jù)收集處理過程中個人權(quán)利保護(hù)指南》等相關(guān)法規(guī)。隱私權(quán)的保護(hù),是信息時代特別是人工智能時代的法律難題。智能革命不斷深入發(fā)展的過程,亦是隱私安全風(fēng)險增大與法律保護(hù)強(qiáng)化的過程。
(五)智能駕駛系統(tǒng)的交通法問題
人工智能在交通領(lǐng)域的重要應(yīng)用是網(wǎng)聯(lián)自動駕駛。智能駕駛通過導(dǎo)航系統(tǒng)、傳感器系統(tǒng)、智能感知算法、車輛控制系統(tǒng)等智能技術(shù),實(shí)現(xiàn)了“人工智能+無人駕駛”,顛覆了以往的人車關(guān)系、車車關(guān)系。為推動智能駕駛產(chǎn)業(yè)的發(fā)展,美、德、日等國都在探索,甚至出臺了有關(guān)交通責(zé)任分配的法律規(guī)范和安全檢測市場準(zhǔn)入的監(jiān)管政策。
無人駕駛汽車可能帶來的法律問題,主要有:
一是法律規(guī)制對象的轉(zhuǎn)變。無人駕駛意味著交通領(lǐng)域的準(zhǔn)入資格,不再是駕駛?cè)说鸟{駛技術(shù),而是無人駕駛汽車的智能化水平。換言之,隨著無人駕駛中駕駛?cè)烁拍畹南?,法律?guī)制的對象不再是車輛的駕駛?cè)藛T,而將是智能駕駛系統(tǒng)的開發(fā)者、制造者;
二是法律責(zé)任體系的重構(gòu)。以過錯責(zé)任為基礎(chǔ)而建立的“風(fēng)險分配”責(zé)任體系,在未來的交通法規(guī)中將不復(fù)存在。對于道路交通事故的認(rèn)定,其歸責(zé)事由只有結(jié)果的“對與錯”,而無主觀上的“故意”或“過失”。
三是交通監(jiān)管重心的變化。以交通安全為目標(biāo),以往交通管理部門監(jiān)管的重點(diǎn)是汽車裝置的安全性能和駕駛?cè)税踩{駛技能;而在智能駕駛中,避險保障和精確駕駛的軟硬件體系,是道路交通檢測、準(zhǔn)入的重點(diǎn)。
(六)機(jī)器“工人群體”的勞動法問題
人工智能技術(shù)發(fā)展的基本面向,是對人-機(jī)關(guān)系的改變。智能機(jī)器人的大規(guī)模應(yīng)用,一方面推動了社會生產(chǎn)力的發(fā)展,大大提高了生產(chǎn)效率;另一方面也帶來了社會結(jié)構(gòu)的變化,使得人與機(jī)器人的關(guān)系成為社會生活的重要方面。以保護(hù)勞動者利益為宗旨的勞動法,面臨著前所未有的兩個難題:
一是傳統(tǒng)勞動法的調(diào)整功能消減。據(jù)牛津大學(xué)的調(diào)研報告,未來將有1000萬非技術(shù)工種被機(jī)器人取代,其中包括文秘、工人、中介、司機(jī)等一大批崗位。報告特別指出,目前軟件工程師所做的工作將會被智能機(jī)器人所代替,即創(chuàng)造者被其創(chuàng)造的技術(shù)產(chǎn)品所代替。這些都對現(xiàn)有勞動者的權(quán)利帶來沖擊。大批勞動者離開傳統(tǒng)崗位,其權(quán)益救濟(jì)更多是尋求社會保障法,那么“勞動法是否面臨消亡的命運(yùn)?”
二是未來勞動法將面臨新的調(diào)整對象。機(jī)器人搶掉人類的飯碗,人工智能“工人群體”正在形成。對機(jī)器人權(quán)利保護(hù)或者說禁止對機(jī)器人濫用,在當(dāng)下尚是一個社會倫理問題,而在未來就成為勞動立法問題。
歐盟法律事務(wù)委員會動議,主張人工智能具有“工人”身份,并賦予其勞動權(quán)等“特定權(quán)利與義務(wù)”;韓國政府起草了《機(jī)器人倫理憲章》,其要點(diǎn)包括:保證人類能夠控制機(jī)器人、保護(hù)機(jī)器人獲得的數(shù)據(jù)、禁止人類違法使用機(jī)器人、防止人類虐待機(jī)器人,應(yīng)該認(rèn)識到:智能機(jī)器人本質(zhì)是為機(jī)器,但亦有人的屬性,對智能機(jī)器人的尊重就是對人類自身的尊重??梢灶A(yù)見,上述倫理規(guī)范將成為未來立法的組成部分。
法律制度總是滯后的,但關(guān)于法律問題思考應(yīng)該是前瞻的。面向智能革命時代,我們應(yīng)在認(rèn)識和分析現(xiàn)行法律困境的基礎(chǔ)上,探索與科學(xué)文明相伴而生的制度文明,創(chuàng)制出有利于人工智能健康、有序發(fā)展的社會規(guī)范體系。
三、面向未來時代的制度構(gòu)成:法律、政策與倫理
法律制度的發(fā)展與變革,每一過程的路徑選擇和規(guī)則設(shè)計,其法律思維一般都是客觀事實(shí)分析與主觀價值判斷的綜合。就法律制度建設(shè)而言,如果總是基于技術(shù)及其效應(yīng)的充分顯現(xiàn),以此形成以技術(shù)事實(shí)為基礎(chǔ)的社會規(guī)范,那么法律制度的滯后現(xiàn)象將會十分嚴(yán)重,最終導(dǎo)致技術(shù)法律對技術(shù)“匡正”的失效和無力。
“我們所體驗(yàn)到的那種無能為力并不是個人失敗的標(biāo)志,而是反映出我們的制度無能為力。我們需要重構(gòu)我們曾經(jīng)有過的這些制度,或者建立新的制度?!泵嫦蛭磥頃r代的制度構(gòu)成,應(yīng)以人工智能的技術(shù)發(fā)展與規(guī)制為主題,形成包含法律規(guī)則、政策規(guī)定和倫理規(guī)范的社會治理體系。關(guān)于理念、規(guī)范、體制與機(jī)制的制度設(shè)計,筆者擬提出如下構(gòu)想:
(一)以安全為核心的多元價值目標(biāo)
人工智能法律的價值分析,源于法律理想與現(xiàn)實(shí),應(yīng)然與實(shí)然的對立。人工智能時代的法價值即是人類法律理想價值觀的追求,是價值這一哲學(xué)范疇的法律化表現(xiàn)。法律的理想價值總是高于法律現(xiàn)實(shí)價值,可以為法律制度的演進(jìn)提供目標(biāo)指引和持續(xù)動力。
人工智能法律既具有一般法價值的構(gòu)成要素,又有著其特殊法的價值內(nèi)容,從而形成自身的法價值體系。其中,“正義是社會制度的首要價值”,也是作為一般法的普適價值,其蘊(yùn)含的人格正義、分配正義、秩序正義構(gòu)成了人工智能法律構(gòu)建的正當(dāng)性基礎(chǔ)。在最高法價值指引之下,人工智能法律還存在著專門法的特別價值,這主要是安全、創(chuàng)新和和諧。
安全是人工智能時代的核心法價值。安全價值是對整個社會秩序穩(wěn)定的維護(hù)。對此,法哲學(xué)家雷加森斯·西克斯言道:“如果法律秩序不代表一種安全的秩序,那么就不是一種法律” 。安全價值是許多法律部門共同追求的目標(biāo),且通過不同的制度或調(diào)整方法來實(shí)現(xiàn)。例如,刑法、行政法通過刑事責(zé)任或行政責(zé)任方式來實(shí)現(xiàn)社會秩序安全,民法通過侵權(quán)法來保護(hù)交易安全和財產(chǎn)秩序。人工智能作為未來時代技術(shù)尚在深入發(fā)展之中,但在當(dāng)下已引發(fā)人們對其安全問題的普遍擔(dān)憂。
人工智能超越人類智能的可能性,人工智能產(chǎn)生危害后果的嚴(yán)重性,以及人工智能技術(shù)本身內(nèi)在的不確定性,這些因素足以構(gòu)成法律以及其他規(guī)范防止風(fēng)險的必要性。關(guān)于風(fēng)險規(guī)制的安全規(guī)范,包括人工智能產(chǎn)品的倫理規(guī)范、人工智能技術(shù)的應(yīng)用規(guī)范、人工智能安全的監(jiān)測規(guī)范等,都是相關(guān)法律制度設(shè)計和安排需要考量的問題。
創(chuàng)新是人工智能法律的價值靈魂。在特定的時代背景下,特定的法律制度會包含若干不同的價值項(xiàng),而且其各自的價值側(cè)重點(diǎn)也有著不同。當(dāng)代經(jīng)濟(jì)的發(fā)展著重依靠知識和信息的生產(chǎn)、分配和利用,創(chuàng)新業(yè)已成為知識經(jīng)濟(jì)時代的主要特征。面向人工智能革命,創(chuàng)新不僅反映了人與自然的關(guān)系,而且反映了人與人的關(guān)系、個人與社會的關(guān)系,成為一個具有普遍意義的關(guān)系范疇。創(chuàng)新價值體現(xiàn)在人工智能發(fā)展政策制定與立法活動之中,其主要制度設(shè)計是:
1.謀化國家發(fā)展戰(zhàn)略。在整體性、全局性的政策層面,對人工智能技術(shù)和相關(guān)社會變革作出相應(yīng)的戰(zhàn)略部署;
2.制定產(chǎn)業(yè)促進(jìn)與監(jiān)管的政策法律。在立法和政策層面,推進(jìn)智能駕駛系統(tǒng)、智能機(jī)器人、精確醫(yī)療、語言識別、人腦芯片等核心技術(shù)的研發(fā)和應(yīng)用,同時明確準(zhǔn)入規(guī)范,制定安全標(biāo)準(zhǔn),完善配套設(shè)施,營造健康、有序的監(jiān)管環(huán)境;
3.完善知識產(chǎn)權(quán)創(chuàng)新激勵機(jī)制。通過權(quán)利保護(hù)、權(quán)利交易和權(quán)利限制等制度,促進(jìn)技術(shù)創(chuàng)新和新興產(chǎn)業(yè)發(fā)展??偟谜f來,國家通過戰(zhàn)略指引、法律規(guī)范和政策安排,將創(chuàng)新這一行為上升為“規(guī)劃理性”的法價值,體現(xiàn)了人在價值發(fā)現(xiàn)中的能動性干預(yù)和控制。
和諧是人工智能時代的終極價值追求。所謂和諧發(fā)展,是一種配合適當(dāng)、協(xié)調(diào)有序的理想動態(tài),這是一種涵蓋周延的目標(biāo)系統(tǒng),包括人的和諧、社會的和諧、自然的和諧,以及人與社會、自然的和平共存與進(jìn)步。和諧價值實(shí)現(xiàn)的理想狀態(tài),即是人工智能社會的良性健康和有序。
在智能機(jī)器人的發(fā)展過程中,和諧價值具有引導(dǎo)性功能。為保證人類社會的和諧穩(wěn)定,對人工智能產(chǎn)品進(jìn)行倫理設(shè)計、限制人工智能技術(shù)應(yīng)用范圍、控制人工智能的自主程度和智能水平等,都應(yīng)以和諧價值作為指引方向和評價準(zhǔn)則。
(二)以倫理為先導(dǎo)的社會規(guī)范調(diào)控體系
人工智能時代的文明,需要相應(yīng)的行為規(guī)范作為社會關(guān)系的調(diào)整器。就整體而言,文明要求社會對自身內(nèi)部錯綜復(fù)雜的關(guān)系進(jìn)行自覺的協(xié)調(diào),以不斷完善自身的組織和管理,達(dá)到各種社會關(guān)系的有序與和諧。
從人類文明創(chuàng)始到現(xiàn)今人工智能時代開啟,社會行為規(guī)范已然成為一種制度體系。社會規(guī)范調(diào)控體系或系統(tǒng),是指在一定的國家、地區(qū)、領(lǐng)域內(nèi)存在的,由一定的社會經(jīng)濟(jì)關(guān)系所決定的社會規(guī)范而構(gòu)成的相互聯(lián)系、相互制約的統(tǒng)一體。在社會規(guī)范體系中,法律與道德作為兩種重要的調(diào)整手段,從不同方面、以不同方式、通過不同機(jī)制對社會生活的不同領(lǐng)域發(fā)揮不同的影響和作用。
對于人工智能社會關(guān)系的調(diào)整,倫理規(guī)范具有一種先導(dǎo)性的作用。這是因?yàn)榉梢?guī)范基于現(xiàn)實(shí)生活而生成,且立法過程繁瑣,因而總是處于滯后境地;而倫理規(guī)范可以先行和預(yù)設(shè),對已變化或可能變化的社會關(guān)系作出反映。
在發(fā)達(dá)國家,對人工智能的倫理研究早于立法研究。近年來,歐洲機(jī)器人研究網(wǎng)絡(luò)(EURON)發(fā)布《機(jī)器人倫理學(xué)路線圖》,韓國工商能源部頒布《機(jī)器人倫理憲章》,日本組織專家團(tuán)隊(duì)起草《下一代機(jī)器人安全問題指引方針》,美國國家科學(xué)基金會和美國航天局設(shè)立專項(xiàng)基金對“機(jī)器人倫理學(xué)”進(jìn)行研究。
此外,一些行業(yè)組織、公司企業(yè)也在倫理規(guī)范方面強(qiáng)化人工智能專家的專業(yè)責(zé)任。例如日本人工智能學(xué)會內(nèi)部設(shè)置了倫理委員會,谷歌設(shè)立了“人工智能研究倫理委員會”,旨在強(qiáng)調(diào)科研人員的社會責(zé)任,并對合理研發(fā)人工智能提供指導(dǎo)。
概言之,倫理規(guī)范的調(diào)整功能非常獨(dú)到且為重要,例如:對智能機(jī)器人預(yù)設(shè)道德準(zhǔn)則,為人工智能產(chǎn)品本身進(jìn)行倫理指引;規(guī)定人工智能技術(shù)研發(fā)及應(yīng)用的道德標(biāo)準(zhǔn),對科研人員進(jìn)行倫理約束。上述倫理規(guī)范,為后續(xù)法治建設(shè)提供了重要法源,即在一定時候,倫理規(guī)范亦可轉(zhuǎn)化為法律規(guī)范,實(shí)現(xiàn)道德的法律化。
(三)以技術(shù)和法律為主導(dǎo)的風(fēng)險控制機(jī)制
人工智能技術(shù)不僅是高技術(shù),而且是高技術(shù)的核心,可稱之為高技術(shù)核。智能技術(shù)的“核爆炸”,既對社會經(jīng)濟(jì)帶來變革性的影響,也會產(chǎn)生技術(shù)性風(fēng)險,即“人類在利用技術(shù)時違背技術(shù)自身規(guī)律而產(chǎn)生的社會風(fēng)險”。人工智能時代的風(fēng)險防范和治理,可采取技術(shù)控制與法律控制的綜合治理機(jī)制。
法律控制是風(fēng)險治理機(jī)制的重要手段。立法者必須重視控制風(fēng)險功能的法治化。例如,專利法具有激勵科技創(chuàng)新的制度功能,其授權(quán)客體的擴(kuò)充及其權(quán)益保護(hù),即是激勵人工智能發(fā)展機(jī)制的法律表現(xiàn)。與此同時,專利法也要注重權(quán)利客體的排除領(lǐng)域,以及禁止權(quán)利濫用,限制權(quán)利行使等制度規(guī)則的適用,限制和排除人工智能的潛在危害。此外,還應(yīng)輔之于相關(guān)科技法律、法規(guī),對人工智能的研發(fā)、使用和傳播建立限制機(jī)制、禁止機(jī)制以及懲戒機(jī)制。
技術(shù)控制是風(fēng)險治理機(jī)制的重要措施。技術(shù)規(guī)制表現(xiàn)為法律規(guī)范、政策規(guī)定和倫理規(guī)則等。風(fēng)險社會理論指引下的技術(shù)規(guī)則有以下特點(diǎn):風(fēng)險規(guī)避的主要路徑,是事先預(yù)防而不是事后補(bǔ)救(即從技術(shù)研究開始規(guī)制,以預(yù)防技術(shù)產(chǎn)生的負(fù)面效應(yīng)或副作用);風(fēng)險規(guī)避的基礎(chǔ)范式,是從技術(shù)研發(fā)到應(yīng)用過程的責(zé)任制度(包括社會道義責(zé)任、科學(xué)倫理責(zé)任和法責(zé)任);風(fēng)險規(guī)避的重要措施,是奉行技術(shù)民主原則(包括技術(shù)信息適度公開和公眾參與、公眾決策)。
防范人工智能的技術(shù)性風(fēng)險,不僅涉及強(qiáng)化法律規(guī)制的傳統(tǒng)制度改造,而且要求建立以社會監(jiān)管為重要內(nèi)容的政策體系,同時形成以全面理性(包括社會理性和科學(xué)理性)為基本內(nèi)涵的風(fēng)險控制機(jī)制。
中國正在走向人工智能時代。世界新一輪科學(xué)革命、產(chǎn)業(yè)變革與我國轉(zhuǎn)變經(jīng)濟(jì)發(fā)展方式形成歷史性交匯。對人工智能的發(fā)展和規(guī)制進(jìn)行制度安排,是時代新潮流,也是國際大趨勢,更是本土創(chuàng)新發(fā)展的內(nèi)在要求。筆者認(rèn)為,在制度構(gòu)建方面,目前有三項(xiàng)重點(diǎn)任務(wù):
一是盡快出臺國家發(fā)展戰(zhàn)略,以此作為人工智能政策體系的支撐。從國際層面看,美、德、英、日等國加快人工智能頂層戰(zhàn)略設(shè)計,從國家層面統(tǒng)籌人工智能發(fā)展。在我國,《“十三五”國家科技創(chuàng)新規(guī)劃》和《“十三五”國家戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展規(guī)劃》,對人工智能發(fā)展做出重要表述。但總體而言,我國人工智能政策還沒有上升到國家戰(zhàn)略高度,人工智能的戰(zhàn)略地位凸顯不足,人工智能發(fā)展的統(tǒng)籌協(xié)調(diào)部門未予明確,政府、社會以及企業(yè)的責(zé)任分工尚未厘清。
國家發(fā)展戰(zhàn)略應(yīng)是關(guān)于人工智能問題的整體性謀略和全局性安排,它是一個涉及戰(zhàn)略目標(biāo)、戰(zhàn)略任務(wù)、戰(zhàn)略措施的政策制度體系。中國必須高度關(guān)注智能革命發(fā)展前景以及引發(fā)的相關(guān)社會變革,盡快作出相應(yīng)的戰(zhàn)略政策部署;
二是及時制定《機(jī)器人倫理章程》,以此作為人工智能研發(fā)、應(yīng)用的道德基礎(chǔ)。在一些發(fā)達(dá)國家,對人工智能的倫理研究早于法律研究,諸如《機(jī)器人倫理憲章》、《機(jī)器人倫理學(xué)路線圖》等,都是將安全評估和風(fēng)險防范作為人工智能倫理規(guī)范的重要內(nèi)容。
我國似可組織政治家、科學(xué)家、企業(yè)家、法學(xué)家參加的專家小組,編寫機(jī)器人倫理章程,構(gòu)建人工智能倫理規(guī)范,其要義包括:設(shè)計倫理框架,為機(jī)器人預(yù)設(shè)道德準(zhǔn)則;強(qiáng)化科技專家的社會責(zé)任,為人工智能研發(fā)、應(yīng)用提供道德指引;引導(dǎo)公眾接納人工智能,為調(diào)整人—機(jī)關(guān)系規(guī)定道德模式;
三是適時進(jìn)行機(jī)器人專門立法,以此作為人工智能法律的基本規(guī)范。人工智能技術(shù)對傳統(tǒng)法律制度帶來巨大挑戰(zhàn),以至現(xiàn)有的法律理念與規(guī)則在“高技術(shù)核”面前幾乎無所適從。在這種情況下,法律制度需要創(chuàng)新變革自不待言,而尋求一個調(diào)整人類與智能機(jī)器相互關(guān)系的專門法將是一個最終的選擇。
對此,歐盟的立法行動最快。據(jù)報道,歐洲議會已正式向委員會提出議案,擬制定“人類與人工智能/機(jī)器人互動的全面規(guī)則”,這或?qū)⑹鞘讉€涉及機(jī)器人的立法草案。我國在人工智能領(lǐng)域發(fā)展相對滯后,但相關(guān)立法活動應(yīng)未雨綢繆,組建專家團(tuán)隊(duì)對機(jī)器人專門法律開展研究,其重點(diǎn)包括:人工智能的法律地位、人工智能生成內(nèi)容的權(quán)利歸屬、人工智能損害后果的責(zé)任分擔(dān)、人工智能風(fēng)險的法律控制等。
結(jié)語
未來時代已經(jīng)到來。這是一個創(chuàng)新的時代,創(chuàng)新不僅反映了人與自然的關(guān)系,而且反映了人與人的關(guān)系、個人與社會的關(guān)系,已成為一個具有普遍意義的關(guān)系范疇。人們在生產(chǎn)力、生產(chǎn)關(guān)系和上層建筑所有領(lǐng)域中進(jìn)行的創(chuàng)造性活動,即技術(shù)進(jìn)步和制度變革都是一種創(chuàng)新過程。智能革命引發(fā)的法律、政策和倫理話題剛剛開始,伴隨人類社會的知識創(chuàng)新,我們需要跟進(jìn)理論創(chuàng)新和制度創(chuàng)新。法學(xué)家和法律改革家們需要秉持理性主義精神,去發(fā)現(xiàn)和探索一個理想的法律制度體系。我們有理由相信,科學(xué)技術(shù)的智慧之光與法律制度的理性之光,將在人工智能時代交相輝映。
?
本文原題為《人工智能時代的制度安排與法律規(guī)制》,文章首發(fā)于《法律科學(xué)》2017年第5期,為閱讀方便,刪去腳注。
關(guān)注
微信
關(guān)注
微博