(華東政法大學(xué),上海 201620)
人工智能涉及的領(lǐng)域非常之廣泛,有關(guān)于人工智能的研究方興未艾。然而,人工智能目前尚沒有受學(xué)界統(tǒng)一認(rèn)可的定義,難以概括出何種計算機(jī)程序可以被稱作人工智能。
擁有“人工智能之父”之譽(yù)的約翰·麥卡錫(John McCarthy)在1956年時第一次提到人工智能這個概念。不同于普通計算機(jī)程序,人工智能可以獨立分析問題,自主學(xué)習(xí)并汲取經(jīng)驗,“量體裁衣”給出解決方案,而非僅僅是被動地接受程序員的操作。羅素(Stuart J.Russell)和諾維格(Peter Norvig)在《人工智能:一種現(xiàn)代方法》一書中提到四種人工智能的定義:像人一樣行動、像人一樣思考、理性思考及理性行動。[1]但這僅僅是基于技術(shù)層面提出的人工智能的目標(biāo),現(xiàn)實中并不能以機(jī)器的外觀與行為表現(xiàn)來斷定其是否達(dá)到了人工智能的標(biāo)準(zhǔn),以防產(chǎn)生在科技與法律層面上理解不一致的歧義。[2]
雖然在現(xiàn)代社會的各領(lǐng)域中均可見人工智能的影子,人工智能已經(jīng)悄然滲透進(jìn)人類的生活,但是如若要對人工智能做出一個準(zhǔn)確統(tǒng)一的定義仍不是一件易事。許多學(xué)者認(rèn)為人工智能是運用人工手段在計算機(jī)上實現(xiàn)的智能,從而構(gòu)建出一套能夠模仿人類思維方式的智能系統(tǒng),運用于智能家電與自動駕駛汽車中的軟件系統(tǒng)均在此列。而《人工智能辭典》則將人工智能定義為一種與快速發(fā)展的技術(shù)有關(guān)的系統(tǒng),這些技術(shù)使計算機(jī)能夠像人類那樣以智能的方式行動。[3]筆者認(rèn)為,關(guān)于人工智能的眾多定義大體上均認(rèn)同一個觀點,即人工智能是依托人類意志開發(fā)的,根據(jù)人類的設(shè)計與需求,通過計算機(jī)程序?qū)崿F(xiàn)一系列智能化行動的系統(tǒng)。
著名計算機(jī)科學(xué)之父艾倫·麥席森·圖靈為揭示計算機(jī)的智能水平而開發(fā)的“圖靈測試”則很好地證明了何為人工智能。該測試是通過問一個人類和一臺機(jī)器同樣的問題來進(jìn)行的,如果超過三成的詢問者不能分辨出問題回答者是人還是機(jī)器,那么這臺機(jī)器就被認(rèn)為通過了圖靈測試,被認(rèn)可為人工智能。[4]但有另一種觀點表明,圖靈測試是一項綜合測試而非單域測試,機(jī)器在單一領(lǐng)域中的水平再高,只要其不具備綜合決策的能力,就不能斷言其通過了圖靈測試。基于此,學(xué)界中有學(xué)者認(rèn)為應(yīng)將“圖靈測試”定義為一種判定強(qiáng)人工智能的測試。
在人工智能的語境中,人工智能又被分為強(qiáng)人工智能與弱人工智能。這二者最本質(zhì)的區(qū)別在于其處理邏輯的形成,前者是主動獲取,而后者是被動接受。弱人工智能只擅長某一領(lǐng)域,如語音識別、人臉識別、計算機(jī)圍棋等,但其依賴程序的編寫,僅解決程序設(shè)定好的特定問題,也不具有自主意識。弱人工智能的行為嚴(yán)格受到程序的規(guī)制,以至于當(dāng)出現(xiàn)程序外的特殊情況時,其將難以進(jìn)行判定與執(zhí)行。而強(qiáng)人工智能的智能水平在各個方面的能力都可以與人類相媲美甚至超越人類,擁有自己的思維,能夠同人類一樣學(xué)習(xí)、認(rèn)知和解決問題,具有理解事物及自主決策的能力,但也可能因此做出最符合用戶利益卻與用戶意愿相悖的行為。
2016年,由谷歌公司研發(fā)的人工智能機(jī)器人AlphaGo在圍棋挑戰(zhàn)賽中戰(zhàn)勝著名選手李世石,成為第一個戰(zhàn)勝圍棋世界冠軍的機(jī)器人。由此引發(fā)的人工智能效應(yīng)掀起了一股關(guān)于人工智能的學(xué)術(shù)熱潮,引發(fā)了大量衍生性的研究,也帶來各種關(guān)于倫理綱常以及道德標(biāo)準(zhǔn)的探討,使得人們對于人工智能的焦慮日益增長。
如今,在日?,F(xiàn)實生活中也不乏諸如無人駕駛汽車、小愛同學(xué)和天貓精靈等生活助理、Siri和Cortana等數(shù)字助理以及政務(wù)服務(wù)機(jī)器人等人工智能的產(chǎn)物。各類方便快捷的智能設(shè)備在人們的生活中隨處可見,人工智能系統(tǒng)在越來越多的領(lǐng)域開始達(dá)到甚至超過人類的認(rèn)知水平,讓其輔助乃至代替人類進(jìn)行決策已不再是空中樓閣。
隨著人工智能技術(shù)的廣泛使用,相關(guān)的侵權(quán)事件數(shù)量也在增加。例如1978年,日本廣島摩托車廠的機(jī)器人誤將廠內(nèi)的工人當(dāng)作鋼板進(jìn)行切割導(dǎo)致其死亡,這是世界上第一例“機(jī)器人殺人”事件。[5]2015年英國曾報道過大眾機(jī)器人“殺人事件”,機(jī)器人在安裝過程中將工人扔向一塊金屬板,最終導(dǎo)致其傷勢過重身亡。近年來,無人駕駛汽車也曾發(fā)生多起事故,造成人員傷亡。[6]人工智能發(fā)展至今,為人類生活帶來了極大便利,但不可否認(rèn)它的確不完美,在服務(wù)人類的同時也有侵犯人類財產(chǎn)甚至人身安全的可能。新技術(shù)總會帶來恐慌,但人工智能引起的焦慮卻尤為明顯。
具有獨立學(xué)習(xí)和決策能力的強(qiáng)人工智能是能夠自主推理和解決問題的智能機(jī)器,可以讓人類生活更加便利,但如果不對其加以有效管理則會對人類造成巨大的生存威脅。2015年霍金發(fā)表了一封關(guān)于人工智能風(fēng)險的公開信,警告人們?yōu)楸苊鈴?qiáng)人工智能的潛在危害,必須在研究其的同時配套相應(yīng)的預(yù)防措施。如信中所述,短期而言,人工智能技術(shù)將導(dǎo)致數(shù)百萬人失業(yè);長期而言,人工智能的本質(zhì)是智能機(jī)器,遠(yuǎn)比人類聰明高效,可能會對計算機(jī)代碼與編定程序帶來不利后果;社會層面,如何從法律的角度規(guī)范和應(yīng)對上述風(fēng)險則值得人類深思熟慮。
這些具體的例證均可見人工智能不是僅僅存在于科幻小說中,其已可像實體一般行事。關(guān)于未來是否有可能賦予人工智能以法律主體資格、人工智能的法律地位是否會隨著時間而改變以及人工智能的自主行為造成侵害后果應(yīng)由誰負(fù)責(zé)等問題,直到近些年才引起學(xué)者的廣泛關(guān)注。
近年來,人工智能在人類日常生活領(lǐng)域內(nèi)得到了愈加廣泛的重視,由此引發(fā)的人工智能侵權(quán)事件也日益增多。面對人工智能的侵權(quán)行為造成的損害后果,如何確定責(zé)任承擔(dān)與損害賠償?shù)闹黧w,學(xué)界內(nèi)主要存在著以下三種觀點。
有學(xué)者認(rèn)為,在人工智能對他人造成損害時,應(yīng)當(dāng)將其界定為該人工智能的開發(fā)者、生產(chǎn)者或是經(jīng)營者的責(zé)任,令如上第三人作為人工智能的替代責(zé)任人進(jìn)行賠償。持此種觀點的學(xué)者否認(rèn)人工智能的法律主體地位,僅將人工智能作為產(chǎn)品看待,故其無法對自身的損害行為獨立承擔(dān)侵權(quán)責(zé)任。以開發(fā)者或生產(chǎn)者作為責(zé)任人的觀點溯及責(zé)任源頭,將人工智能生產(chǎn)過程中制造者的不當(dāng)設(shè)計視為引起損害的原因,以此來承擔(dān)責(zé)任;以經(jīng)營者作為責(zé)任人亦是對買受人及相對人的保障,要求經(jīng)營者必須對售賣出的產(chǎn)品質(zhì)量及其導(dǎo)致的損害結(jié)果負(fù)責(zé)。誠然,這一觀點確有其合理之處,但其局限性在于未對人工智能的技術(shù)能力進(jìn)行區(qū)分。在不具有自主意識的弱人工智能造成損害時,這些方法或許奏效;但具有自主決策能力的強(qiáng)人工智能是獨立于其開發(fā)者、生產(chǎn)者和經(jīng)營者存在的,斷然懲罰第三人必將傷及無辜。
程序關(guān)閉重置論是指對于釀成過錯的人工智能,只要將其重新編程或關(guān)閉系統(tǒng)就足以懲罰并止損,重置后的新程序?qū)⒈苊馊斯ぶ悄茉俅螌嵤┩瑯拥男袨椤H欢?,這只是一個臨時且簡單的解決方案,或許這對原始初級的弱人工智能有效,在將程序重置后,弱人工智能的錯誤會被修正,從而依照新設(shè)定的正確程序運行。但這絕對不適用于能獨立自主做出決定的強(qiáng)人工智能,因其具備主動學(xué)習(xí)、積累經(jīng)驗并做出自主而非被動決定的特質(zhì),強(qiáng)人工智能的錯誤絕不僅僅是程序關(guān)閉或重置能夠解決的,這一方法不能確保重新編程后的強(qiáng)人工智能在未來會做出與重新編程之前全然不同的決定。
與一般的計算機(jī)程序不同,在由能做出獨立決策的強(qiáng)人工智能造成損害的案件中,我們很難確定強(qiáng)人工智能的不當(dāng)決策與其開發(fā)者、生產(chǎn)者或經(jīng)營者行為之間存在何種因果關(guān)系,又應(yīng)當(dāng)如何分配責(zé)任比例。因此,若只是簡單地采取第三人替代責(zé)任制,讓人工智能的開發(fā)者、生產(chǎn)者或經(jīng)營者,甚至是操作者或使用者對強(qiáng)人工智能的獨立決策結(jié)果承擔(dān)責(zé)任,將造成責(zé)任的轉(zhuǎn)移,結(jié)果必定帶來爭議與不公。
筆者認(rèn)為,要明確責(zé)任承擔(dān)者,首先必須區(qū)分人工智能的侵害是否是基于獨立決定造成的,即造成損害的是強(qiáng)人工智能還是弱人工智能。若是弱人工智能既定編程的結(jié)果或是編程紕漏造成的損失,毫無疑問應(yīng)當(dāng)由真正的責(zé)任人即錯誤程序的編撰者承擔(dān)責(zé)任;但若是強(qiáng)人工智能的自主決定造成的他人人身財產(chǎn)受損,此時便應(yīng)將該強(qiáng)人工智能擬制為一個法律主體,獨立承擔(dān)責(zé)任。鑒于此,采取強(qiáng)人工智能的獨立責(zé)任論是較為明智的決定。
不可否認(rèn)的是,把強(qiáng)人工智能視為獨立承擔(dān)責(zé)任的個體將大大促進(jìn)其在民事活動中的參與及權(quán)利義務(wù)的履行。但與此同時,強(qiáng)人工智能本身是否能在法律術(shù)語中被承認(rèn)為法律主體也是我們需要考慮的問題。
一般來說,法律主體是指活躍在法律活動之中享有權(quán)利、負(fù)有義務(wù)并承擔(dān)責(zé)任的自然人,但這并不一定意味著只有真實存在的人類才能被當(dāng)作法律的主體。在我國,法律主體主要包括自然人、法人和非法人組織三類,而現(xiàn)行大陸法系與普通法系國家普遍都承認(rèn)自然人和法人這兩類法律主體。
自然人是最基本的法律主體,通常被定義為具有自然生物屬性的人。傳統(tǒng)生物學(xué)意義上的自然人是基于出生而取得民事主體資格的人。但是根據(jù)漢斯·凱爾森(Hans Kelsen)的觀點,把自然人與人的生物學(xué)地位等同起來的做法是錯誤的,因為自然人僅僅是賦予人的權(quán)利和強(qiáng)加人的義務(wù)的法律規(guī)范的個體化。[7]然而無論自然人的定義是否與生物屬性直接掛鉤,都不可否認(rèn)其作為法律主體是毫無爭議的事實,并因此享有權(quán)利、承擔(dān)義務(wù)。除自然人外,法人也是一類典型的法律主體。作為非自然人的法律主體,其當(dāng)然不享有法律賦予自然人的權(quán)利,也無法履行由權(quán)利所產(chǎn)生的義務(wù),而僅能在章程的范圍內(nèi)行事,受到嚴(yán)格規(guī)制。以公司法中的越權(quán)行為原則為例,公司作為一種營利性法人,必須在章程規(guī)定的范圍內(nèi)開展活動,超越章程實施的越權(quán)行為,法律將賦予其無效的結(jié)果。
如今的人工智能在世界范圍內(nèi)尚未被承認(rèn)為法律主體,在現(xiàn)有的法律規(guī)定下,人工智能的侵害行為造成的損害賠償責(zé)任問題仍未有明確的答案。雖然在2017年機(jī)器人索菲亞被沙特阿拉伯王國授予了國籍,成為歷史上首個獲得公民身份的機(jī)器人,但沙特王國并未就索菲亞是否可以依公民身份享有與普通公民相同的法律權(quán)利并承擔(dān)相應(yīng)的法律義務(wù)作出相關(guān)規(guī)定。[8]可以確定的是,目前人工智能法律地位的缺失只是一個暫時性的問題,其必定會隨著時間的推移與科技的進(jìn)步而改變。
運用法律擬制的立法技術(shù)賦予人工智能獨立的法律人格是處理人類與人工智能之間關(guān)系的前提。[9]以胎兒利益保護(hù)為例,在涉及胎兒利益的情形下,將胎兒擬制為法律主體從而受到保護(hù)是法律進(jìn)步的大勢所趨。同理,在強(qiáng)人工智能獨立決策致人損害等特定情形下,也應(yīng)當(dāng)將其擬制為法律主體,對造成的損害負(fù)獨立責(zé)任。
自然人或法人要成為法律關(guān)系的主體,必須具備兩個結(jié)構(gòu)要素,即權(quán)利能力和行為能力。在此背景下,一個自然產(chǎn)生的問題便是:是否可能將上述兩樣法律人格要素應(yīng)用于人工智能系統(tǒng)。由于強(qiáng)人工智能的自主決策能力、學(xué)習(xí)能力、記憶能力及其操作的復(fù)雜性,其能夠行使特定權(quán)利或履行特定義務(wù),并確定其行動的方向及意欲達(dá)成的效果。但也基于強(qiáng)人工智能算法操作的特殊性,假如其被認(rèn)定為法律主體,它的權(quán)利和義務(wù)的范圍與其他法律主體并不全然相同。
由于人工智能技術(shù)的發(fā)展階段與內(nèi)容存在差異,其法律主體資格無法一概而論。將人工智能分為強(qiáng)人工智能和弱人工智能來區(qū)別法律地位是更為科學(xué)的。這一方法否定了弱人工智能的法律主體資格,確定了強(qiáng)人工智能的法律人格,從而能更好地探討強(qiáng)人工智能規(guī)制的必要性。因此,筆者認(rèn)為弱人工智能當(dāng)然不具有法律主體資格,但強(qiáng)人工智能也只能在法律嚴(yán)格規(guī)定的權(quán)利義務(wù)范圍內(nèi)行事,這些權(quán)利義務(wù)的定性將制約強(qiáng)人工智能的行為模式,劃清行為邊界,在可為的情境下為人類創(chuàng)造價值,在不可為而為之的狀態(tài)下依其法律主體資格獨立承擔(dān)相應(yīng)責(zé)任。與此同時,還應(yīng)對強(qiáng)人工智能采取注冊制,引入認(rèn)證證書,在操作實例中進(jìn)行身份識別,記錄每個環(huán)節(jié)的對應(yīng)行為者,從而進(jìn)行嚴(yán)格的管理與規(guī)制。
在依照程序設(shè)定運行的弱人工智能損害他人利益之時,由制造其的相關(guān)責(zé)任人承擔(dān)責(zé)任是普遍通行的處理方式。而當(dāng)能夠獨立決策的強(qiáng)人工智能廣泛參與到人類的生活中時,其做出的決定和采取的行動將或多或少影響用戶個人的生活方式,甚至?xí)龀雠c個人自由意志相悖的舉動。為防止強(qiáng)人工智能的自主行為侵犯他人權(quán)利,并在造成損害的情況下確定其應(yīng)承擔(dān)的法律責(zé)任,便需要賦予強(qiáng)人工智能以法律主體資格。如此可將強(qiáng)人工智能與弱人工智能相區(qū)別,并將其與開發(fā)者、生產(chǎn)者及經(jīng)營者的意愿分離開來,使其被視為獨立于人類的主體,令人工智能與人類之間的法律關(guān)系簡單明確化,對其的法律監(jiān)管亦更為行之有效,有利于推動相關(guān)法律法規(guī)的完善和社會制度的變遷。