姜淑明 胡明星
摘 要:因為缺乏賦予人工智能法律人格的必要性與可行性,人工智能僅作為一種法律關(guān)系的客體而存在。但人工智能卻有其自身的特殊性,有別于一般的法律關(guān)系客體。因此,規(guī)范人工智能的運用和發(fā)展必須遵循以人為本的發(fā)展理念,明確其法律客體地位和責(zé)任承擔(dān)規(guī)則,并明確人工智能生成作品的著作權(quán)歸屬。
關(guān)鍵詞:人工智能;法律關(guān)系客體;法律人格
人工智能按照字面意義理解即人類所制造的智能,與此對應(yīng)的智能稱為自然智能。所謂自然智能,即自然進(jìn)化所形成的智能。人類智慧是地球上迄今為止最高級的智能,因此人類智慧是自然智能的典型代表。關(guān)于人工智能至今沒有統(tǒng)一的定義,不同學(xué)者對人工智能做出了不同的界定。以色列刑法學(xué)家Gabriel將人工智能定義為一種軟件系統(tǒng),該軟件系統(tǒng)借助于載體,比如計算機等,可以實現(xiàn)對于人類思維的模擬。美國計算機科學(xué)家Stuart和Peter將人工智能進(jìn)行了區(qū)分,人工智能包括認(rèn)知體系和行為體系兩個方面。美國的溫斯頓教授將人工智能定義為具有類人行為能力的計算機。鐘義信教授指出,人工智能就是指人類所制造的智能,也就是機器的智能。本文認(rèn)為,所謂人工智能即人類在通過分析、研究人類智慧的基礎(chǔ)上,人為制造的具有類似人類智慧能力的實體,該類實體能夠以類人的方式思考和行動,可以輔助并增強人類的智慧和行動能力。
廣義上的人工智能包括人工智能學(xué)科、人工智能軟件、人工智能體。本文所稱的人工智能乃人工智能體,即具有類似人類智慧和行動能力的人工智能實體,例如擬人機器人、機器手臂等實體形象。其具有主要有以下幾個特征:第一,人工屬性。人工智能非自然界天然孕育產(chǎn)生的,是由人工創(chuàng)造并制造出的產(chǎn)物,沒有生命,其發(fā)展水平由人類的知識水平?jīng)Q定,其存在的價值在于滿足人類的需求。人工智能的本質(zhì)實際上是一種機器裝置,而其與一般的機器裝置相比,最大的不同點在于,其安裝了人工智能系統(tǒng)軟件或芯片等控制系統(tǒng),可以實現(xiàn)各種目的性的工作,而人類則是基于自身的生物性和智慧性來完成特定工作。第二,工具性。人工智能系人類發(fā)明創(chuàng)造的產(chǎn)物,人類發(fā)明人工智能的目的在于希望借助人工智能不斷增強自身的智慧能力,人工智能存在的價值在于為人類服務(wù),不論是強人工智能,還是弱人工智能,不論其智能程度的高低,均不能改變其工具屬性。人類與人工智能之間是不平等的關(guān)系,人工智能將永遠(yuǎn)的處于人類的控制之下,完全不受人類控制的人工智能將不會被允許存在,同時人類也會采取各種措施嚴(yán)格限制該類人工智能的存在。第三,智能性。人工智能與普通機器設(shè)備最本質(zhì)的區(qū)別在于具有智能,普通機器設(shè)備完全不具有智能,人工智能具有一定程度的智能,可以承擔(dān)部分或者全部以前需要人類才能完成的工作。人工智能擁有像人類一樣思考或者行動的能力,甚至在某些方面擁有超越人類的能力。人工智能智能水平的發(fā)展規(guī)律是由弱到強,呈現(xiàn)逐步增強的趨勢,人工智能的發(fā)展目標(biāo)是使人工智能的智能水平不斷提升,最終達(dá)到與人類智慧相近的程度。第四,實體性。人工智能應(yīng)當(dāng)是客觀實際的存在,人工智能應(yīng)當(dāng)體現(xiàn)為兩個部分的有機結(jié)合,一部分是具有認(rèn)知和演繹推理決策能力的指揮控制系統(tǒng),體現(xiàn)為軟件或者芯片等,另一部分是接受指令,實現(xiàn)特定行為的行動系統(tǒng),體現(xiàn)為一定的實體,例如機器人、機器狗等。軟件等作為電子數(shù)據(jù)具有一定的虛擬性,但是人工智能的行動系統(tǒng)一定具有實體性,而只有兩部分的完美組合,才能構(gòu)成一個統(tǒng)一的人工智能,因此人工智能具有實體性。
隨著科學(xué)研究的不斷深入,人工智能的智能水平呈不斷增強的趨勢,阿爾法圍棋是現(xiàn)階段弱人工智能的典型代表,在阿爾法圍棋現(xiàn)有研究的基礎(chǔ)上將發(fā)展出一類具有更高智能水平的人工智能,我們稱其為強人工智能。弱人工智能專用于受限領(lǐng)域和專用于解決具體問題,而強人工智能具有通用性,其運用于非受限領(lǐng)域和非專用于解決特定問題,強人工智能又被稱為通用人工智能。自然人因具有理性特質(zhì)而被法律賦予法律人格,而人工智能因為缺乏賦予法律人格的必要性和可行性,因而不能運用法律擬制技術(shù)如法人般賦予其獨立法律人格。因此規(guī)范人工智能的運用和發(fā)展迫在眉睫。
一、遵循以人為本的發(fā)展理念
規(guī)范人工智能的運用和發(fā)展,應(yīng)當(dāng)確立以人為本的發(fā)展理念。在確定規(guī)范人工智能的一般原則時,需著重考慮有效防范風(fēng)險、人類利益優(yōu)先、人類利益最大化等因素。明確人工智能的法律地位為法律客體,人工智能在實質(zhì)上僅是人類使用和利用的工具,因此規(guī)范人工智能的運用和發(fā)展應(yīng)堅持以人為本的原則,采取頂層設(shè)計和底層評價相結(jié)合的方式。所謂頂層設(shè)計即注重頂層設(shè)計,設(shè)定某些道德原則或者理論行為作為判斷人工智能行為正確與否的標(biāo)準(zhǔn)。所謂底層評價則是創(chuàng)造一定的自由環(huán)境,對于人工智能正確的行為予以獎勵,錯誤的行為予以懲戒,以此來開發(fā)人工智能的道德敏感性,在日積月累中逐漸培養(yǎng)人工智能的道德能力。
以人為本理念的確立,應(yīng)采取如下舉措。首先確認(rèn)人工智能的基本道德原則。參考美國作家艾薩克.阿西莫夫關(guān)于“機器人三定律”的內(nèi)容,明確以下三方面的內(nèi)容:一是人工智能不得危害人類的安全。人工智能具有工具屬性,人類制造其的目的,在于希望運用人工智能這一工具,實現(xiàn)人類社會的繁榮和美好。人工智能的發(fā)展既不得危害人類的生命安全,也不能動搖人類的地位和侵害人類的權(quán)利。二是人工智能必須服從人類的指令。要明確人類對于人工智能的絕對控制地位,不允許有不受人類控制的人工智能的存在。故此人工智能難以產(chǎn)生獨立的自主意思。三是不得放任人工智能危害人類安全的行為。對于人工智能遵循基本的道德原則和行為標(biāo)準(zhǔn)的行為予以肯定,對于人工智能不遵循基本的道德原則和行為標(biāo)準(zhǔn)的行為予以否定,并采取懲戒措施。
二、明確人工智能法律客體地位
主體與客體是相互對立的兩個概念,并且是非此即彼的關(guān)系,不存在有既是主體又是客體的存在,主體與客體之間存在著難以逾越的界限。在自然人與自然的關(guān)系中,具有理性特質(zhì)的自然人是主體,而不具有理性特質(zhì)的其他存在則是客體,主體具有自由的意志,能夠依據(jù)主觀能動性主動的做出決策和行為,而客體則不具有自由的意志,處于被動的地位,客體是主體行為或施加影響所針對的對象。法律主體和法律客體均是法律層面的概念,僅在法律上具有意義。法律主體是指享有法律權(quán)利和承擔(dān)法律義務(wù)的主體,法律客體是指法律主體行為所指向的特定對象。法律客體具有以下特征:第一,合法性,并非所有現(xiàn)實存在的物體均可以視為法律上的客體,法律上的客體應(yīng)當(dāng)具有合法性,不具有合法性的物體,不能成為法律客體,比如毒品等。第二,可控性,法律客體應(yīng)當(dāng)是能夠被人類所認(rèn)識和控制的,如果不能被人類所認(rèn)識和控制則不能認(rèn)定為法律客體。作為法律主體行為所指向的對象,法律客體應(yīng)當(dāng)是能夠被支配的,如果超出了人類支配的范圍,則不能成為法律客體。第三,有價值性,法律客體應(yīng)當(dāng)具有一定的價值性,沒有價值的物體,不能成為法律客體。第四,獨立性,法律客體應(yīng)當(dāng)是獨立存在的,如果不是獨立存在的,則不能作為法律客體。因此,人工智能不具有獨立自主的意思能力,僅是在預(yù)先設(shè)定的程序范圍內(nèi)進(jìn)行簡單的數(shù)據(jù)輸入和輸出,人工智能不應(yīng)當(dāng)被認(rèn)定為法律主體。但人工智能具有價值,能夠被人類所認(rèn)識和控制,具有合法性和獨立性,符合法律客體的基本特征,人工智能是一類特殊的工具,應(yīng)當(dāng)被認(rèn)定為法律客體。
三、明確人工智能致人損害的責(zé)任承擔(dān)規(guī)則
人工智能與傳統(tǒng)的機械設(shè)備有較大的差異,人工智能因智能水平更高,相對的擁有更多的自主權(quán),同時介入人類社會活動的程度更為深入,范圍更為廣泛。人工智能的廣泛運用,在帶來高效和便捷的同時,不可避免的有損害人類合法權(quán)益的可能。人工智能致人損害如何確定責(zé)任主體,是由人工智能本身承擔(dān)?還是應(yīng)該由人工智能的研發(fā)者、生產(chǎn)者、運營者等承擔(dān)?在人工智能不具有法律人格的情況之下,筆者認(rèn)為人工智能致人損害責(zé)任的性質(zhì)應(yīng)當(dāng)被認(rèn)定為產(chǎn)品責(zé)任,承擔(dān)責(zé)任的主體應(yīng)當(dāng)是人工智能的研發(fā)者、生產(chǎn)者、運營者等,人工智能不能成為承擔(dān)損害責(zé)任的主體。人工智能致人損害的歸責(zé)原則有過錯責(zé)任和無過錯責(zé)任,對于人工智能的所有者、使用者、運營者承擔(dān)過錯責(zé)任,對于人工智能的生產(chǎn)者、研發(fā)者承擔(dān)無過錯責(zé)任。有觀點認(rèn)為,這樣的責(zé)任分配方式將會在一定程度上加重人工智能研發(fā)者、生產(chǎn)者及運營者等的法律責(zé)任,影響技術(shù)創(chuàng)新、發(fā)展的積極主動性,并且導(dǎo)致人工智能致人損害法律責(zé)任最終由程序員來承擔(dān)。為了促進(jìn)人工智能的研究和運用,適當(dāng)減輕人工智能的研究者、生產(chǎn)運營者等的法律責(zé)任,應(yīng)當(dāng)建立健全人工智能保險制度和賠償基金制度,這一舉措既能保障受害者所受到的損失能夠得到有效的補償,同時也能不影響研發(fā)者、生產(chǎn)者及運營者研究和運用人工智能的積極性。
四、明確人工智能生成作品的著作權(quán)歸屬
2017年5月,一款人工智能機器人創(chuàng)作了一本名為《陽光失去了玻璃窗》的詩集,該詩集經(jīng)出版公司正式出版發(fā)行,該機器人有一個文藝的名字,即“小冰”。該詩集具有重要的意義,因為這是第一本由人工智能創(chuàng)作的詩集。這一事件引發(fā)了法學(xué)理論界的熱烈探討,人工智能創(chuàng)作的內(nèi)容是否符合作品認(rèn)定的標(biāo)準(zhǔn)?如果認(rèn)定人工智能創(chuàng)作內(nèi)容符合作品認(rèn)定標(biāo)準(zhǔn),則該作品的著作權(quán)應(yīng)當(dāng)歸屬于誰?本文認(rèn)為,在人工智能不具有法律人格的前提下,人工智能生成內(nèi)容是否屬于作品,應(yīng)當(dāng)依據(jù)著作權(quán)法關(guān)于作品認(rèn)定的標(biāo)準(zhǔn)來進(jìn)行,如果按照著作權(quán)法的規(guī)定可以被認(rèn)定為作品,則屬于作品。人工智能創(chuàng)作產(chǎn)生的作品,其著作權(quán)歸屬人工智能的研發(fā)者、生產(chǎn)者、運營者或者所有者等,其著作權(quán)不能歸屬于人工智能,但是人工智能可以擁有署名權(quán)。有觀點認(rèn)為一方面認(rèn)定人工智能生成的內(nèi)容屬于作品,但是另一方面又認(rèn)定其不享有著作權(quán),這樣在邏輯上存在矛盾。本文認(rèn)為這并不矛盾,因為在著作權(quán)法上作品的創(chuàng)作者不是作品的著作權(quán)人的情況并不少見。
五、加強個人信息保護(hù)
在信息技術(shù)高速發(fā)展的今天,信息數(shù)據(jù)的傳播速度不斷加快,個人信息的使用頻率不斷的提升,均增加了個人信息被泄露的風(fēng)險。人工智能的研究和運用需要大量的數(shù)據(jù)作為支撐,而所使用的數(shù)據(jù)中就包括了部分的個人信息數(shù)據(jù)和隱私,如果對于數(shù)據(jù)的使用不當(dāng),就有造成個人信息和隱私被泄露的風(fēng)險,因此如何規(guī)范個人信息的使用和保護(hù),具有重要的意義。就個人層面而言,現(xiàn)在的許多電子產(chǎn)品均有自動記錄個人相關(guān)數(shù)據(jù)的功能,比如位置定位等,許多的網(wǎng)站或者APP要求用戶在進(jìn)行注冊時輸入個人相關(guān)信息,包括姓名,出生日期和手機號碼等,這些均有泄露個人信息和隱私的可能。因此在日常生活當(dāng)中,應(yīng)當(dāng)時刻注意個人信息的保護(hù),不在陌生的網(wǎng)站和APP上進(jìn)行注冊,并不要輸入個人的重要身份信息等。就企業(yè)層面而言,應(yīng)當(dāng)牢固樹立保護(hù)個人信息的意識,深刻認(rèn)識到保護(hù)用戶個人信息的重要性。采取必要的安全措施,保護(hù)用戶的個人信息安全,防止用戶個人信息被泄露,或者被他人非法的竊取。建立健全內(nèi)部管理機制。就國家層面,應(yīng)當(dāng)加快制定個人信息保護(hù)的立法工作,美國、歐盟都均已經(jīng)制定了關(guān)于個人信息或隱私保護(hù)的相關(guān)法律規(guī)范,我國可以在吸收借鑒的基礎(chǔ)上,結(jié)合我國的實際情況,加緊制定我國的個人信息保護(hù)或隱私保護(hù)的法律規(guī)范,新的《中華人民共和國民法典(草案)》正在如火如荼的討論當(dāng)中,新法典將為個人信息與個人隱私的保護(hù)提供強有力的法律依據(jù)。
參考文獻(xiàn)
[1]Gabriel,H.The criminal Liability of artificial intelligence entities-from science fiction to legal social contro[J].Akron Intellectual Property Journal,2010,2(2):171-175.
[2]Stuart,J.R.Peter.N..Artificial Intelligence:A Modem Approach [M].3rd ed.Upper Saddle River,NJ:Pearson Education,Inc,2009:4-5
[3]林夕.人工智能時代下的教育遐想[J].教育實踐與研究,2017,21;1-1.
[4]鐘義信.人工智能:概念?方法?機遇[J].科學(xué)通報,2017,62(22):2473-2479.
作者簡介:
姜淑明(1963-,女,湖南師范大學(xué)法學(xué)院副教授) 胡明星(1989-,男,望城縣人民法院)
(作者單位:1.湖南師范大學(xué)法學(xué)院;2.望城縣人民法院)