• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      論人工智能的法律人格:一個(gè)法哲學(xué)的思考

      2018-02-15 01:31李俊豐姚志偉
      關(guān)鍵詞:人格法律人工智能

      李俊豐 姚志偉

      要:人工智能是否具有法律人格的問題,是解決人工智能所引起的諸多法律前沿爭議的一大關(guān)鍵。從人工智能發(fā)展的趨勢看,人工智能具有“近人性”,這決定了人工智能法律人格本質(zhì)上之有無;從法律史的角度看,法律人格是一種社會(huì)建構(gòu),認(rèn)可人工智能的法律人格并不以“人工智能是人”為前提;從人工智能的現(xiàn)狀看,其已開始具有獨(dú)立影響他人權(quán)利義務(wù)的能力,考慮認(rèn)可人工智能的法律人格已具有一定的現(xiàn)實(shí)意義。面對人工智能的飛速發(fā)展,我們有必要對認(rèn)可人工智能的法律人格保持一種開放性態(tài)度。關(guān)鍵詞:人工智能;法律人格;“近人性”作者簡介:李俊豐,法學(xué)博士,廣東第二師范學(xué)院馬克思主義學(xué)院講師,主要研究方向:法學(xué)理論、法律史(E-mail:?stleejf@163.com;廣東 廣州 510303);姚志偉,法學(xué)博士,廣東金融學(xué)院法學(xué)院副教授,廣東外語外貿(mào)大學(xué)國際戰(zhàn)略研究院博士后,主要研究方向:法學(xué)理論(廣東 廣州 510521)。基金項(xiàng)目:廣東省教育科學(xué)規(guī)劃課題(黨的十九大精神研究專項(xiàng))“人工智能應(yīng)用趨勢下的高校思想政治理論課發(fā)展研究”(2018JKSJD65)。中圖分類號(hào):D903 ???????文獻(xiàn)標(biāo)識(shí)碼:A ???????文章編號(hào):1006-1398(2018)06--

      ??問題的提出

      2017年10月25日(當(dāng)?shù)貢r(shí)間),人工智能機(jī)器人索菲亞被沙特阿拉伯授予了公民身份;雖然正如評論員所言,沙特阿拉伯并沒有真正解決機(jī)器人公民資格的問題,亦未解釋授予索菲亞的公民資格之具體法律含義為何,但在某種意義上說,此舉也確實(shí)將人工智能的法律人格這一問題擺在了人們面前。

      法律上的人格,本質(zhì)上指人的資格,即成為法律關(guān)系主體的資格,故法律人格亦可被理解為法律認(rèn)可的一種享受權(quán)利、承擔(dān)義務(wù)的資格。事實(shí)上,在當(dāng)前人工智能高速發(fā)展并已開始投入應(yīng)用的環(huán)境下,此一問題已遠(yuǎn)非是“科幻”式的,法律實(shí)踐和研究都必須直面之。在不少關(guān)于人工智能和法律的討論中,學(xué)者開始留意到了人工智能的法律人格問題,專門的探討也已出現(xiàn)。

      不過在這些研究中,傾向于認(rèn)為“人工智能不具有法律人格”的論者仍占多數(shù)。這種意見的提出和堅(jiān)持,應(yīng)和學(xué)界的相關(guān)討論多立足于當(dāng)下和解決現(xiàn)實(shí)問題有關(guān),即學(xué)者們多意欲在現(xiàn)有法律框架下來解決目前已經(jīng)出現(xiàn)或可以預(yù)見將要出現(xiàn)的人工智能相關(guān)法律問題,以維持法律制度的穩(wěn)定性、結(jié)構(gòu)性和可行性;而在當(dāng)前人工智能仍處于弱人工智能階段的情況下,這種追求也是可以理解的。

      但這種基于現(xiàn)實(shí)關(guān)懷的思考似并未能真正回答“人工智能可否具有法律人格”之問題。當(dāng)下的實(shí)然畢竟不能等同于未來的實(shí)然甚至是應(yīng)然。如果我們留意到過去數(shù)年人工智能的迅猛發(fā)展,并因此對人工智能之未來持有一種“非保守”態(tài)度的話,這一道理自應(yīng)不難明白。因此,在本文中,筆者的思考雖也從現(xiàn)實(shí)問題出發(fā),但主要是嘗試跳出現(xiàn)實(shí)關(guān)懷的思維框架,從法哲學(xué)的角度來對“人工智能的法律人格”進(jìn)行思考,探討其中的若干方面,也希望由此能給現(xiàn)實(shí)問題提供一些參考。

      二 ?人工智能法律人格的本質(zhì)性問題

      認(rèn)為“人工智能不應(yīng)具有法律人格”的重要論點(diǎn)之一,是認(rèn)為人工智能和人存在根本性不同,人工智能不可能成為人。根據(jù)現(xiàn)行法律制度和法學(xué)原理,除了法人可具有擬制法律人格外,法律人格只有自然人才能享有,故人工智能不可能具有法律人格。

      無可否認(rèn),當(dāng)前的人工智能仍和人有著巨大的差異,這種差異在未來可能也不會(huì)完全消失。但這種差異的存在卻掩蓋了一個(gè)其實(shí)并不難看見的事實(shí):人在制造人工智能時(shí),歸根到底是以人為模板的。這是人工智能發(fā)展和此前的工業(yè)革命、電氣化革命、信息化革命等科技革命存在根本性不同的地方。此前的科技革命,歸根到底還是為了延伸、擴(kuò)展人的能力,并把人從機(jī)械性勞動(dòng)—包括體力勞動(dòng)、記憶和計(jì)算等重復(fù)而相對簡單的腦力勞動(dòng)——中解放出來:織布機(jī)節(jié)省了人生產(chǎn)布匹時(shí)的體力和時(shí)間,汽車節(jié)省了人進(jìn)行移動(dòng)時(shí)的體力和時(shí)間,計(jì)算機(jī)節(jié)省了人進(jìn)行計(jì)算和記錄時(shí)的精力和時(shí)間。通俗言之,它們所起的作用,是讓人能“省力”,從而能讓人的能力集中發(fā)揮于只有人才能完成的工作之方面,例如,創(chuàng)造性勞動(dòng);借助這些科學(xué)技術(shù),人本身是得到“加強(qiáng)”的。與此不同,當(dāng)前所呈現(xiàn)出的人工智能發(fā)展之特點(diǎn),并不是“加強(qiáng)”人,而是“代替”人。雖然在客觀上看,目前不少人工智能技術(shù)也起到了“加強(qiáng)”人的作用,如語音助手之類;但其實(shí)頗為顯而易見的是,當(dāng)前人在發(fā)展、制造人工智能時(shí),歸根到底是以“做人的工作”為取向的,即希望其能完成一些以往認(rèn)為只有人本身才能完成的工作,如下圍棋、自動(dòng)駕駛、人工智能寫作、翻譯等等,都是如此。

      因此,人工智能的發(fā)展態(tài)勢是趨向于“與人相同”的,為了讓人工智能能“做人的工作”,人類必然會(huì)不斷將本來僅為人類所具有的能力賦予人工智能,并讓人工智能表現(xiàn)得越來越像人。人工智能的這種特性可以稱之為“近人性”。更重要的是,必須看到,這種思想觀念其實(shí)在今天相當(dāng)普遍地存在著,Google Assistant的演示中的那句“Hmm”引起了觀眾的強(qiáng)烈反映,恰恰反映出人類對人工智能的“近人性”的認(rèn)同;而“為何不少研究者對人工智能的研制、普通人對人工智能的想象,都是以人型人工智能為依歸”的問題,也可從中找到部分的解釋。

      概言之,人工智能的本質(zhì)屬性與其說是“擬人性”,不如說是“近人”性;今日的人類其實(shí)也默認(rèn)著這種觀念,制造人工智能的取向和路徑,也正建基于此。因此,人工智能很可能最終將具有我們今天認(rèn)為屬于強(qiáng)人工智能甚至是超人工智能的性能,如交談、思考之類——雖然這在目前似乎還顯得遙遙無期。到了那個(gè)階段,人工智能在行為、語言等等方面的表現(xiàn),可能已和人類并無太大差異,我們可將此稱為人工智能的“類人”階段。由此角度觀之,人工智也許便并不是一個(gè)新問題了,或者說,其只是人的問題的一個(gè)亞型而已。例如,人工智能的黑箱性和算法的公正性,被視作是一個(gè)以往人類并未遭遇過的全新問題;如何從法律等層面規(guī)制人工智能的呼聲和爭議,與此密切相關(guān)。以司法為例。美國Northpointe公司基于人工智能開發(fā)的犯罪風(fēng)險(xiǎn)評估算法系統(tǒng)系統(tǒng)性地歧視了黑人,被認(rèn)為是非常不可靠的。但是,類似的問題難道在人的身上就沒出現(xiàn)過、發(fā)現(xiàn)過嗎?例如,在法律現(xiàn)實(shí)主義看來,法律是法官等司法人員在實(shí)際上對法律案件的所作所為,法律現(xiàn)實(shí)主義代表人物弗蘭克便認(rèn)為,法官的個(gè)性及其他一些非理性因素如情緒、性格、直覺等,都會(huì)對判決起作用甚至是主要作用;“對于司法權(quán)的行使,弗蘭克最終所意圖揭示的是在整個(gè)過程中隱而不現(xiàn)卻實(shí)質(zhì)上發(fā)揮支配作用的因素”。波斯納亦指出,很多司法決定都受到了法律之外其他因素的影響,如法官的個(gè)人特點(diǎn)、偏好、職業(yè)經(jīng)驗(yàn)等等。人類法官的這些特點(diǎn)和人工智能的黑箱性、算法公正性其實(shí)并無本質(zhì)差異,兩者都一樣會(huì)影響司法判決,都一樣不易為他人所知,甚至可能都一樣連判決者自己都意識(shí)不到。也就是說,今天我們傾向于將人工智能的黑箱性、算法公正性等等視為“新”問題,但嚴(yán)格來說,我們所未曾面臨過、思考過的,只是“工具的黑箱性、公正性”問題。在本質(zhì)上,我們的焦慮,來源于將人的命運(yùn)交由非人來決定,而并不在于黑箱性、公正性本身。

      “人工智能的法律人格”問題也可以類似的思路看待。如果我們承認(rèn)人工智能的“近人”性,并因此將其納入“人”的視角而觀照之,那人工智能的法律人格問題也可以理解為:人工智能在本質(zhì)上具有法律人格,只不過到“類人”階段,人工智能的法律人格才表現(xiàn)得難以否認(rèn)或接近完全,在此之前,其法律人格則較少體現(xiàn)出來或需受限制—在某種程度上,這和未成年人的法律人格問題有相似之處。“人工智能的法律人格”問題的新穎性,只在于人工智能的法律人格表現(xiàn)存在明顯的階段性差異—特別是在“類人”階段之前被掩蓋在了工具性之下;而人工智能本質(zhì)上的有無,在人工智能的“近人性”中其實(shí)已被決定。

      概言之,人工智能法律人格之有無,并非是人所賦予的,而是在人制造人工智能的取向和路徑中被決定的。如果人工智能的未來發(fā)展仍是按現(xiàn)有的“以人為模板”的思維框架進(jìn)行的話,那似乎對人工智能法律人格的承認(rèn),便是一件遲早會(huì)發(fā)生的事情。

      ??人工智能法律人格的建構(gòu)性問題

      人工智能法律人格之有無是在人如何制造人工智能的取向和路徑中被決定的,也意味著人所能做的,僅僅是認(rèn)可或不認(rèn)可人工智能的法律人格,而并不能決定其本質(zhì)上的有無。可以預(yù)見,對此觀點(diǎn)的一個(gè)重要反駁是:人工智能根本不是人,和人有著本質(zhì)上的不同,怎么可能具有法律人格?然則,人工智能具備法律人格與否,是否必須以其“與人相同”為前提?所謂“本質(zhì)上的不同”究竟是指什么?“天賦人權(quán)”等理論暗示,人的權(quán)利必須以人之為人作為前提;但考諸歷史不難發(fā)現(xiàn),在某種意義上看,人的法律人格也不是天然的,而只是一種社會(huì)建構(gòu)。

      以西方女性的法律人格發(fā)展史為例。在相當(dāng)長的一段歷史時(shí)期中,英美等國的女性所能享有的權(quán)利,和男性有著極大的不同。在美國,雖然平等的思想在獨(dú)立革命時(shí)期已日漸形成和傳播,但女性仍然處于明顯的從屬地位,沒有選舉權(quán),不被允許擁有財(cái)產(chǎn),沒有平等的就業(yè)機(jī)會(huì)和受教育機(jī)會(huì)……到19世紀(jì),情況仍是如此。英國的情況也差不多。

      理解這段歷史的一個(gè)關(guān)鍵在于,在當(dāng)時(shí)人眼中,女性和男性之間存在著本質(zhì)上的不同。當(dāng)時(shí)主張否認(rèn)女性權(quán)利的男性所持的一個(gè)重要觀點(diǎn),是女性在思維能力、智力等諸多方面均不如男性,甚至缺乏成為“人”的能力。在美國,伯克在《法國革命反思錄》中認(rèn)為,婦女只是一種動(dòng)物,而且是低等動(dòng)物,關(guān)注婦女解放的弗朗西斯·賴特也注意到,婦女被認(rèn)為和男人不具有同等的理智和情感,難以取得一般的社會(huì)地位;后來成為美國總統(tǒng)的約翰·亞當(dāng)斯稱贊主張女權(quán)的凱瑟琳·麥考利是“一位擁有男性般高明理解力的女士”,但這話卻恰恰反映出,在亞當(dāng)斯等人眼中,女性在理解力等方面不及男性。相類似地,在英國,女性在17世紀(jì)時(shí)被認(rèn)為是頭腦簡單、意識(shí)薄弱的;到1866年,《旁觀者》雜志聲稱,全國具備政治能力的婦女不超過20人,甚至連一些女性自己也認(rèn)為,女人沒有判斷力,故確不能從事醫(yī)生等職業(yè)。

      由此可見,今人眼中人工智能和人的不同,和時(shí)人眼中女性和男性的不同其實(shí)并無性質(zhì)上的差異:他們都被認(rèn)為具有本質(zhì)上的、根本能力上的差異,故所具有的法律人格自然也應(yīng)有所區(qū)別。但正如約翰·穆勒在那個(gè)年代便已意識(shí)到的一樣,這些被稱為女子氣質(zhì)的東西其實(shí)是人為制造出來的。按此觀點(diǎn),上述所謂本質(zhì)差異本身便是建構(gòu)出來的,建基于此的法律人格差別自然也是如此。女性的法律人格在日后的發(fā)展,也顯示出這一點(diǎn):到了今天,我們至少在理論上承認(rèn)了女性和男性之間并無本質(zhì)不同,故也應(yīng)具有同等的法律人格。

      既然如此,對于人工智能,我們是否也可作如是觀?進(jìn)一步說,特別是當(dāng)人工智能發(fā)展到“類人”階段之時(shí),其和人類的不同究竟還有多大?這種不同,是否必定比女性和男性的不同更大?如果我們不應(yīng)因女性和男性的差異而否認(rèn)女性的法律人格,那至少在邏輯上說,差異也不能成為否認(rèn)人工智能之法律人格的理由。

      總之,“與人不同”不能成為否認(rèn)人工智能具有法律人格的充分條件,反過來說,“與人相同”也不應(yīng)被視為認(rèn)可人工智能法律人格的先決條件。因?yàn)榉扇烁癖旧肀闶墙?gòu)的產(chǎn)物,“人工智能是否具有法律人格”與“人工智能是否是人”乃兩個(gè)相互獨(dú)立的問題,沒有什么必然的關(guān)聯(lián)。

      四 ?人工智能法律人格的現(xiàn)實(shí)性問題

      如果我們承認(rèn)人工智能法律人格的被認(rèn)可與否和其本質(zhì)上之有無是兩個(gè)獨(dú)立的問題,也承認(rèn)對人工智能之法律人格的認(rèn)可其實(shí)是一種社會(huì)建構(gòu),那接下來便必然要面對如下一些問題:應(yīng)在何時(shí)認(rèn)可人工智能的法律人格?當(dāng)前是否有必要將此視作一現(xiàn)實(shí)問題來加以考慮?

      如上所述,當(dāng)人工智能發(fā)展到“類人”階段,其法律人格便會(huì)得到明顯的體現(xiàn),從而變得難以否認(rèn)。然則,循此思路很容易將問題延伸到“如何界定人工智能發(fā)展到‘類人階段”“‘類人的標(biāo)準(zhǔn)是什么”甚至“人工智能什么時(shí)候具有人的意識(shí)”“人的意識(shí)是什么”等等至今仍充滿爭議、難有定論的哲學(xué)性討論上。因此,我們有必要轉(zhuǎn)換一個(gè)思路來考慮這個(gè)問題。如前所述,所謂法律人格,可被理解為指法律認(rèn)可的一種享受權(quán)利、承擔(dān)義務(wù)的資格。故權(quán)利義務(wù)一致性的原理,實(shí)可作為相關(guān)思考的理論基礎(chǔ)。毋庸多言,權(quán)利義務(wù)一致性是一基本的法學(xué)原理。例如,我國憲法便確認(rèn)了公民權(quán)利與義務(wù)一致性的原則。權(quán)利和義務(wù)是相互依存的,權(quán)利和義務(wù)是一個(gè)問題的兩個(gè)方面,也是互相促進(jìn),相輔相成的,所謂“有權(quán)利即有義務(wù)”是也。當(dāng)前人工智能發(fā)展的現(xiàn)狀和人工智能的“近人性”,意味著其將具有甚至是已經(jīng)開始具有一種頗具特色的能力,即“脫離人類控制而獨(dú)立行動(dòng)”。而這又意味著人工智能有能力獨(dú)立影響他人的權(quán)利義務(wù)。人工智能自動(dòng)駕駛便是一個(gè)典型的例子。

      隨著人工智能自動(dòng)駕駛技術(shù)的發(fā)展,人類使用者對駕駛的參與可能會(huì)變得越來越少。在此情況下,一旦發(fā)生了損害,相應(yīng)的法律責(zé)任到底應(yīng)由誰來承擔(dān)的問題,至今仍充滿爭議。不過,常見的觀點(diǎn)包括讓智能機(jī)器人的制造商或者使用者承擔(dān)嚴(yán)格責(zé)任等等,讓人工智能自動(dòng)駕駛汽車本身來承擔(dān)法律責(zé)任,則似乎根本未被納入考慮和討論之中。然則,這些觀點(diǎn)都未能完滿回答人工智能自動(dòng)駕駛所可能引起的問題。所謂人工智能,按李開復(fù)的概括,比較主流的定義是:人工智能是有關(guān)“智能主體的研究與設(shè)計(jì)”的學(xué)問,而智能主體則指一個(gè)可以觀察周遭環(huán)境并做出行動(dòng)以達(dá)致目標(biāo),并可通過深入學(xué)習(xí)增進(jìn)自身上述能力的系統(tǒng)。換言之,人工智能并不等同于搭載有人工智能系統(tǒng)的物質(zhì)載體;嚴(yán)格來說,此兩者乃是兩個(gè)完全不同的概念。在人工智能自動(dòng)駕駛問題上,也會(huì)出現(xiàn)大量汽車搭載同一套人工智能自動(dòng)駕駛系統(tǒng)的情況。一方面,當(dāng)人工智能自動(dòng)駕駛技術(shù)發(fā)展到一定程度,甚至連“司機(jī)”的概念也不存在之后,讓使用者承擔(dān)嚴(yán)格責(zé)任顯然并不合理——正如在今天,一輛出租車的交通事故責(zé)任不可能要求乘客來分擔(dān),除非其實(shí)質(zhì)性地對駕駛行為作出了干擾等影響。但另一方面,即便兩臺(tái)人工智能系統(tǒng)物質(zhì)載體是由同一個(gè)制造商生產(chǎn)的,但經(jīng)過深度學(xué)習(xí)之后,它們在面對類似情形下所作出的駕駛反應(yīng)可能也會(huì)有所不同,而這些反應(yīng)甚至可能是連制造商也無法精確預(yù)測的;在這種情況下,一律讓其制造商承擔(dān)嚴(yán)格責(zé)任是否亦有不妥呢?

      此間的關(guān)鍵在于,當(dāng)他人的權(quán)利或義務(wù)受到影響時(shí),相對應(yīng)的義務(wù)或權(quán)利也隨之產(chǎn)生;但因人工智能所具有的獨(dú)立性,將此種相對應(yīng)的義務(wù)或權(quán)利歸諸于其他人在一般情況下是難言合理的,也不符合權(quán)利義務(wù)相一致的原理,而只能歸諸于人工智能。而要讓人工智能有獨(dú)立承擔(dān)權(quán)利和義務(wù)的能力,則意味著必須認(rèn)可其具有法律人格。因此,當(dāng)人工智能“脫離人類控制而獨(dú)立行動(dòng)”、獨(dú)立影響他人的權(quán)利義務(wù)之事例開始出現(xiàn)時(shí),認(rèn)可人工智能的法律人格與否便開始成為一個(gè)需予以考慮的現(xiàn)實(shí)問題了。

      除此之外,現(xiàn)今人工智能所引出的其他一些法律爭議,也開始表現(xiàn)出難以在現(xiàn)有法律框架下來加以解決的特點(diǎn)。再以人工智能的著作權(quán)問題為例。當(dāng)前的主流觀點(diǎn)認(rèn)為,人工智能創(chuàng)作的作品之著作權(quán),應(yīng)歸屬于設(shè)計(jì)者/訓(xùn)練者/所有者;但這種觀點(diǎn)難以解釋在實(shí)踐中可能會(huì)出現(xiàn)的一些情形。如上所言,人工智能并不等同于搭載有人工智能系統(tǒng)的物質(zhì)載體;假如甲、乙分別擁有一臺(tái)人工智能系統(tǒng)物質(zhì)載體,這兩臺(tái)物質(zhì)載體搭載的其實(shí)是同一套人工智能寫作系統(tǒng),甲、乙都將其用于新聞稿件的寫作。不難想象,當(dāng)某一新聞事件發(fā)生時(shí),兩臺(tái)物質(zhì)載體創(chuàng)作出來的稿件很可能非常相似。此時(shí),無論將著作權(quán)歸屬于人工智能的設(shè)計(jì)者、訓(xùn)練者還是所有者,都可能存在不妥之處:設(shè)計(jì)者在此過程中顯然不具有實(shí)質(zhì)性作用;而假如甲、乙最終輸出、發(fā)表其高度相似的稿件的時(shí)間,只有5秒之差,能認(rèn)為發(fā)表在后的乙侵犯了甲的著作權(quán)嗎?由于兩臺(tái)物質(zhì)載體的工作環(huán)境不一樣(例如,其所在的網(wǎng)絡(luò)環(huán)境不同,所能獲得的網(wǎng)絡(luò)資源不一樣),隨著它們各自的深度學(xué)習(xí)的進(jìn)行,此后它們寫出來的稿件可能會(huì)變得有所不同,甚至風(fēng)格也大相徑庭,這又帶來另一個(gè)問題:如果這種獨(dú)創(chuàng)性來自于人工智能系統(tǒng)物質(zhì)載體的自主學(xué)習(xí),而不是來自于其設(shè)計(jì)者/訓(xùn)練者/所有者,那還應(yīng)該將著作權(quán)賦予后者嗎?顯然,人工智能所具有的“脫離人類控制而獨(dú)立行動(dòng)”的潛力,也正是這一具體問題的關(guān)鍵。由于現(xiàn)有法律框架并未考慮到、也不可能考慮到這種情況的存在,故也難以對此作出應(yīng)對。而認(rèn)可人工智能的法律人格,反而是一個(gè)可行的方法。

      不可否認(rèn),認(rèn)可人工智能的法律人格,是對現(xiàn)行法律框架的一個(gè)非常大的沖擊,故確要謹(jǐn)慎為之。當(dāng)前是否確要為之,或如確要為之時(shí)具體應(yīng)如何為之等等問題,此處不擬討論。但無論如何,當(dāng)前人工智能的發(fā)展,其實(shí)已經(jīng)開始表現(xiàn)出“脫離人類控制而獨(dú)立行動(dòng)”的能力或具有這種能力的可能性。因此,我們至少有必要將認(rèn)可人工智能的法律人格視為一個(gè)現(xiàn)實(shí)問題,而不是將其僅僅視作一個(gè)遙遠(yuǎn)的“科幻”問題。

      ??結(jié)?

      綜上所述,根據(jù)現(xiàn)今人工智能的發(fā)展趨勢,從法哲學(xué)的角度觀之,人工智能獲得法律人格,似是不可避免之事。其一,人制造人工智能的取向和路徑,決定了人工智能具有“近人”性,因此,人工智能具有法律人格,與其說是不可想象的,不如說很可能是隨著人工智能的發(fā)展而自然而然的。其二,從法律史的角度看,法律人格乃是一種社會(huì)建構(gòu),“是否具有法律人格”與“是否是人”之間沒有什么必然的關(guān)聯(lián),故認(rèn)可人工智能的法律人格,不必以將人工智能定性為“人”作為前提。其三,根據(jù)權(quán)利義務(wù)相一致的法理,在人工智能能“脫離人類控制而獨(dú)立行動(dòng)”并影響他人的權(quán)利義務(wù)時(shí),對人工智能法律人格予以承認(rèn)的考慮實(shí)際上便已成為了一個(gè)現(xiàn)實(shí)問題。

      當(dāng)然,筆者并不是說,賦予人工智能法律人格迫在眉睫。正如本文開頭所言,當(dāng)前人工智能的發(fā)展仍處在弱人工智能之階段,這種情況下,試圖在現(xiàn)有法律框架下解決人工智能帶來的法律爭議,既是可行的,更是可以理解的。然則,面對人工智能的飛速發(fā)展,我們也許必須保持一種開放性態(tài)度,即,不應(yīng)將固守現(xiàn)有法律框架作為解決人工智能法律爭議的前提,并因此而對其他路徑遽然否定。

      人之所以為人,也許并不在于其是否具有生物性,而在于其能否保持人所應(yīng)具有的一些基本價(jià)值,例如,對他者的尊重?!叭斯ぶ悄芡{論”這一頗受關(guān)注的熱點(diǎn)爭議,也與此相關(guān)。當(dāng)人工智能發(fā)展到一定高度——例如“類人”階段之時(shí),人類所一直堅(jiān)持的把人工智能視為工具,否認(rèn)把人工智能看作“人”的立場,是否還能站得住腳?如果人類沒有給予人工智能以與其性質(zhì)相符的尊重時(shí),是否將可能反過來導(dǎo)致人類本身得不到尊重?從某種意義上看,沙特阿拉伯授予索菲亞公民資格的做法也許確是一個(gè)玩笑,但卻也未嘗不是代表著了一個(gè)能在未來解決人機(jī)關(guān)系這一根本性問題的可能性。而在一定程度上認(rèn)可人工智能的法律人格,亦意味著我們至少對這種關(guān)系人類未來的可能進(jìn)路保持著一種靈活的開放性,而不是在根本無法預(yù)測人工智能之未來的今天,便斷絕了未來本身。

      責(zé)任編輯 ?龔桂明 ?陳西玲】

      猜你喜歡
      人格法律人工智能
      以鳥喻人
      《人格的發(fā)展——巴金傳》(評傳)
      你是回避付出型人格嗎?
      職業(yè)道德與法律 教案
      涉及網(wǎng)絡(luò)募捐的現(xiàn)有法律規(guī)定
      2019:人工智能
      人工智能與就業(yè)
      數(shù)讀人工智能
      下一幕,人工智能!
      漫畫之頁
      汶川县| 诸暨市| 诸城市| 德清县| 惠安县| 保靖县| 汉阴县| 马鞍山市| 南丰县| 上高县| 札达县| 宣城市| 张家川| 婺源县| 佛冈县| 兰州市| 东方市| 崇礼县| 蒲城县| 全椒县| 区。| 信阳市| 榆社县| 安达市| 利川市| 神农架林区| 墨竹工卡县| 讷河市| 凭祥市| 彝良县| 华阴市| 顺昌县| 伊吾县| 仙居县| 嘉鱼县| 乾安县| 池州市| 五大连池市| 讷河市| 壤塘县| 吴江市|