• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能法律主體資格研究

      2021-11-26 01:56:27王曉星
      關(guān)鍵詞:主體資格人工智能法律

      王 蕊,王曉星

      (1.鄭州大學(xué) 法學(xué)院,河南 鄭州 450001;2.河南警察學(xué)院,河南 鄭州 150046)

      一、人工智能可否具備法律主體資格

      (一)問題的提出

      1956年,人工智能一詞第一次被公開提出。AlphaGo在與圍棋大師李世石的圍棋對戰(zhàn)中表現(xiàn)得更勝一籌、歷史上第一位公民機器人索菲亞的誕生、俄羅斯總統(tǒng)普京于2019年10月宣布人工智能領(lǐng)域的國家戰(zhàn)略等等,無不體現(xiàn)了人工智能對當(dāng)代生活的影響之重大,人工智能在法律、金融、工業(yè)、服務(wù)、醫(yī)療等多個領(lǐng)域的高度關(guān)注之下,正漸漸地對個人、社會和法律產(chǎn)生深刻的影響[1](P152-152)。

      自然人若要有效地管制人工智能,除了科技,最重要的就是法律。然而,法律為了保持社會秩序的穩(wěn)定,并不會輕易改變,人工智能發(fā)展快速而產(chǎn)生的一系列不在現(xiàn)有法律調(diào)整范圍內(nèi)的問題亟待解決,具備學(xué)習(xí)能力和獨立決策能力的人工智能或?qū)⒊霈F(xiàn),向傳統(tǒng)民法的“人—物”二分法發(fā)起了巨大挑戰(zhàn)。

      研究法律是否應(yīng)當(dāng)賦予人工智能主體資格,符合我國全力發(fā)展人工智能的國情。國務(wù)院在2017年提出,應(yīng)當(dāng)明確界定人工智能主體問題,明確人工智能相關(guān)權(quán)利、義務(wù)和責(zé)任。

      《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號)提出相關(guān)問題的探討應(yīng)當(dāng)為新興事物的發(fā)展預(yù)留適當(dāng)制度空間。在不遠(yuǎn)的未來,交通、醫(yī)療、服務(wù)等方面的人工智能例如自動駕駛汽車[2](P168-173),極有可能替代自然人擔(dān)任許多職位,成為未來社會的“最強大腦”。在這種情況下,最迫在眉睫的法律問題就是怎樣面對人工智能相關(guān)的法律問題,由人工智能創(chuàng)作的作品知識產(chǎn)權(quán)如何認(rèn)定?由人工智能造成的損害后果侵權(quán)責(zé)任何以劃分?如何將人工智能的發(fā)展與社會主義法治建設(shè)有機融合?問題的解決離不開人工智能機器人之主體資格這一基石性焦點的研究。人工智能可否被賦予主體資格、能否成為法律主體,是否應(yīng)當(dāng)繼續(xù)作為客體存在,將成為人工智能時代法學(xué)界亟待解決的關(guān)鍵問題。

      (二)國內(nèi)外研究現(xiàn)狀

      對人工智能法律主體資格問題的探討不絕于耳,各學(xué)者觀點摩擦碰撞,各有所長。通過查閱大量相關(guān)文獻(xiàn)資料,歸納國內(nèi)學(xué)界、司法界、立法界的論爭大致如下:

      首先,國內(nèi)外大多數(shù)學(xué)者的主流意見是,人工智能不具備擁有法律主體資格的條件。反對論者理由有三,第一是當(dāng)前人工智能相關(guān)法律困擾足以在現(xiàn)有法律體系下進(jìn)行解決,把人工智能認(rèn)定歸納入法律客體范疇足矣;第二是人工智能并不具備生物學(xué)上“人”的特性,納入法律主體范圍有違倫理[3](P24-31);第三是人工智能法律問題可以尋求“可替代方案”,而不是重塑現(xiàn)有的法律框架。筆者以為,部分學(xué)者并沒有用比較分析的眼光去對待人工智能發(fā)展問題。人工智能自主性特征的具備與否決定著其法律主體資格的賦予,不能簡單地將人工智能機器人歸入法律客體范疇,因其在本體特點上與其余受動客體擁有實質(zhì)性區(qū)別[4](P109-121)。同時,人工智能的發(fā)展突飛猛進(jìn),而法律的制定必須具有前瞻性,這就決定了關(guān)于人工智能的法律是一部未來法?,F(xiàn)階段人工智能的局限性或許在不遠(yuǎn)的將來就會被突破,所以現(xiàn)階段人工智能的局限性并不能成為承認(rèn)人工智能主體資格的障礙。

      其次,不同于反對論者對人工智能保守的看法和觀點,肯定論者和折衷論者認(rèn)為,人工智能機器人已然具備或未來即將具備與自然人類似思維與行為的可能性[5](P100-110)。但是,學(xué)者們在人工智能被賦予法律主體資格的路徑、論證等因素上具有千差萬別的觀點,目前主要包括擬制主體說、電子主體資格說、有限主體資格說等等。這些學(xué)說無不提供了先進(jìn)性研究,但其所提出的“有限主體資格”、“擬制主體”、“行為效力限度”所指何種限度、何種范圍缺乏深刻剖析,須予以進(jìn)一步圓滿。

      人工智能在不同的發(fā)展階段對現(xiàn)有法律造成的沖擊自然不同。以筆者之見,理應(yīng)對不同發(fā)展階段的人工智能主體資格分開討論,基于此的研究和探討,其結(jié)論才更加科學(xué)、系統(tǒng)、可行。本文首先對人工智能機器人本身進(jìn)行解讀,依照國內(nèi)外學(xué)界的普遍觀點,對人工智能進(jìn)行分類,將其劃分為弱人工智能與強人工智能[6](P135-143),接著以其不同類型為切入點,提出弱人工智能僅僅能作為法律關(guān)系的客體,而強人工智能可以有限地賦予其法律主體資格,并對強人工智能法律主體資格的保護提出理論與實踐上的路徑建議,如重視人工智能立法,設(shè)立立案登記制等等。為人工智能在我國更好地發(fā)展而助力,為我國法律體系更加完善更加系統(tǒng)而助力。

      二、弱人工智能:不具備法律主體的條件

      (一)弱人工智能的界定及特征

      由弱人工智能的定義(1)弱人工智能,是指不能真正地推理和解決問題的智能機器,這些機器只不過看起來像是智能的,但是并不真正擁有智能,也不會有自主意識。可知,其最大的特點是不具備自主意識。弱人工智能的使用者設(shè)置的程序和發(fā)出的指令是其所有行為動機來源。從某種意義上來講,弱人工智能在生活中隨處可見,例如被歐盟《人工智能白皮書》表示3至5年內(nèi)禁用的人臉識別技術(shù);自2017年12月深圳市首次上路行駛無人駕駛公交車以來發(fā)展得如火如荼的無人駕駛技術(shù);棋類運動中大放異彩的“深藍(lán)”系統(tǒng);“阿爾法圍棋”、“智能家電”等軟件;蘋果手機內(nèi)置的智能助手Siri、甚至是能夠根據(jù)使用者不同位置自動調(diào)節(jié)明暗度的照明設(shè)備以及智慧法院中的“AI”法律助手等都是弱人工智能。需要指出的是,弱人工智能具有以下明顯的特征:

      第一,依賴指令。弱人工智能沒有獨立的思想,也不跟自然人一樣有很強的行動能力。弱人工智能活動的實施并不是出于類似自然人自主的意志,而是有賴于自然人設(shè)計者、訓(xùn)練者、操作者下達(dá)的具體指令[7]。指令依賴所帶來的主要后果是,弱人工智能不能隨著外部環(huán)境的變化而改變由自然人設(shè)定的原定方案,換言之,弱人工智能是承載著自然人思想的“行動機器”。

      第二,顯著的人機區(qū)分。弱人工智能因為依賴指令,并不能獨自應(yīng)對復(fù)雜又多變的外部環(huán)境,正因如此,很容易將弱人工智同自然人進(jìn)行區(qū)分辨別。行為上,弱人工智能無法隨機應(yīng)變,不能做出未被寫入行為系統(tǒng)的行為;思想上,弱人工智能沒有“自主意識”,無法進(jìn)行等同于自然人的思考過程,進(jìn)而無法感知物質(zhì)世界與精神世界;理性意義上,弱人工智能不具備意思能力和認(rèn)知能力,這導(dǎo)致弱人工智能無法能動有效地感知世界,即使表面上做出符合道德規(guī)范的行為,也是出于設(shè)計者、訓(xùn)練者或使用者的干涉,其顯然不可能為自身設(shè)立遵循道德標(biāo)準(zhǔn)的行為準(zhǔn)則。

      第三,缺乏智力學(xué)習(xí)能力和自主創(chuàng)新能力。弱人工智能或許可能具備一定的學(xué)習(xí)能力,但是這種學(xué)習(xí)往往是自然人共同參與的結(jié)果。關(guān)于人工智能創(chuàng)作行為的本質(zhì),可分為以下三種情形:其一,人工智能的創(chuàng)作過程受自然人主導(dǎo),自然人在此創(chuàng)作過程中扮演著作者的角色,所生成的作品作者也理應(yīng)是自然人;其二,人工智能的創(chuàng)作基于自然人所提供的基礎(chǔ)數(shù)據(jù),此種情形下的作品是計算機程序經(jīng)過數(shù)據(jù)分析和算法完成所生成的運行結(jié)果,從理論層面分析其作者為自然人[8]。

      通過對以上特征的分析,可以看出:弱人工智能不具備獨立的思維運轉(zhuǎn)能力,其本質(zhì)是自然人思想或行為在特定載體上的投射。弱人工智能不僅無法替代自然人,同時需要依賴自然人的指令,其本質(zhì)上屬于自然人用以提高自身能力創(chuàng)造社會價值的工具。

      (二)弱人工智能法律主體資格的否定

      所謂法律主體,是指在一段法律關(guān)系中,既享有權(quán)利又承擔(dān)義務(wù)的一方。享有權(quán)利的同時承擔(dān)義務(wù)的資格,也就是法律人格。康德主張,有理性的存在稱之為人,無理性而僅僅具有相對價值的存在稱之為物[9]。人與物的劃分標(biāo)準(zhǔn)之理性應(yīng)作何理解?可將其理解為道德能力、自主認(rèn)知能力和意思表達(dá)能力的統(tǒng)一[10](P63-72)。一旦弱人工智能引發(fā)侵權(quán)問題,若由該弱人工智能承擔(dān)法律層面的全部責(zé)任,從而讓人工智能的發(fā)明創(chuàng)造者、訓(xùn)練者、使用者免于承擔(dān)責(zé)任,筆者無法贊同。筆者認(rèn)為弱人工智能仍然只是自然人工具的延伸,并不具備法律人格,不應(yīng)承認(rèn)其法律主體資格,具體理由體現(xiàn)在以下方面:

      1.弱人工智能不具有主觀能動性

      當(dāng)弱人工智能順利結(jié)束一整套動作,它只是在執(zhí)行某種提前植入芯片的毫無意識的動作,而不是通過主觀意愿而做出本身想要做出的行為。向多臺具備同一功能的弱人工智能輸入同一命令,得出的結(jié)果集合將如出一轍,這是因為弱人工智能的運行過程僅僅是一種無意識的、刻板的、機械的運算行為,其并不擁有自然人對客觀世界的主觀能動性。例如,蘋果手機自帶的系統(tǒng)語音助手只會根據(jù)程序的設(shè)定回答指定問題,同一主觀性問題由不同的人問出,得到的回答總是由設(shè)計者寫入的為數(shù)不多的固定回答。這就是弱人工智能機械性的直接體現(xiàn)。

      2.弱人工智能不具有自然人的情感

      弱人工智能由于其不具備主觀能動性無法理解任務(wù)背后的真正含義,自然人所具備的同理心、對公平正義的追求、對傷害行為的諒解等人類情感均無法在弱人工智能身上得到體現(xiàn)。這導(dǎo)致弱人工智能不能進(jìn)行非財產(chǎn)性賠償,例如侵權(quán)責(zé)任中的賠禮道歉等,再如上海法院推出的三項訴訟智能應(yīng)用,提供掃碼立案、網(wǎng)上調(diào)解、訴訟咨詢等多項智能服務(wù)為一體的訴訟服務(wù)體系,該系統(tǒng)基于程序運行所導(dǎo)出的分析和決策支持,雖極大提高了司法效率,但其決策過程并不具有人類的公平正義、同情、諒解等情感,運算系統(tǒng)不會理解其意義,這僅僅是算法產(chǎn)生的機械性結(jié)果。

      綜上所述,弱人工智能由于不具備主觀能動性和自然人的情感而無法處于法律客體之外,其并不具有享有權(quán)利和承擔(dān)義務(wù)的能力,在現(xiàn)行法律體系框架下,無需考慮對法律主體資格的賦予。

      三、強人工智能:有限地賦予法律主體資格

      (一)強人工智能的界定

      認(rèn)知能力是界定強人工智能的重要條件。認(rèn)知能力作為理性的基石性因素,具備認(rèn)知能力的存在才有資格成為法律主體[12](P10-17)。一旦人工智能擁有了認(rèn)知能力,便可以如同自然人一般地感知、聯(lián)想、記憶、思考,然而僅僅具備認(rèn)知能力,對人工智能來說擁有法律主體資格還為時尚早。

      不僅如此,意思表示的做出是界定強人工智能的另一核心要素。主張“欠缺論”的學(xué)者認(rèn)為,否認(rèn)人工智能法律主體資格的重要原因之一是,人工智能身為由人類發(fā)明創(chuàng)造的智能計算機,不具備自主意識、欠缺自由心智、欠缺靈魂、無法享受權(quán)利且無承擔(dān)責(zé)任的能力,換言之,人工智能欠缺與人類相同的意思表示[13]??梢?,意思表示能力是賦予人工智能法律主體資格的重要因子,一旦具備了意思表示能力,其同時也蘊涵了分析、思考、決策、行動等多個能力要素。

      同時具備認(rèn)知能力和意思表達(dá)能力的人工智能,其自主分析做出決策的能力往往會超出設(shè)計者或使用者的預(yù)期,從主觀能動性的角度來看,強人工智能或已達(dá)到成為法律主體的程度。值得注意的是,隨著擁有深度學(xué)習(xí)功能的“阿爾法狗”戰(zhàn)勝人類圍棋冠軍李世石、具備創(chuàng)作功能的人工智能生成了獨具風(fēng)格、富有商業(yè)價值的“作品”等人類認(rèn)為其不可能完成之事的發(fā)生,人工智能的發(fā)展逐漸超乎人類的想象。在科技強國的發(fā)展面前,僅就法規(guī)技術(shù)而言,不能單以倫理、道德或者哲學(xué)等觀點對強人工智能的界定加以限制,而理應(yīng)注重到人工智能與設(shè)計者、訓(xùn)練者和使用者等自然人所做出的意思表示和蘊涵范圍有其務(wù)實性的一面,這要取決于人工智能在具體應(yīng)用中各個領(lǐng)域的實際運作情況[14](P240-253)。

      (二)賦予強人工智能法律主體資格的必要性

      日本有部分學(xué)者的觀點是承認(rèn)除自然人之外的法律主體的存在,日本民法學(xué)家星野英一在分析法律主體的意義時指出,即使是面對人以外的存在,有關(guān)于適合作為法律上權(quán)利義務(wù)之主體的概念,也應(yīng)當(dāng)?shù)玫匠姓J(rèn)[15]。在人工智能迅速發(fā)展的當(dāng)今時代,一些新出現(xiàn)的事物難免會與現(xiàn)行法律產(chǎn)生沖突,所以,法學(xué)研究者應(yīng)當(dāng)把目光放長遠(yuǎn),考慮到人工智能在今后的發(fā)展?fàn)顩r。只有這樣,才能為人工智能的良好健康發(fā)展打好法律基礎(chǔ)。承認(rèn)強人工智能法律地位的必要性可從以下角度展開。

      1.人工智能發(fā)展的需要

      國務(wù)院已提出,人工智能技術(shù)將引領(lǐng)未來,要加強出臺一系列政策和規(guī)劃,努力在當(dāng)今國際科技的激烈競爭中占得主導(dǎo)權(quán)(3)《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號)。。伴隨著科學(xué)技術(shù)的迅速崛起和廣泛應(yīng)用,人工智能在社會生活中起著越來越重要的作用,人工智能本身的發(fā)展日新月異。盡管已經(jīng)經(jīng)過了半個多世紀(jì)的發(fā)展,人工智能依然需要跟進(jìn)社會發(fā)展得步伐。如上文所述,在不遠(yuǎn)的未來,一旦迎來強人工智能時代,人工智能會在許多領(lǐng)域創(chuàng)造出超乎想象的社會效益,如交通、美容、醫(yī)療等領(lǐng)域[16]。因此,有限地賦予強人工智能的法律主體資格,是在為未來人工智能的進(jìn)一步發(fā)展和科技強國的穩(wěn)步崛起奠定堅實的法律基礎(chǔ)。

      2.社會發(fā)展進(jìn)步的要求

      其中,為所選路徑中前往充電的充電站集合;為電動汽車在完全充電狀態(tài)的容量;為電動汽車在充電站充電電量與總?cè)萘康谋戎?;為該充電站的充電功率為充電效率?/p>

      人工智能的快速發(fā)展可以對諸如計算機、物聯(lián)網(wǎng)、互聯(lián)網(wǎng)等行業(yè)起到推波助瀾的作用。二者相互促進(jìn),相得益彰[17]。以科技帶動社會的發(fā)展,以法律促進(jìn)科技的進(jìn)步。例如將人工智能和互聯(lián)網(wǎng)相結(jié)合的智慧法院,雖然目前智慧法院對人工智能的運用仍處于初級階段,但不排除強人工智能時代由機器人充當(dāng)律師甚至法官角色的可能性。因此,為了更好地促進(jìn)社會生產(chǎn)力的增長,更好地適應(yīng)經(jīng)濟社會的發(fā)展趨勢,更好地促進(jìn)我國智慧司法體系的更新和完善,應(yīng)當(dāng)在一定限度內(nèi)適當(dāng)肯定強人工智能的法律主體資格。在如今人工智能相關(guān)的法律法規(guī)調(diào)整跟不上其發(fā)展速度的大背景下,賦予強人工智能以法律主體資格是大力發(fā)展人工智能強國戰(zhàn)略的重要意涵。

      3.自然人權(quán)益保護的重要舉措

      一旦步入強人工智能時代,自然人與人工智能之間就不再是法律主體與法律客體的關(guān)系了。自然人為了自身的進(jìn)步,一方面不斷地對人工智能進(jìn)行更迭換代,另一方面也在逐漸地改變著自己的生活方式。無論是搬運工、快遞員等體力工作者還是法官、會計等腦力工作者,都將面臨被人工智能取代其職位的威脅。與此同時,強人工智能的出現(xiàn)可以代替自然人完成一些我們很難做到的高難度工作。可見,人工智能發(fā)展并崛起的速度是足夠快的,遠(yuǎn)遠(yuǎn)超過了自然人自身的進(jìn)化速度,這令人不得不擔(dān)心,是否在不遠(yuǎn)的將來,人工智能悄無聲息地改變了我們的思維模式和生活方式。一旦事實如此,人工智能的肆意生長就可能為我們造成無法預(yù)料的威脅。因此,在人工智能尚且處在弱人工智能階段的今天,出于法律的滯后性考慮,在適當(dāng)限度內(nèi)承認(rèn)強人工智能的法律地位不僅可以規(guī)制人工智能技術(shù)的健康有序發(fā)展,同時有效地降低人工智能時代對自然人生存帶來的風(fēng)險。

      (三)賦予強人工智能法律主體資格的有限性

      強人工智能作為特殊法律主體,具備理性認(rèn)識以及意思表示能力,在未來發(fā)展?jié)M足相應(yīng)條件的前提下,應(yīng)當(dāng)有限承認(rèn)其法律主體地位[18](P20-31),這種有限性主要體現(xiàn)在其所享有的權(quán)利有限。

      出于強人工智能特殊性考慮,即使在滿足相應(yīng)條件對其法律主體資格予以承認(rèn)時,也應(yīng)著重限制其部分權(quán)利,譬如選舉權(quán)和被選舉權(quán)等政治權(quán)利,以避免人工智能對自然人社會造成更大威脅。換言之,即使是擁有法律主體資格的強人工智能,在成為憲法主體時也應(yīng)面臨更嚴(yán)謹(jǐn)?shù)姆上拗啤Ec此同時,出于生物倫理安全的考慮,人工智能在婚姻家庭方面也將面臨著法律限制。

      由此看來,即便符合了賦予其法律主體資格的條件,強人工智能的法律主體地位也是十分受限的。作為私法主體,其受到倫理、道德、生物學(xué)方面的限制,作為公法主體,強人工智能很難同自然人一樣參與到方方面面的社會生活中。

      四、人工智能法律主體資格的規(guī)范路徑

      法學(xué)是一門實踐的科學(xué)[19](P89-99),法律主體資格的賦予與否不能僅局限于理論研究,也應(yīng)當(dāng)重視在實務(wù)中的可操作性。智能時代的到來極大改變了自然人的生活模式和思維方式,但人們對人工智能的未來發(fā)展很難進(jìn)行準(zhǔn)確的預(yù)測,這不僅會引發(fā)一系列諸如知識產(chǎn)權(quán)、侵權(quán)責(zé)任等法律糾紛,也會衍生出相關(guān)的道德問題。綜合上文所述,在人工智能不同的發(fā)展階段中,其所具備的科技性、能動性、主觀性有所不同,因此當(dāng)人工智能處于不同發(fā)展階段其法律主體資格也不可一概而論,對于弱人工智能不應(yīng)賦予法律上的主體資格,而對于強人工智能有必要賦予其有限的法律主體資格。即便人工智能當(dāng)前仍處于弱人工智能階段,但為了有效解決時代快速發(fā)展、科技飛速進(jìn)步可能會產(chǎn)生的法律問題,對有必要具備法律主體資格的強人工智能采取保護及規(guī)范措施,是當(dāng)前大力發(fā)展人工智能、推進(jìn)科技強國建設(shè)和法治國家建設(shè)的重要意涵。

      (一)重視人工智能相關(guān)立法研究

      近幾年來,我國對工業(yè)機器人的消費在國際上一直名列前茅,然而,人工智能使用率的增加并沒有伴隨著相關(guān)法律法規(guī)的規(guī)范與保護,我國迄今為止尚未制定較為完整的人工智能法律規(guī)范。在國務(wù)院提出的發(fā)展規(guī)劃中(4)2017年7月8日,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,將人工智能發(fā)展定位為我國戰(zhàn)略產(chǎn)業(yè),分為三步發(fā)展,第一步就是要加快人工智能核心技術(shù)的研發(fā)應(yīng)用,然后再逐步建立人工智能法律法規(guī)與相應(yīng)監(jiān)管以最大限度降低風(fēng)險。,我國已經(jīng)提出以分步走的方式建立健全人工智能相關(guān)法律規(guī)范的戰(zhàn)略目標(biāo),但并未提出具體的可行性建議。在人工智能越來越普遍且功能越來越強大的今天,如何解決人工智能帶來的法學(xué)難題,如何構(gòu)建人工智能體系化法律規(guī)范,成為法學(xué)界迫在眉睫的研究焦點。

      《數(shù)據(jù)安全法》和《個人信息保護法》先后通過,人工智能相關(guān)立法也已提上日程。在發(fā)展迅速的智能時代,應(yīng)當(dāng)加快建立健全人工智能相關(guān)法律制度,對不同發(fā)展階段的人工智能分別進(jìn)行法律上的明確規(guī)定,在法律層面明確承認(rèn)人工智能的主體地位,從而為人工智能技術(shù)的發(fā)展提供法律保障,為學(xué)界對其的研究與探討提供話語基礎(chǔ)。

      (二)賦予權(quán)利與限制權(quán)利齊頭并進(jìn)

      綜合上文所述,強人工智能相對而言具有較強的自主性和能動性,其法律主體資格在一定程度上應(yīng)當(dāng)被承認(rèn)。在合理范圍內(nèi),其理應(yīng)享有相應(yīng)的法律權(quán)利,面對我國現(xiàn)行法律體系對人工智能相關(guān)規(guī)定的缺乏,強人工智能的法律權(quán)利明確、權(quán)利限度設(shè)置等法學(xué)難題亟待解決。強人工智能權(quán)利的賦予應(yīng)當(dāng)遵循擬人性、必要性原則。

      強人工智能在合理范圍內(nèi)被賦予的法律權(quán)利應(yīng)當(dāng)具有擬人性。其最大特征是享有被尊重對待的權(quán)利,因強人工智能與一般法學(xué)意義上的“物”有所不同,除了自我深度學(xué)習(xí)能力、自主意識、能動性之外,強人工智能具備辨認(rèn)和控制能力,熟悉人類社會的倫理、規(guī)則,故其不應(yīng)被視作奴隸、犯罪工具等不具尊嚴(yán)的存在。

      強人工智能法律權(quán)利的賦予應(yīng)當(dāng)遵循必要性原則。當(dāng)且僅當(dāng)人工智能相關(guān)法律關(guān)系亟待其相關(guān)權(quán)利的設(shè)定時,其法律權(quán)利方可被賦予,除此之外,強人工智能的法律權(quán)利應(yīng)當(dāng)被嚴(yán)格設(shè)置限度。無論是當(dāng)前學(xué)界討論的“肯定式例舉”還是“否定式例舉”,對強人工智能法律權(quán)利的周延性都難以作出嚴(yán)謹(jǐn)具體的規(guī)定,基于此,筆者認(rèn)為部分學(xué)者提出的“法律保留”的限定方式具有較強可行性。譬如可通過法律保留的做法對人工智能的政治權(quán)利加以限制,如選舉權(quán)和被選舉權(quán)等,通過法律保留將其自由權(quán)限制在對自然人有利的界限以內(nèi)。從人工智能設(shè)計研發(fā)的初衷以及霍金對人工智能與人類未來的預(yù)言角度來看,對強人工智能法律權(quán)利的限制一定程度上避免了人類所憂慮的人工智能危機。

      可見,賦予權(quán)利與限制權(quán)利齊頭并進(jìn),是研究人工智能法律權(quán)利問題的關(guān)鍵。我們在承認(rèn)強人工智能法律主體資格的同時,也要意識到對其法律權(quán)利加以限制的必要性。這不僅有利于完善人工智能相關(guān)法的制度設(shè)計,同時為人工智能的長遠(yuǎn)發(fā)展構(gòu)建了穩(wěn)固基石。

      (三)實施強人工智能備案制

      法律基于穩(wěn)定性的需要不可隨意改動,智能時代,其穩(wěn)定性難免導(dǎo)致法律跟不上時代發(fā)展的步伐,這種滯后性導(dǎo)致現(xiàn)行法律體系無法同人工智能等新興事物相契合。在發(fā)展迅速的人工智能時代,出于法律的滯后性考慮,學(xué)界需要以預(yù)判的目光審視當(dāng)下、展望未來。為適應(yīng)我國大力發(fā)展人工智能的需要,推進(jìn)人工智能技術(shù)健康茁壯發(fā)展,夯實制度基礎(chǔ)是明確人工智能法律主體地位的題中應(yīng)有之義。

      在探索與人工智能相關(guān)法律問題的制度構(gòu)建道路中,人工智能備案制無疑是最熠熠生輝的指路牌之一。承認(rèn)強人工智能的法律主體資格,自然伴隨著相關(guān)法律法規(guī)的建立健全和具體制度的構(gòu)建與實施,實行人工智能備案制度,需要法律法規(guī)及相關(guān)部門設(shè)立標(biāo)準(zhǔn),以不同的身份識別標(biāo)識對符合條件的強人工智能逐一登記備案,便于以數(shù)據(jù)或編碼的不同對其進(jìn)行識別。對強人工智能實施登記備案,不僅有利于明確人工智能相關(guān)法律問題中各方權(quán)利義務(wù),保障法律責(zé)任的清晰劃分,同時為人工智能法律主體地位的賦予提供了制度保障。

      足以見得,法學(xué)學(xué)者要正視法律的滯后性特點,用稍具超前的學(xué)科眼光審視人工智能的法律主體資格問題,在此基礎(chǔ)上充分認(rèn)識到賦予人工智能法律地位的必要性和可行性,為人工智能的發(fā)展道路掃清法律障礙。

      (四)保護制造強人工智能的核心技術(shù)

      現(xiàn)實中,部分人工智能會做出諸多對自然人不利的行為舉動,例如削面機器人突然攻擊自然人,掃地機器人向主人發(fā)出語音恐嚇,智能駕駛汽車脫離控制引發(fā)交通事故等行為。而這些對自然人不利的情況,不排除由于其研發(fā)者動機不純,故意為人工智能設(shè)計出不利舉動的可能性。未來人工智能會如何發(fā)展,很大程度上決定于人工智能研發(fā)者和設(shè)計者的想法。假設(shè)一位致力于違法犯罪的犯罪分子掌握了強人工智能技術(shù),后果簡直不堪設(shè)想。那些存在于科幻片中的畫面或許某天會在現(xiàn)實中上演。當(dāng)然,這不代表著自然人要抑制人工智能的發(fā)展,而是要在推進(jìn)人工智能發(fā)展的同時,牢牢保護好核心技術(shù)。我們可以設(shè)立強人工智能核心技術(shù)專門保護機關(guān);對剽竊強人工智能核心技術(shù)的行為予以嚴(yán)厲打擊;提高人工智能研發(fā)者的法律意識和道德感等等。與此同時,提高研發(fā)者的法律意識和責(zé)任感,對于未來人工智能的建設(shè)十分重要。只有如此,我們才能保障人工智能時代的和平與美好。

      五、結(jié)語

      人們在享受人工智能所帶來的便利與美好的同時,也要預(yù)料到人工智能的快速發(fā)展可能會帶來的法律風(fēng)暴,防患于未然,合理防范各種風(fēng)險的發(fā)生[20](P14-19)。討論人工智能的主體資格賦予問題,不僅有助于為人工智能技術(shù)的發(fā)展道路掃除法律障礙,同時為推進(jìn)我國法律體系的逐步完善和更新提供助力。多學(xué)科多角度的研討分析,一定程度上將促進(jìn)我國引領(lǐng)世界人工智能新潮流的發(fā)展進(jìn)程。面對不同發(fā)展階段的人工智能,我們需要制定和完善人工智能相關(guān)的法律法規(guī),對不同類型的人工智能予以明確的區(qū)別,并在法律上賦予二者不同的法律主體資格。一方面繼續(xù)把弱人工智能當(dāng)作法律上的物,即法律客體,另一方面承認(rèn)強人工智能有限的法律主體地位,同時承認(rèn)其法律主體資格的有限性,使其作為法律主體參與到法律關(guān)系中,充分發(fā)揮強人工智能不同于自然人的優(yōu)勢,利用科技的進(jìn)步帶動自然人社會的發(fā)展,同時促進(jìn)我國法律體系不斷地更新和完善。與此同時,強人工智能的法律認(rèn)定標(biāo)準(zhǔn)及其在道德、倫理和哲學(xué)層面的剖析,亟待學(xué)界開展更深層次的法學(xué)研究。

      猜你喜歡
      主體資格人工智能法律
      法律解釋與自然法
      法律方法(2021年3期)2021-03-16 05:57:02
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      環(huán)境污染侵權(quán)案件實務(wù)中的問題研究
      公司設(shè)立中發(fā)起人的主體資格該如何認(rèn)定?
      人間(2016年30期)2016-12-03 20:28:29
      死者權(quán)益維護與法律適用
      環(huán)境公益訴訟主體存在問題及對策
      下一幕,人工智能!
      讓人死亡的法律
      山東青年(2016年1期)2016-02-28 14:25:30
      威海市| 贵德县| 西安市| 东至县| 武安市| 道孚县| 尼玛县| 大宁县| 北安市| 伊宁县| 驻马店市| 洪雅县| 密山市| 泰兴市| 彰武县| 德保县| 神池县| 鄂托克旗| 磐安县| 马公市| 綦江县| 涡阳县| 北京市| 西林县| 黎川县| 临潭县| 靖江市| 章丘市| 凤翔县| 乌海市| 鄂州市| 陵川县| 巩义市| 海林市| 浠水县| 海兴县| 九龙坡区| 六枝特区| 屏南县| 永顺县| 海门市|