魏銀秀
摘要:隨著人工智能時(shí)代的到來,人工智能技術(shù)已經(jīng)廣泛應(yīng)用于人們的生活。人工智能的出現(xiàn)在給人類帶來便利的同時(shí),還帶來了巨大的挑戰(zhàn)。本文將著眼于人工智能帶來的法律倫理問題,展開討論在面對(duì)這些問題時(shí),可遵循的法律原則以及可借鑒的法律規(guī)制。
關(guān)鍵詞:人工智能; 法律倫理; 法律規(guī)制; 法益位階
一、人工智能帶來的法律倫理問題
人工智能在給人類帶來便利的同時(shí),也帶來了許多社會(huì)問題。如人工智能侵權(quán)時(shí)該如何確定責(zé)任分配的問題,人類失業(yè)問題,對(duì)人類情感的挑戰(zhàn)問題等,都加深了人機(jī)關(guān)系的緊張性。本文主要討論以下三個(gè)社會(huì)問題。
(一)人工智能的侵權(quán)責(zé)任主體認(rèn)定問題
人工智能的出現(xiàn)對(duì)現(xiàn)行法律的適用帶來了巨大的挑戰(zhàn)。有學(xué)者將人工智能分為三個(gè)發(fā)展階段,一是弱人工智能階段,二是強(qiáng)人工智能階段,三是超人工智能階段。弱人工智能階段的機(jī)器人停留在完成簡(jiǎn)單的特定任務(wù),是一個(gè)優(yōu)秀的數(shù)據(jù)處理者。強(qiáng)人工智能階段是具有人類簡(jiǎn)單思維的人工智能,可以在人類提前設(shè)定下,有意識(shí)的進(jìn)行思考。而超人工智能階段,機(jī)器人的思維遠(yuǎn)超于人類,能夠獨(dú)立思考,創(chuàng)作,進(jìn)行社會(huì)交流。目前的人類社會(huì)仍處于強(qiáng)人工智能階段,近年來無人駕駛機(jī)器、醫(yī)療機(jī)器人等引發(fā)的侵權(quán)問題,使得認(rèn)定人工智能侵權(quán)主體的問題愈加緊要。
傳統(tǒng)民法上,機(jī)器人僅能歸屬到“物”這個(gè)客體之中,但如今機(jī)器人的發(fā)展已經(jīng)能夠自主運(yùn)用信息,因此學(xué)者提出對(duì)該分類提出質(zhì)疑。歐盟的法律事務(wù)委員會(huì)向歐盟委員會(huì)提出議案,認(rèn)為超人工智能的機(jī)器人可增設(shè)歸為“電子人”,除享有獨(dú)特的權(quán)利和義務(wù)外,還應(yīng)當(dāng)為其進(jìn)行登記、納稅、享有人類福利。而國內(nèi)部分學(xué)者堅(jiān)持機(jī)器人不宜認(rèn)定為法律主體,因?yàn)闄C(jī)器人不是具有生命的自然人,也不同于法人,若固執(zhí)的將其納入法律主體中,在法理上是站不住腳的。
在實(shí)踐中,機(jī)器人的損害主要有三種,一種是第三人對(duì)人工智能的系統(tǒng)進(jìn)行破壞,使得機(jī)器人成為“兇手”;一種是開發(fā)者對(duì)軟件設(shè)置的過失,使得機(jī)器產(chǎn)品本身帶有缺陷;最后一種是機(jī)器人的所有者在使用過程中因過失產(chǎn)生的損害。而目前人工智能侵權(quán)責(zé)任的認(rèn)定,法院主要是根據(jù)侵權(quán)責(zé)任法中產(chǎn)品所有人的責(zé)任以及生產(chǎn)者、銷售者的過錯(cuò)責(zé)任來認(rèn)定。
(二)人工智能產(chǎn)生人類失業(yè)的問題
人工智能在幫助人類完成復(fù)雜危險(xiǎn)工作的同時(shí),也給人類就業(yè)問題帶來了挑戰(zhàn)。根據(jù)《未來產(chǎn)業(yè): 自動(dòng)化、就業(yè)與生產(chǎn)力》報(bào)告指出,在對(duì)超過2000 多種工作種類以及800 多個(gè)職業(yè)的調(diào)查發(fā)現(xiàn),不少于30%的工作在技術(shù)上可以實(shí)現(xiàn)自動(dòng)化,超過95%的工作依舊無法實(shí)現(xiàn)完全自動(dòng)化。人類利用機(jī)器人工作,生產(chǎn)力每年即可提高 0.8%-1.4%。因此,隨著人工智能在技術(shù)領(lǐng)域越來越精準(zhǔn),機(jī)器就會(huì)替代了人,而原本在這些行業(yè)的工人就會(huì)面臨著失業(yè),給社會(huì)經(jīng)濟(jì)帶來消極影響。
(三)人工智能破壞人類情感倫理的問題
人工智能會(huì)破壞人類長(zhǎng)期形成的情感倫理。人類對(duì)人工智能的情感設(shè)定,機(jī)器人便能自由表達(dá)“自己”的情感,但是機(jī)器人并不能像人一樣擁有細(xì)膩且復(fù)雜的情感,不具有自發(fā)的人情世故,使得其表達(dá)過程中,會(huì)誤解或者褻瀆人類情感。比如美國,日本等國家相繼研發(fā)出了“性愛機(jī)器人”,這種伴侶的情感是人類在長(zhǎng)期社會(huì)生活中形成,但是該機(jī)器人的情感卻根據(jù)廠家設(shè)定而千篇一律。
二、應(yīng)對(duì)人工智能問題的法律原則
人工智能的迅速發(fā)展,由于社會(huì)適應(yīng)的解決機(jī)制滯后于其發(fā)展速度,因此明確解決人工智能問題的法律原則非常重要。法律原則是法律規(guī)則的指導(dǎo)思想。因此法律原則無論是對(duì)相關(guān)人工智能法律的創(chuàng)制還是對(duì)處理人工智能的法律問題都具有重要的意義。本文將介紹處理人工智能的兩個(gè)原則,即個(gè)案平衡原則以及比例原則。
(一)個(gè)案平衡原則
個(gè)案平衡原則是指相同地位的法律價(jià)值之間發(fā)生碰撞時(shí),要具體考慮案件情況,考慮各方的利益。個(gè)案平衡原則提出了以下要求,其重要性依次為:第一是生命、健康利益,人類生存的基礎(chǔ)法律價(jià)值。生命作為人類生存的首要前提,人工智能的存在不能對(duì)人的生命產(chǎn)生威脅;第二是人格尊嚴(yán),人類情感倫理的基礎(chǔ)法律價(jià)值。人類情感倫理是人與人之間建立聯(lián)系,彼此信任的基礎(chǔ);第三是社會(huì)公眾的整體利益,有利于促進(jìn)社會(huì)和諧發(fā)展;第四是法律明確要求予以保護(hù)的法益。法官在認(rèn)定人工智能案件的事實(shí)時(shí),考慮上述原則,得出公平正義的結(jié)論。
(二)比例原則
比例原則包含適當(dāng)性原則、必要性原則和狹義比例原則三個(gè)子原則。對(duì)于人工智能案件,我們首先要秉持適當(dāng)性原則,即我們采用的觀點(diǎn)要注重手段與目的相適應(yīng);其次使用的手段是完成這一目的的必要手段;再次,我們采取的手段不能對(duì)相對(duì)人產(chǎn)生達(dá)成目的后更大的損害。比如國家對(duì)無人駕駛汽車的審批要比普通汽車的審批程序更加嚴(yán)格,但是在出廠后,也不當(dāng)對(duì)售出的汽車進(jìn)行全程實(shí)時(shí)監(jiān)控,否則會(huì)削弱企業(yè)對(duì)人工智能投資的積極性,使得人工智能的研發(fā)受到阻礙。
三、應(yīng)對(duì)人工智能的法律規(guī)制
人工智能的迅速發(fā)展所引發(fā)的社會(huì)問題,使得許多法學(xué)家對(duì)人工智能的法律規(guī)制產(chǎn)生了爭(zhēng)議。社會(huì)對(duì)人工智能的生產(chǎn)者,銷售者,使用者提出合理的法律規(guī)制已經(jīng)愈加急促。本文主要討論以下兩個(gè)法律規(guī)制。
(一)安全為核心的法律規(guī)制
人工智能問題中最重要的法律價(jià)值位階就是保護(hù)生命,那么法律規(guī)制就需要考慮對(duì)安全性的管控。安全是人工智能時(shí)代的重要法價(jià)值,也是社會(huì)秩序穩(wěn)定的“守門員”。人類在社會(huì)中生存,需要一個(gè)安全的環(huán)境,才能更好的實(shí)現(xiàn)其他的人生價(jià)值。因此人類會(huì)對(duì)人工智能的安全性產(chǎn)生憂慮。不成熟的人工智能技術(shù)產(chǎn)生損害結(jié)果,以及其社會(huì)危害性是我們?cè)谶M(jìn)行法律規(guī)制必須要考慮的問題。
認(rèn)定責(zé)任問題是解決人工智能案件的重要法律規(guī)制目的。人工智能問題都落腳于法律責(zé)任問題,立法者要關(guān)注平等主體間產(chǎn)生的人工智能侵權(quán)案件中法律責(zé)任分配。比如立法機(jī)構(gòu)應(yīng)當(dāng)說明人工智能案件中的行為,危害結(jié)果,過錯(cuò),免責(zé)事由等問題,以區(qū)分開發(fā)者,生產(chǎn)者,使用人的權(quán)責(zé)分配。
(二)注重人工智能透明性的法律規(guī)制
人工智能的透明性體現(xiàn)在系統(tǒng)運(yùn)作過程的公開。立法者應(yīng)當(dāng)把人工智能的透明性放入規(guī)制的對(duì)象中,降低責(zé)任確定和責(zé)任分配的難度。人工智能的透明化對(duì)各方利益都會(huì)產(chǎn)生影響。對(duì)使用者來說,人工智能的透明化可讓其知道運(yùn)作過程,并自主決定是否使用。對(duì)于生產(chǎn)者而言,要求其公開,可以接受大眾的監(jiān)督,同時(shí)當(dāng)發(fā)生事故時(shí),透明性有助于查清案件事實(shí),確認(rèn)責(zé)任承擔(dān)主體,有效的監(jiān)控生產(chǎn)者對(duì)人工智能的謹(jǐn)慎義務(wù)。
人工智能的發(fā)展勢(shì)不可擋,但人工智能的侵權(quán)責(zé)任主體認(rèn)定問題,帶來的失業(yè)問題,破壞人類情感倫理的問題也避不可免,應(yīng)對(duì)這些問題我們要遵循個(gè)案平衡原則以及比例原則,同時(shí)立法者需要建立一個(gè)以安全為核心的法律規(guī)制,注重人工智能透明性的法律規(guī)制,只有法律不斷完善,有效的調(diào)節(jié)人機(jī)關(guān)系,才能讓人工智能更好的為人類服務(wù)。
參考文獻(xiàn)
[1]可曉.人工智能的倫理調(diào)適與法律規(guī)制[J].桂海論叢,2019,35(05):112-116.
[2]袁曾.人工智能法益位階研究[J].地方立法研究,2019,4(05):73-84.
[3]王春暉.人工智能的倫理、法律與監(jiān)管[J].互聯(lián)網(wǎng)天地,2018(08):20-24.
[4]高燕.我國人工智能中的法律倫理問題探究[J].法制博覽,2019(16):188-189.
[5]吳漢東.人工智能時(shí)代的制度安排與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(05):128-136.
中南財(cái)經(jīng)政法大學(xué)法律碩士教育中心 430073