• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      淺論人工智能的產(chǎn)品責(zé)任

      2019-08-06 09:46:43任澤龍
      時(shí)代金融 2019年18期
      關(guān)鍵詞:法律屬性專項(xiàng)基金人工智能

      任澤龍

      摘要:在人工智能飛速發(fā)展的現(xiàn)在,我們有必要考慮現(xiàn)有的責(zé)任框架是否能適應(yīng)這種新技術(shù)的發(fā)展。人工智能給既有的責(zé)任體系提出了過(guò)錯(cuò)責(zé)任適用難;產(chǎn)品責(zé)任難于舉證,包括難于對(duì)人工智能產(chǎn)品的缺陷進(jìn)行舉證以及對(duì)因果關(guān)系進(jìn)行舉證等問(wèn)題。在現(xiàn)在這個(gè)時(shí)代人工智能仍然是人類的工具,是一種物,確認(rèn)人工智能的法律屬性是討論一切人工智能問(wèn)題的前提。在探討人工智能引發(fā)事故的承擔(dān)方式時(shí),否認(rèn)了舉證責(zé)任倒置的可能性,討論了設(shè)立專項(xiàng)基金的可能性,對(duì)于實(shí)力弱小的公司來(lái)說(shuō),雖然是自愿選擇但應(yīng)當(dāng)被納入監(jiān)管;對(duì)于實(shí)力雄厚的公司,則可以自愿選擇是否被納入監(jiān)管。

      關(guān)鍵詞:人工智能 產(chǎn)品責(zé)任 法律屬性 承擔(dān)方式 專項(xiàng)基金

      一、引言

      當(dāng)今世界但凡是想走在世界前列的國(guó)家,無(wú)一不在關(guān)注人工智能的發(fā)展。迄今為止,已經(jīng)涌現(xiàn)出了很多關(guān)于人工智能的應(yīng)用,最典型的如人工智能助手、無(wú)人駕駛技術(shù)、人臉識(shí)別……再比如可以自行進(jìn)行創(chuàng)作文藝作品的微軟小冰,可以與人進(jìn)行辯論的Project Debater等。

      雖然現(xiàn)在各個(gè)領(lǐng)域的科學(xué)家一直在對(duì)人工智能進(jìn)行研究,但是在法律方面,其最核心的人工智能的法律地位問(wèn)題卻并沒(méi)有隨著研究的進(jìn)行而達(dá)成共識(shí)。在理論上,各個(gè)學(xué)者的觀點(diǎn)莫衷一是,基本停留在理論階段;現(xiàn)實(shí)中,關(guān)于人工智能造成侵權(quán)事件的法律適用也并沒(méi)有隨著人工智能的發(fā)展而發(fā)展,且在適用時(shí)存在分歧。

      2017年,國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,其中明確規(guī)定將“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系”作為我國(guó)發(fā)展人工智能的戰(zhàn)略目標(biāo)。

      二、人工智能對(duì)傳統(tǒng)責(zé)任提出的挑戰(zhàn)

      就傳統(tǒng)意義上的機(jī)器來(lái)說(shuō),無(wú)論多么先進(jìn),在追溯法律責(zé)任時(shí),都是可以追溯到人類身上的,無(wú)論是它的眾多制造者在里面注入的設(shè)計(jì)思想、使用的知識(shí)、或者是編寫的程序,又或者是它的使用者操作不當(dāng)引起的事故等等。沒(méi)有人會(huì)因?yàn)樗欠浅O冗M(jìn)的機(jī)器而去追究機(jī)器的責(zé)任,它們只不過(guò)是工具而已。就拿機(jī)器中算是非常先進(jìn)的智能手機(jī)來(lái)說(shuō),當(dāng)手機(jī)發(fā)生事故致人受傷——例如電池爆炸時(shí),要么會(huì)追究到使用者充電方式不當(dāng)?shù)脑蛏?,要么?huì)追究到其制造商三星身上,追究其產(chǎn)品缺陷責(zé)任,而不是去追究手機(jī)。

      但是人工智能出現(xiàn)后,出現(xiàn)了另一種可能性:當(dāng)自主的機(jī)器被推向市場(chǎng)——譬如自動(dòng)駕駛技術(shù)——在其采取侵害行為后,對(duì)其侵害后果進(jìn)行法律責(zé)任的分配時(shí),現(xiàn)有的責(zé)任規(guī)則還是否適用?是否可以處理它所引發(fā)的絕大部分問(wèn)題?因?yàn)殡m然是人類制造了它們,但是它們?cè)谛袆?dòng)時(shí),并不會(huì)考慮人類的命令,它們的行動(dòng)基準(zhǔn)只有一個(gè)——它們收集來(lái)的數(shù)據(jù)。這就造成它們?cè)诓煌榫爸械男袨槟J讲粫?huì)被其制造者所預(yù)料,又或者在同一情境中由于其收集到的數(shù)據(jù)不同而采取不同的行為模式,這是無(wú)法控制的。

      關(guān)于產(chǎn)品責(zé)任的規(guī)定,可以見(jiàn)諸于《侵權(quán)責(zé)任法》、《產(chǎn)品質(zhì)量法》、《消費(fèi)者權(quán)益保護(hù)法》等法律里面,具體來(lái)說(shuō),如果產(chǎn)品存在缺陷且造成損害,那么受害者可以向產(chǎn)品的生產(chǎn)者或銷售者申請(qǐng)賠償。現(xiàn)在一般認(rèn)為,產(chǎn)品責(zé)任是無(wú)過(guò)錯(cuò)責(zé)任。如果人工智能發(fā)生致人損害的事件,受害者需要證明人工智能(產(chǎn)品)有缺陷、損害事實(shí)的存在,以及兩者之間的因果關(guān)系才能獲得救濟(jì)。

      產(chǎn)品缺陷,這個(gè)產(chǎn)品責(zé)任中的核心現(xiàn)在一般分為設(shè)計(jì)缺陷、制造缺陷、警示缺陷這三類。關(guān)于這個(gè)缺陷認(rèn)證標(biāo)準(zhǔn),我國(guó)在《產(chǎn)品質(zhì)量法》第46條中予以規(guī)定。問(wèn)題是,如果受害者要申請(qǐng)賠償,他就必須證明這三點(diǎn),其中最好證明的損害事實(shí)略過(guò)不談,光看產(chǎn)品有缺陷和因果關(guān)系這兩點(diǎn)。

      就證明人工智能有缺陷這點(diǎn),已經(jīng)幾乎是不可能的事情了。

      讓受害者證明人工智能的設(shè)計(jì)缺陷——人工智能的設(shè)計(jì)涉及到領(lǐng)域內(nèi)的專業(yè)知識(shí)和編程,讓普通的消費(fèi)者去證明這些編程有錯(cuò)誤,宛如海底撈月;首先,普通消費(fèi)者如何去獲得人工智能的編程代碼?其次,就算得到了,又去如何尋找其中的缺陷?

      讓受害者證明人工智能的制造缺陷——人工智能的制造通常會(huì)集中在某些芯片里,讓普通消費(fèi)者去尋找這些芯片的制造缺陷,那更是強(qiáng)人所難,無(wú)論是消費(fèi)者的技術(shù)還是知識(shí),根本無(wú)法達(dá)到這個(gè)水準(zhǔn)。

      讓受害者證明人工智能的警示缺陷——比起前面兩個(gè)缺陷來(lái)說(shuō),這個(gè)缺陷似乎更容易作為產(chǎn)品缺陷來(lái)提出,但是具體到人工智能身上,卻也并不那么好用。人工智能的使用方法就目前來(lái)看要么是全自動(dòng),要么是通過(guò)語(yǔ)音進(jìn)行控制,在這里尋找使用方法的警告似乎不太現(xiàn)實(shí);但是就產(chǎn)品潛藏的風(fēng)險(xiǎn)進(jìn)行警告來(lái)說(shuō),現(xiàn)在任何產(chǎn)品幾乎都會(huì)有說(shuō)明書進(jìn)行說(shuō)明,更不用說(shuō)人工智能了。

      之所以確定無(wú)過(guò)錯(cuò)責(zé)任這種歸責(zé)原則,在于要保障消費(fèi)者的權(quán)益,保障因缺陷產(chǎn)品而造成的損害都能被救濟(jì),都能讓生產(chǎn)者、制造者、銷售者承擔(dān)各自的責(zé)任,并且這種責(zé)任無(wú)法被推翻。在人工智能領(lǐng)域,專業(yè)性極強(qiáng)情況下,其設(shè)計(jì)者的責(zé)任被放大,成為主要責(zé)任人。因?yàn)橐O(shè)計(jì)并制造一個(gè)人工智能,其所需要的專業(yè)知識(shí)何其龐大,而且在設(shè)計(jì)出來(lái)后人工智能有“自我學(xué)習(xí)”的特征,“學(xué)習(xí)”后的人工智能可能采取的行動(dòng)模式可能連設(shè)計(jì)者都無(wú)法判明。既然設(shè)計(jì)者都無(wú)法判明,那這種證明責(zé)任就更不可能強(qiáng)加給受害者。要知道,在高科技專業(yè)領(lǐng)域,受害者與設(shè)計(jì)者、制造者的知識(shí)比起來(lái),那就是天上地下的差距。設(shè)計(jì)者本人都不能證明的缺陷,當(dāng)然不能強(qiáng)行推到受害者頭上,否則就太不公平了——本身受害者已經(jīng)處于弱勢(shì)地位,還要承擔(dān)對(duì)自己來(lái)說(shuō)難于登天的證明責(zé)任。

      因此證明人工智能有缺陷這點(diǎn),對(duì)于普通消費(fèi)者來(lái)說(shuō)幾乎是不可能的事情。

      那么因果關(guān)系又如何呢?

      因果關(guān)系也就是說(shuō)受害者必須證明自己受到的損害是人工智能造成的。應(yīng)當(dāng)知道,人工智能最本質(zhì)的特征之一就是“自我學(xué)習(xí)”。以自動(dòng)駕駛汽車為例,因?yàn)檫@個(gè)特點(diǎn),使得人們?cè)谑鹿屎筮M(jìn)行導(dǎo)致事故發(fā)生的決策邏輯和過(guò)程變得非常艱難。因?yàn)榇藭r(shí)的人工智能系統(tǒng)在經(jīng)過(guò)自我學(xué)習(xí)之后已經(jīng)脫離了設(shè)計(jì)者最初給它設(shè)計(jì)好的決策邏輯和模式。這時(shí),即便是其設(shè)計(jì)者或者制造商都會(huì)頭疼于這一問(wèn)題,決策邏輯的黑箱并不是那么容易看清的。對(duì)設(shè)計(jì)者和制造者如此,更遑論普通的消費(fèi)者。當(dāng)然,如果受害者恰好具備專業(yè)知識(shí)或者也有專業(yè)的設(shè)備對(duì)其進(jìn)行分析,那么在這個(gè)過(guò)程中產(chǎn)生的成本是否會(huì)超過(guò)受到的損失,又或者普通受害者是否有成本與精力去進(jìn)行這么繁雜的分析,又是一個(gè)問(wèn)題。

      因此,要受害者證明人工智能的產(chǎn)品缺陷責(zé)任,幾乎是不可能的事情。

      三、現(xiàn)階段人工智能法律地位的定位

      研究人工智能的法律問(wèn)題,就必須先回答其核心問(wèn)題:人工智能的法律地位究竟是什么?這個(gè)問(wèn)題是繞不過(guò)去的,在將來(lái),一定會(huì)出現(xiàn)跟人類長(zhǎng)得一模一樣的人工智能機(jī)器人,那么,它究竟是人還是物?

      目前對(duì)此主要有三種不同意見(jiàn):肯定說(shuō)、否定說(shuō)、折中說(shuō)。

      對(duì)于人工智能到底具不具有人格這個(gè)問(wèn)題,筆者認(rèn)為應(yīng)當(dāng)依據(jù)人工智能的發(fā)展的情況來(lái)分類討論。人工智能業(yè)界把人工智能按照先進(jìn)程度分為:弱人工智能、強(qiáng)人工智能、超人工智能三類。超人工智能這種屬于夢(mèng)想中的智能暫且不論。

      就強(qiáng)人工智能來(lái)說(shuō),雖然對(duì)其描述是“有自我意識(shí)、擁有思維、有推理和解決問(wèn)題的能力”,但是如今在國(guó)際上強(qiáng)人工智能的研究幾乎沒(méi)有進(jìn)展,也沒(méi)有相關(guān)活動(dòng)。事實(shí)上,現(xiàn)在業(yè)界的目標(biāo)也只是弱人工智能而已。

      就弱人工智能來(lái)說(shuō),目前的所有人工智能都屬于這一類。賦予它們以人格,就目前來(lái)看,顯然并沒(méi)有必要。如果賦予了弱人工智能以人格,就意味著它需要獨(dú)立承擔(dān)責(zé)任。那么,如果弱人工智能引發(fā)事故致人受傷,受害者就應(yīng)當(dāng)去找弱人工智能去尋求賠償而不是它的制造者。

      在此,筆者根據(jù)目前民法的理念來(lái)看:目前的人工智能仍然是傳統(tǒng)意義上的物,是人類的工具——只不過(guò)比其它的工具更先進(jìn),僅此而已。

      四、對(duì)人工智能造成損害后果的承擔(dān)方式的探析

      在否定人工智能具有人格這一點(diǎn),明確其法律地位仍然是物之后,對(duì)于其造成的侵權(quán)事故就應(yīng)當(dāng)仍以傳統(tǒng)民法下的責(zé)任框架為主——但是也必須看到,就像之前所說(shuō),傳統(tǒng)責(zé)任框架下要對(duì)人工智能適用過(guò)錯(cuò)責(zé)任幾乎是不可能,適用產(chǎn)品責(zé)任也有極大的難度,因此必須稍作改變來(lái)適應(yīng)這一狀況。

      首先應(yīng)該明確現(xiàn)在人工智能的侵權(quán)責(zé)任應(yīng)當(dāng)歸屬于當(dāng)代侵權(quán)責(zé)任法中的產(chǎn)品責(zé)任,即便適用起來(lái)有困難,但這是由人工智能的法律屬性所決定的。難道當(dāng)“索菲亞”出現(xiàn)故障或者被駭客侵入而傷害他人時(shí),要對(duì)索菲亞予以刑事制裁或者讓它承擔(dān)責(zé)任,拿錢來(lái)賠償受害者嗎?顯然并不會(huì)有人這么想。

      (一)舉證責(zé)任倒置的可能性

      在產(chǎn)品責(zé)任中,通常是由受害者來(lái)承擔(dān)舉證責(zé)任的。雖然《產(chǎn)品質(zhì)量法》第四十一條第二款規(guī)定了免責(zé)條款,但是對(duì)于人工智能這個(gè)領(lǐng)域來(lái)說(shuō),如果把受害者的舉證責(zé)任也強(qiáng)加到設(shè)計(jì)者、生產(chǎn)者身上的話,連同免責(zé)條款的舉證責(zé)任一起,那么幾乎可以判定,只要消費(fèi)者受到損害,那么設(shè)計(jì)者、生產(chǎn)者一定會(huì)承擔(dān)相應(yīng)的賠償后果,那么這個(gè)舉證的意義幾乎蕩然無(wú)存。而且也會(huì)過(guò)于加重設(shè)計(jì)者、生產(chǎn)者的壓力,致使他們將司法這個(gè)隱性成本附加在產(chǎn)品價(jià)格上,無(wú)意中會(huì)抬高人工智能這一門惠及大眾的尖端技術(shù)的準(zhǔn)入門檻,讓普通消費(fèi)者望而止步。隨著社會(huì)需求減少,那么人工智能的發(fā)展也會(huì)受到限制。

      因此就舉證責(zé)任倒置來(lái)看,可能性并不是很大,一味地加重設(shè)計(jì)者、生產(chǎn)者的責(zé)任雖然可以很好地保護(hù)受害者的權(quán)益,但是也會(huì)過(guò)分打擊設(shè)計(jì)者、生產(chǎn)者,與其讓他們一直擔(dān)心自己的產(chǎn)品會(huì)不會(huì)傷害人類從而畏首畏尾,不如一定程度上減輕他們身上的負(fù)擔(dān)讓他們勇往直前。

      (二)人工智能專項(xiàng)賠償基金的可能性

      隨著人工智能的發(fā)展,在將來(lái)一定會(huì)出現(xiàn)大量的相關(guān)產(chǎn)品,鑒于人工智能的特殊性,可以考慮由政府設(shè)立一個(gè)專項(xiàng)監(jiān)管機(jī)構(gòu)對(duì)人工智能進(jìn)行監(jiān)管。在監(jiān)管機(jī)構(gòu)下,公司對(duì)于自家進(jìn)入市場(chǎng)流通的人工智能可以自愿選擇是否被監(jiān)管。

      對(duì)于選擇被監(jiān)管的公司,監(jiān)管機(jī)構(gòu)可以對(duì)其產(chǎn)品進(jìn)行登記、審批,監(jiān)管其安全性,提高公眾對(duì)產(chǎn)品的可信度。當(dāng)然,這是需要繳費(fèi)的。而政府也可以利用這筆資金建立人工智能的專項(xiàng)賠償基金,專門用來(lái)賠償人工智能所引發(fā)的事故?;蛟S有人會(huì)擔(dān)心這么做之后市場(chǎng)上的人工智能會(huì)漲價(jià),但是筆者認(rèn)為完全不用擔(dān)心。因?yàn)檫@么做雖然太高了設(shè)計(jì)者、生產(chǎn)者的成本,但是同時(shí)又降低了事故發(fā)生后他們?yōu)槠较⑹鹿仕冻龅母鞣N人力物力財(cái)力,對(duì)于公司來(lái)說(shuō)這絕對(duì)是一筆劃算的買賣。畢竟,引發(fā)事故的人工智能還是少數(shù),以審批費(fèi)為交換,公司的法律成本可以大大降低,不失為一件好事。

      對(duì)于選擇不被監(jiān)管的公司,自然沒(méi)有上述益處。沒(méi)有政府為其背書,盡管其事實(shí)上的安全性高于選擇被監(jiān)管的公司,但其口碑上的安全性自然不比它們。而且在發(fā)生事故后,也沒(méi)有專項(xiàng)基金作為其后盾,那么它們的隱形法律成本將會(huì)直線上升。但是這么做的好處就是在不發(fā)生事故的情況下,其成本比選擇被監(jiān)管的公司低。

      這樣一來(lái),是否被監(jiān)管,是否納入專項(xiàng)基金的支援下,市場(chǎng)上的公司就會(huì)有不同的選擇。一些實(shí)力弱小,尚在成長(zhǎng)中的公司選擇被納入監(jiān)管不失為一種好方法,這樣對(duì)公司的發(fā)展有很大好處,因?yàn)榘l(fā)生事故后的賠償會(huì)分散到其它納入監(jiān)管的公司中,正所謂“我為人人,人人為我”。而實(shí)力雄厚、對(duì)其安全性有自信、在發(fā)生事故后也有余力應(yīng)對(duì)的公司則可以選擇不被納入監(jiān)管,從而降低成本。或許有人認(rèn)為這樣會(huì)放任實(shí)力雄厚的公司,但是筆者認(rèn)為大可不必?fù)?dān)心。因?yàn)榫退銓?shí)力雄厚,公司還是公司,它必然會(huì)選擇對(duì)消費(fèi)者有利的方向發(fā)展,否則就會(huì)失去市場(chǎng),失去它一路積累起來(lái)的口碑,這對(duì)一家公司來(lái)說(shuō)是不可想象的。

      事實(shí)上,人工智能專項(xiàng)基金的本質(zhì)就在于公司對(duì)利益的取舍,究竟是放棄普通成本,還是放棄法律成本,放棄哪個(gè)更能促進(jìn)公司的發(fā)展。

      五、結(jié)論

      在人工智能迅猛發(fā)展的今天,筆者認(rèn)為并沒(méi)有必要急急忙忙去認(rèn)定人工智能的人格,認(rèn)同它作為人的法律主體的地位。不如說(shuō)如果真的認(rèn)同了,才會(huì)產(chǎn)生更大的問(wèn)題。而現(xiàn)今的人工智能造成的事故,也還能在既有的責(zé)任框架下進(jìn)行解決。但我們必須向前看,當(dāng)人工智能越來(lái)越智能時(shí),現(xiàn)有的框架是否還能框住人工智能這頭“怪獸”,我們必須思考這個(gè)問(wèn)題。筆者探討的這兩點(diǎn)畢竟只是紙上談兵,并未蓋棺定論。在將來(lái)當(dāng)新的技術(shù)出現(xiàn)時(shí),或許又會(huì)顛覆現(xiàn)在人們所探討的一切。對(duì)于未來(lái)的種種不確定性,我們只能翹首以待,隨著事物的發(fā)展而不斷調(diào)整既有的機(jī)制。

      參考文獻(xiàn):

      [1]司曉,曹建峰.《論人工智能的民事責(zé)任:以自動(dòng)駕駛機(jī)動(dòng)車和智能機(jī)器人為 切入點(diǎn)》.法律科學(xué)(西北政法大學(xué)學(xué)報(bào))2017年第5期.

      [2]楊立新.《用現(xiàn)行民法規(guī)則解決人工智能法律調(diào)整問(wèn)題的嘗試》.中州學(xué)刊,2018年7月第七期.

      [3]馮玨.《自動(dòng)駕駛汽車致?lián)p的民事侵權(quán)責(zé)任》.中國(guó)法學(xué),2018年第六期.

      (作者系山西財(cái)經(jīng)大學(xué)法學(xué)院碩士研究生)

      猜你喜歡
      法律屬性專項(xiàng)基金人工智能
      關(guān)于向“甘泉”公益專項(xiàng)基金捐贈(zèng)的倡議
      “甘泉”公益專項(xiàng)基金專題:關(guān)于向“甘泉”公益專項(xiàng)基金捐贈(zèng)的倡議
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      “甘泉”公益專項(xiàng)基金愛(ài)心捐贈(zèng)榜
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      環(huán)境標(biāo)準(zhǔn)的法律效力:?jiǎn)栴}梳理及實(shí)踐動(dòng)向
      網(wǎng)絡(luò)虛擬財(cái)產(chǎn)權(quán)的法律屬性及消費(fèi)者權(quán)益保護(hù)
      政府投資項(xiàng)目審批行為的法律屬性分析
      下一幕,人工智能!
      SHOW| 宣城市| 天峻县| 肥东县| 苏尼特左旗| 棋牌| 宝鸡市| 迭部县| 寻乌县| 石林| 吕梁市| 虞城县| 尼木县| 乳山市| 六枝特区| 桂阳县| 西城区| 牙克石市| 遂平县| 兴海县| 吴桥县| 星子县| 加查县| 广河县| 达日县| 五华县| 罗定市| 宁德市| 和平区| 健康| 前郭尔| 广南县| 云阳县| 莱阳市| 鹤壁市| 乐清市| 龙游县| 鹤岗市| 上饶县| 天水市| 安阳县|