• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      建設(shè)以阿西莫夫機(jī)器人學(xué)法則為基礎(chǔ)的現(xiàn)代人工智能倫理
      ——以《機(jī)器人學(xué)與人工智能示范公約》的解讀為基礎(chǔ)

      2020-12-09 20:06:14張建文
      山東社會(huì)科學(xué) 2020年7期
      關(guān)鍵詞:機(jī)器人學(xué)阿西莫夫公約

      張建文

      (西南政法大學(xué) 人工智能法律研究院,重慶 400031)

      新興技術(shù),特別是可能產(chǎn)生顛覆性效果的技術(shù)研發(fā)必須有相應(yīng)的且被有效遵守和監(jiān)督的科技倫理為基礎(chǔ)。其中,智能機(jī)器人和人工智能技術(shù)就是極為迫切地需要建設(shè)詳細(xì)的倫理規(guī)則的技術(shù)領(lǐng)域。圖靈測(cè)試,作為最重要的智能機(jī)標(biāo)準(zhǔn),幾乎也是關(guān)于智能存在與否的唯一可操作的標(biāo)準(zhǔn),(1)[英]博登:《人工智能哲學(xué)》,劉西瑞等譯,上海譯文出版社2001年版,譯者序第2頁(yè)。本身就蘊(yùn)含著這樣的矛盾:“只有我們不知道機(jī)器在想什么、怎么想時(shí),才認(rèn)為它有智能。”(2)劉慈欣:《序二 AI時(shí)代的曙光》,載李彥宏等:《智能革命:迎接人工智能時(shí)代的社會(huì)、經(jīng)濟(jì)與文化變革》,中信出版社2017年版,第19頁(yè)。也就是說(shuō),人工智能的本質(zhì)中就隱含著它們最終失控的可能性。筆者曾經(jīng)提出過(guò),阿西莫夫的機(jī)器人學(xué)法則,并不是法律原則,也不是法律規(guī)范,而應(yīng)當(dāng)屬于關(guān)于調(diào)整機(jī)器人與人類(lèi)關(guān)系的倫理原則。(3)張建文:《阿西莫夫的教誨:機(jī)器人學(xué)三法則的貢獻(xiàn)與局限》,《人工智能法學(xué)研究》2018年第1期。既然作為倫理原則,那就是說(shuō)可以作為機(jī)器人學(xué)倫理規(guī)則建設(shè)的倫理指針,以機(jī)器人學(xué)法則為基礎(chǔ)提出機(jī)器人學(xué)和人工智能發(fā)展的倫理規(guī)則。2017年11月,俄羅斯自治科研組織機(jī)器人與人工智能調(diào)整問(wèn)題研究中心的負(fù)責(zé)人Андрей Незнамов和該中心學(xué)術(shù)顧問(wèn)Виктор Наумов起草了《機(jī)器人學(xué)與人工智能示范公約》,特別是提出了《創(chuàng)建和使用機(jī)器人與人工智能規(guī)則(1.0版)》。這個(gè)公約提出的相關(guān)機(jī)器人學(xué)與人工智能的倫理規(guī)范,提供了一個(gè)機(jī)會(huì)去觀察以阿西莫夫機(jī)器人學(xué)法則為基礎(chǔ)的機(jī)器人學(xué)與人工智能發(fā)展的倫理規(guī)則何以可能與如何構(gòu)建的問(wèn)題。誠(chéng)然,目前關(guān)于機(jī)器人學(xué)與人工智能發(fā)展的倫理規(guī)則并不是只有俄羅斯學(xué)者提出的示范公約,而是有多個(gè)版本,如2017年初美國(guó)的《阿西洛馬人工智能原則》、2018年1月中國(guó)有關(guān)單位發(fā)布的《人工智能標(biāo)準(zhǔn)化白皮書(shū)(2018版)》、2018年4月10日在布魯塞爾簽署的《人工智能領(lǐng)域合作宣言》、2018年12月18日歐盟委員會(huì)人工智能高級(jí)專(zhuān)家小組發(fā)布的AI 開(kāi)發(fā)和使用的《可信賴(lài) AI 的道德準(zhǔn)則草案》等。選擇俄羅斯學(xué)者提出的《機(jī)器人學(xué)與人工智能示范公約》作以解讀并不純粹出于筆者能夠深度閱讀俄語(yǔ)文本的個(gè)人偏好,而是基于該文本所具有的特點(diǎn),那就是非常全面和詳細(xì),涉及到機(jī)器人學(xué)和人工智能的一般概念、安全規(guī)則、創(chuàng)建和使用機(jī)器人的規(guī)則、人工智能的研發(fā)規(guī)則、軍事機(jī)器人的使用限制規(guī)則以及該公約所提出的機(jī)器人學(xué)與人工智能規(guī)則的發(fā)展機(jī)制等。當(dāng)然,在解讀的過(guò)程中,筆者也會(huì)使用到其他版本的人工智能倫理規(guī)則作為參考。

      一、以阿西莫夫機(jī)器人學(xué)法則為基礎(chǔ)的現(xiàn)代人工智能倫理何以可能:人工智能發(fā)展與人類(lèi)命運(yùn)共同體的安全焦慮

      根據(jù)該公約作者們的觀點(diǎn),之所以起草該公約,是考慮到以下因素(4)參看《Модельная конвенция о робототехнике и искусственном интеллекте》前言部分,http://robopravo.ru/matierialy_dlia_skachivaniia#ul-id-4-35.:在現(xiàn)階段人類(lèi)面臨著確定最近幾十年的發(fā)展道路的全球性目標(biāo);思考科技進(jìn)步的角色和確定其所提出的可能性,以及評(píng)估科技進(jìn)步對(duì)世界秩序、國(guó)家、經(jīng)濟(jì)、社會(huì)和人類(lèi)個(gè)體的影響的風(fēng)險(xiǎn)與后果,成為現(xiàn)代性的優(yōu)先任務(wù)之一;在科技進(jìn)步的框架內(nèi)最近幾十年來(lái)變得日漸廣泛應(yīng)用和積極發(fā)展各種用途的包括機(jī)器人在內(nèi)的物理網(wǎng)絡(luò)系統(tǒng);人類(lèi)整體寄予發(fā)展機(jī)器人學(xué)與人工智能太多的期望,它們客觀上能夠解決諸多積累的問(wèn)題并推動(dòng)全球社會(huì)的發(fā)展;在開(kāi)放前景的條件下決不能忽視由于使用新的機(jī)器人學(xué)與人工智能技術(shù)而可能產(chǎn)生的潛在危險(xiǎn)和威脅;決不能排除可能會(huì)產(chǎn)生對(duì)現(xiàn)存世界秩序或者整個(gè)人類(lèi)種族產(chǎn)生災(zāi)難性后果的大規(guī)模應(yīng)用機(jī)器人與人工智能的場(chǎng)景;盡管機(jī)器人和物理網(wǎng)絡(luò)系統(tǒng)的數(shù)量在增長(zhǎng),整體而言全球社會(huì)并未研究出關(guān)于使用它們的互動(dòng)規(guī)則的綜合觀念;到目前為止尚不存在關(guān)于使用高度危險(xiǎn)的機(jī)器人的協(xié)議或者規(guī)則,這不能不引起不安,它們由于自己的構(gòu)造和用途能夠給相當(dāng)多數(shù)的人們?cè)斐蓚?;相?dāng)部分的人們關(guān)于人類(lèi)與智能機(jī)器人的關(guān)系的觀念主要是通過(guò)大眾文化形成的,而且常常局限于艾澤科·阿西莫夫的機(jī)器人學(xué)法則,這可能會(huì)導(dǎo)致誤解,認(rèn)為上述法則將會(huì)在研發(fā)所有的物理網(wǎng)絡(luò)系統(tǒng)時(shí)被廣泛考慮;盡管世界上有幾個(gè)國(guó)家在近年來(lái)開(kāi)始發(fā)展人工智能立法,但是國(guó)際法和大部分民族法律體系并沒(méi)有提出專(zhuān)門(mén)的調(diào)整與使用機(jī)器人有關(guān)的社會(huì)關(guān)系的模式和機(jī)制;在當(dāng)前所形成的條件下就產(chǎn)生了聯(lián)合所有利益相關(guān)的國(guó)家、創(chuàng)新行業(yè)代表、國(guó)際科學(xué)團(tuán)體和專(zhuān)家制定創(chuàng)建、發(fā)展、推廣、使用和傳播物理網(wǎng)絡(luò)系統(tǒng)領(lǐng)域中的一般立場(chǎng)、法律規(guī)范和倫理規(guī)范,致力于理解必須全力創(chuàng)建作為開(kāi)放發(fā)展文本的本公約,邀請(qǐng)所有利益相關(guān)方參與討論和完善該公約。

      機(jī)器人學(xué)與人工智能的倫理規(guī)則之所以必要,端在于新興科技發(fā)展與進(jìn)步對(duì)人類(lèi)整體的未來(lái)影響的不確定性,這種不確定性引發(fā)的焦慮感,迫使人們不得不考慮對(duì)科學(xué)家的理論與技術(shù)創(chuàng)新活動(dòng)施加必要的限制,以保障科學(xué)界從科技發(fā)展中所釋放的力量不會(huì)毫無(wú)方向性,以至于毀滅了創(chuàng)新者自己和創(chuàng)新者所在的或大或小的人類(lèi)社會(huì),乃至整個(gè)人類(lèi)社會(huì)。

      機(jī)器人學(xué)與人工智能的快速發(fā)展引起了人類(lèi)整體的深深的集體焦慮和迫切的安全擔(dān)憂(yōu),為了給機(jī)器人學(xué)和人工智能的發(fā)展確定安全、可靠、可控的方向,制訂人工智能倫理的倡議者們呼吁全世界的專(zhuān)家學(xué)者們共同參加關(guān)于這一問(wèn)題的討論,該問(wèn)題的解決至少在目前是懸而未決且待盡快解決的。根據(jù)該公約前言部分的表述,作者們提出該公約的意圖在于:“確定由于積極發(fā)展物理網(wǎng)絡(luò)系統(tǒng)而可能會(huì)在社會(huì)和法律體系中產(chǎn)生的基本問(wèn)題,總結(jié)在不同時(shí)期由不同專(zhuān)家們提出的機(jī)器人學(xué)基本規(guī)則,標(biāo)識(shí)解決現(xiàn)存的和(或)可期待的問(wèn)題的可能方向;倡導(dǎo)在不同國(guó)家的專(zhuān)家之間為制訂統(tǒng)一的關(guān)于創(chuàng)建和使用機(jī)器人與人工智能的規(guī)則的、倫理的和法律的觀念而進(jìn)行討論?!?5)參看《Модельная конвенция о робототехнике и искусственном интеллекте》前言部分。

      針對(duì)機(jī)器人和人工智能的法律調(diào)整問(wèn)題,А.Незнамов不無(wú)感慨地用所謂的“紅旗法案”(6)An Act for Further Regulating the Use of Locomotives on Turnpike and other Roads for agricultural and other purposes (5th July 1865), URL: https://archive.org/stream/ statutesunitedk30britgoog#page/n246/mode/2up (дата обращения: 21.01.2018).暗喻:“機(jī)器人化的生產(chǎn)、自動(dòng)化交通、機(jī)器人-醫(yī)生、可穿戴植入設(shè)備等等已經(jīng)出現(xiàn),但許多國(guó)家且不說(shuō)完全缺乏立法基礎(chǔ),而且對(duì)機(jī)器人化也持懷疑態(tài)度。正如以前對(duì)汽車(chē)適用通常的馬車(chē)的法律那樣,現(xiàn)在也正對(duì)機(jī)器人適用通常的機(jī)械的法律。久遠(yuǎn)過(guò)往的教訓(xùn)在物聯(lián)網(wǎng)時(shí)代也完全是現(xiàn)實(shí)的”(7)А.Незнамов.Красный флаг для робота.Стандарт.2018.№2(181),С.30.。他和該公約的另一位作者提出了關(guān)于適用于不同階段的機(jī)器人創(chuàng)建與使用調(diào)整原則,其中綜合性的原則可以適用于所有種類(lèi)的機(jī)器人,包括安全與機(jī)器人安全優(yōu)先原則、機(jī)器人危險(xiǎn)性(或者安全性)感知原則、設(shè)計(jì)安全原則、通過(guò)設(shè)計(jì)的隱私原則、來(lái)自人類(lèi)一方的對(duì)機(jī)器人實(shí)施監(jiān)督的原則、禁止機(jī)器人主動(dòng)造成傷害原則;專(zhuān)門(mén)性原則主要是用于個(gè)別類(lèi)型機(jī)器人的,諸如對(duì)高度危險(xiǎn)機(jī)器人強(qiáng)制適用額外的規(guī)則,如黑匣子、紅色按鈕、行為撤銷(xiāo)、切入災(zāi)難模式等,再如遞推的自我完善的監(jiān)督原則只能適用于所謂的強(qiáng)人工智能。

      二、現(xiàn)代人工智能倫理如何構(gòu)建(一):適用的主體、對(duì)象及其范圍

      根據(jù)該公約的文本來(lái)看,作者們將該公約分為前言、介紹性條款、機(jī)器人安全規(guī)則、創(chuàng)建機(jī)器人的一般規(guī)則、使用機(jī)器人的一般規(guī)則、研發(fā)人工智能的規(guī)則、使用軍事機(jī)器人的限制、機(jī)器人學(xué)與人工智能規(guī)則的發(fā)展,共計(jì)8個(gè)部分,42個(gè)條款。

      作者們首先規(guī)定了機(jī)器人學(xué)的主體和客體,將“機(jī)器人學(xué)領(lǐng)域的研究者、研發(fā)者、資助機(jī)器人學(xué)研究與研發(fā)的人,以及機(jī)器人的生產(chǎn)者、所有者、占有者、操作者,國(guó)家權(quán)力機(jī)關(guān)和任何調(diào)控機(jī)關(guān),還有使用者和其他與機(jī)器人包括具有人工智能的物理網(wǎng)絡(luò)系統(tǒng)進(jìn)行互動(dòng)的人”均稱(chēng)為“機(jī)器人與具有人工智能的物理網(wǎng)絡(luò)系統(tǒng)的創(chuàng)建、推廣或者使用進(jìn)程的參加者”,也就是機(jī)器人學(xué)的主體。(8)相對(duì)而言,在我國(guó),對(duì)于人工智能倫理規(guī)范的適用主體范圍問(wèn)題,主流的觀點(diǎn)將主體范圍集中于系統(tǒng)設(shè)計(jì)者和開(kāi)發(fā)者(參看中國(guó)信息通信研究院安全研究所:《人工智能安全白皮書(shū)(2018年)》,第30頁(yè)),而沒(méi)有考慮從事人工智能基礎(chǔ)工作的研究者以及資助研究和研發(fā)的人。

      機(jī)器人學(xué)的客體包括“在最寬泛理解上的所有種類(lèi)的機(jī)器人,無(wú)論其用途、危險(xiǎn)程度、可移動(dòng)性或者自主性,以及任何形式的具有人工智能的物理網(wǎng)絡(luò)系統(tǒng)”。作者們特別指出,“在此情況下,除非可以從該公約文本中直接得出不同規(guī)定,為示范公約的目的,‘機(jī)器人’的術(shù)語(yǔ)在公約文本中將被在最廣泛的意義上予以解釋?zhuān)舶C(jī)器人化的裝置和物理網(wǎng)絡(luò)系統(tǒng),具有人工智能的物理網(wǎng)絡(luò)系統(tǒng)也在其中”。

      可以說(shuō),在該公約的意義上,機(jī)器人的術(shù)語(yǔ)涵括了可能不具有人形的機(jī)器人化的裝置以及具有或者不具有人工智能的物理網(wǎng)絡(luò)系統(tǒng)。針對(duì)前述術(shù)語(yǔ)的概念,公約的作者們提出:首先,“機(jī)器人”和相近的諸如“機(jī)器人化的裝置”或者“智能機(jī)器人”概念的內(nèi)容,將根據(jù)這些概念在具體國(guó)家和(或)針對(duì)具體的機(jī)器人類(lèi)型中最廣為接受的意義予以確定;其次,實(shí)在無(wú)法確定時(shí),按照國(guó)際標(biāo)準(zhǔn)確定,“如果這些概念的意義無(wú)法確定,則可以使用現(xiàn)有的國(guó)際標(biāo)準(zhǔn),特別是ISO8373:2012《機(jī)器人和機(jī)器人裝置. 術(shù)語(yǔ)與定義》”。也就是說(shuō),國(guó)際標(biāo)準(zhǔn)組織制定的相關(guān)標(biāo)準(zhǔn)僅具有補(bǔ)充性,是第二意義上的標(biāo)準(zhǔn)。

      按照公約作者們的意見(jiàn),他們所設(shè)計(jì)的創(chuàng)建、推廣和使用機(jī)器人的規(guī)則具有通用性,可以適用于所有的機(jī)器人學(xué)主體。但是,規(guī)則的通用性并不意味著要排斥其他可適用的規(guī)范,相反公約要求尊重其他可適用的法律規(guī)范、倫理規(guī)范和宗教規(guī)范,并賦予所適用的立法規(guī)范以更為優(yōu)先的地位,即“機(jī)器人創(chuàng)建、應(yīng)用和使用進(jìn)程的參加者有義務(wù)了解并遵守機(jī)器人被使用地或者被計(jì)劃使用地有效立法(“所適用的立法”)的要求,亦需考慮到包括倫理規(guī)范和宗教規(guī)范的其他可適用的規(guī)則”。

      三、現(xiàn)代人工智能倫理如何構(gòu)建(二):機(jī)器人安全規(guī)則

      機(jī)器人安全規(guī)則盡管只是該公約的一部分,卻體現(xiàn)了阿西莫夫機(jī)器人不得傷害人類(lèi)整體的零號(hào)法則以及機(jī)器人不得傷害人類(lèi)個(gè)體的一號(hào)法則的基本價(jià)值理念。該公約相較于阿西莫夫所提出的機(jī)器人與人類(lèi)關(guān)系的較為抽象和簡(jiǎn)略的倫理原則,創(chuàng)造性發(fā)展出了一系列較為詳細(xì)的實(shí)現(xiàn)人類(lèi)安全優(yōu)先原則的機(jī)器人安全規(guī)則。

      (一)機(jī)器人安全原則的創(chuàng)新與發(fā)展

      相較于阿西莫夫以零號(hào)法則和一號(hào)法則為基本內(nèi)容的人類(lèi)安全原則,該公約的作者們提出了更為廣泛的人類(lèi)安全視野,其所為的“機(jī)器人安全原則”包含了兩個(gè)層面的含義:一是最大安全保障原則,即“機(jī)器人的創(chuàng)建、應(yīng)用和使用應(yīng)當(dāng)在保障個(gè)人、社會(huì)和國(guó)家的最大安全的條件下進(jìn)行”;二是不得造成傷害原則,這里所謂的不得造成傷害的對(duì)象除了阿西莫夫所關(guān)注的人類(lèi)個(gè)體和人類(lèi)整體外,還包括了更為廣泛的對(duì)象,即“人類(lèi)個(gè)體、人類(lèi)整體、生物圈和整個(gè)生存環(huán)境”,體現(xiàn)了更為寬廣的人類(lèi)與自然共生關(guān)系觀和地球作為人類(lèi)生存基礎(chǔ)觀念下的人類(lèi)安全原則,而非可能被做過(guò)于狹窄理解的阿西莫夫式的狹義人類(lèi)安全觀。

      (二)人類(lèi)個(gè)體的基本權(quán)利保護(hù)

      對(duì)人類(lèi)的基本權(quán)利的保護(hù)是機(jī)器人安全原則中極其重要的一面,公約的作者們提出了較為一般性的要求,而且其所適用的范圍相對(duì)較小,即“對(duì)機(jī)器人所收集和處理的信息的獲取與使用不得侵犯人類(lèi)私生活的不可侵犯性,也(或)不得違反依照所適用的立法對(duì)其他種類(lèi)的保密信息的保護(hù)制度”,似乎僅局限于隱私權(quán)與個(gè)人信息的保護(hù),而對(duì)于更為廣義和宏觀的關(guān)于人類(lèi)尊嚴(yán)與價(jià)值的保障則付之闕如。也許作者們也認(rèn)為,人工智能對(duì)隱私和個(gè)人信息保護(hù)的沖擊最大吧(9)韓丹東等:《人工智能太聰明讓個(gè)人信息如同裸奔》,《法制日?qǐng)?bào)》2017年6月1日第5版;韓丹東等:《人工智能法律風(fēng)險(xiǎn)怎么消弭》,《法制日?qǐng)?bào)》2017年6月1日第5版。。實(shí)際上,尊重、保護(hù)隱私權(quán)和數(shù)據(jù)保護(hù)問(wèn)題,還直接影響到更廣泛的人權(quán),最值得注意的是歧視、言論自由和信息自由。因此,在筆者看來(lái),隱私權(quán)與個(gè)人信息的保護(hù)盡管也是“不可或缺的基本權(quán)利”(10)林鴻文:《個(gè)人資料保護(hù)法(2018最新版)》,書(shū)泉出版社2018年版,第48頁(yè)。,但是并未完全涵蓋和取代對(duì)人類(lèi)尊嚴(yán)和自主的價(jià)值。

      (三)不得造成傷害原則:禁止或限制機(jī)器人造成的損害規(guī)則

      對(duì)于機(jī)器人所可能給人類(lèi)造成傷害的情形,公約的作者們明確要求禁止機(jī)器人主動(dòng)造成損害,即“除非本示范公約有不同規(guī)定,不允許制造能夠自己主動(dòng)有目的地給人類(lèi)個(gè)體造成傷害的機(jī)器人”。這里沒(méi)有明確表明這里所謂的傷害是何種傷害,從后文關(guān)于對(duì)人類(lèi)財(cái)產(chǎn)損害的態(tài)度可以辨明,公約的作者們?cè)谶@里談到的傷害是指對(duì)人類(lèi)個(gè)體生命和健康的損害,因?yàn)樗麄兲岬搅恕皩?duì)人類(lèi)個(gè)體的財(cái)產(chǎn)的損害的條件、程序和后果由所適用的立法規(guī)定”。

      對(duì)于智能機(jī)器人所可能造成的損害,公約的作者們似乎更傾向于限制而不是禁止,而且似乎在一定條件下,如為了預(yù)防更大的損害,允許智能機(jī)器人對(duì)人類(lèi)或者人類(lèi)的整體造成一定的損害,從第8條的文本標(biāo)題“限制智能機(jī)器人造成損害”和文本表述上看,該條文的文本可能是最糟糕的,相對(duì)于阿西莫夫在零號(hào)法則和一號(hào)法則與其他法則之間清晰的重要性和絕對(duì)性的程度上的劃分,該文本的表述是一個(gè)嚴(yán)重的倒退,盡管在形式上糅合了阿西莫夫的零號(hào)法則和一號(hào)法則,“智能機(jī)器人不得給人類(lèi)個(gè)體和人類(lèi)整體造成損害,也不允許以其不作為而造成損害”,但是,該條相對(duì)于阿西莫夫作為不附帶任何例外條件的絕對(duì)性保護(hù)對(duì)象的理念和意圖,公約的作者們?cè)黾恿死鈼l款,即“如果造成損害是被迫的且有理由能夠預(yù)防更大的損害”時(shí),允許造成損害。在這里,由于公約的作者們將以保護(hù)人類(lèi)整體為己任的零號(hào)法則和保護(hù)人類(lèi)個(gè)體為己任的一號(hào)法則雜糅在一起,導(dǎo)致存在一個(gè)致命的缺陷或者含混之處,那就是這里允許造成的傷害到底是僅僅針對(duì)一個(gè)人、幾個(gè)人或者一個(gè)群體,還是允許可以對(duì)整個(gè)人類(lèi)整體造成一定的損害以預(yù)防更大的損害?從阿西莫夫的機(jī)器人學(xué)法則的意圖和在其所提供的案例來(lái)看,似乎應(yīng)當(dāng)是在極端的情況下,即在被迫的且有理由能夠阻止更大的傷害時(shí)允許對(duì)一個(gè)、幾個(gè)人或者一個(gè)群體造成較小的損害,而不是允許對(duì)人類(lèi)整體造成損害。阿西莫夫?qū)⑷祟?lèi)整體的保護(hù)放在更加突出的地位,從零號(hào)法則作為最后產(chǎn)生的機(jī)器人學(xué)法則,以及其將零號(hào)法則單列而不是修改一號(hào)法則以涵括人類(lèi)整體的做法,可以體會(huì)到阿西莫夫?qū)C(jī)器人學(xué)法則的整體發(fā)展的新思考。然而,即使做這種更貼近阿西莫夫提出機(jī)器人學(xué)法則意圖的理解,也并不能阻止該公約的作者們?cè)诟P(guān)鍵的地方留下(盡管可能是毫無(wú)惡意地甚至是懷著善意地留下)有可能摧毀整個(gè)不得傷害原則的例外,那就是關(guān)于損害的概念的理解:“在此情況下,損害的概念根據(jù)智能機(jī)器人所掌握的信息確定?!睂?duì)損害的這種確定方式,可能會(huì)為智能機(jī)器人造成更多、更大、更嚴(yán)重的傷害留下空間。估計(jì)作者們的意圖是希望為未來(lái)更加接近人類(lèi)的智能機(jī)器人的出現(xiàn)預(yù)留空間,其假定的前提是智能機(jī)器人會(huì)像人類(lèi)在具體的情況下那樣做出不一定比人類(lèi)更好但也至少不比人類(lèi)差的適當(dāng)?shù)呐袛?。這可能是由公約的作者們對(duì)人工智能發(fā)展前景的極度樂(lè)觀預(yù)測(cè)所致,且不說(shuō)至少在未來(lái)數(shù)十年內(nèi)將損害的定義權(quán)與判斷權(quán)委諸智能機(jī)器人的決定是不是個(gè)明顯低劣的決定,但至少說(shuō),其中蘊(yùn)含的將人類(lèi)在與機(jī)器人關(guān)系中的中心地位和人類(lèi)尊嚴(yán)價(jià)值的尊重降低至智能機(jī)器人水平,或者反過(guò)來(lái)說(shuō),將智能機(jī)器人的地位和價(jià)值提升至與人類(lèi)的地位和價(jià)值相同甚至略高,這并不是一個(gè)符合人類(lèi)尊嚴(yán)的做法。因?yàn)榕袛鄬?duì)人類(lèi)個(gè)體或者整體的損害是否存在、孰大孰小、是否值得用作防止所謂更大損害的手段等問(wèn)題,攸關(guān)人類(lèi)自我的判斷和認(rèn)識(shí)。

      (四)最大安全保障原則:同等風(fēng)險(xiǎn)、人類(lèi)中心、機(jī)器人危險(xiǎn)性感知、黑匣子和紅色按鈕

      同等風(fēng)險(xiǎn)規(guī)則道出了最大安全保障原則的底線,那就是,“在所有的使用機(jī)器人的過(guò)程中,人類(lèi)個(gè)體不得遭受較之在沒(méi)有機(jī)器人參與的相同過(guò)程中他已經(jīng)遭遇的風(fēng)險(xiǎn)更大的對(duì)其生命和健康造成損害的風(fēng)險(xiǎn)”。

      公約的作者們盡管也提出了似乎是最體現(xiàn)人類(lèi)中心地位的條款,但是這種控制看起來(lái)更多的是針對(duì)外在行動(dòng)的而非是內(nèi)在判斷的,是向人類(lèi)個(gè)體提供信息式的而不是事先嵌入其內(nèi)在設(shè)計(jì)的,是事后式的和應(yīng)急式的。

      人類(lèi)對(duì)機(jī)器人的可控性條款,要求“無(wú)論機(jī)器人的具體類(lèi)型的目的特性,機(jī)器人應(yīng)當(dāng)在最大可能和合理程度上處在人類(lèi)直接或者間接的監(jiān)督之下”。這種控制主要是通過(guò)任何人能夠公開(kāi)無(wú)償和輕易地獲取相關(guān)信息,或者特定的主體依照特定程序獲取相關(guān)信息的方式來(lái)實(shí)現(xiàn)的,如“所有的關(guān)于任何機(jī)器人給人類(lèi)個(gè)體、社會(huì)和環(huán)境造成危險(xiǎn)的信息,均應(yīng)當(dāng)公開(kāi)地、無(wú)償?shù)厍铱奢p易地為任何機(jī)器人學(xué)主體所獲取”;再如黑匣子條款規(guī)定:“機(jī)器人應(yīng)當(dāng)時(shí)時(shí)固定和保存關(guān)于自己的運(yùn)作條件和所有其所實(shí)施的行為的信息”,但是該類(lèi)信息獲取權(quán)并不是賦予所有人的,“對(duì)該信息的獲取應(yīng)當(dāng)提供給對(duì)機(jī)器人的行為和正常運(yùn)作負(fù)責(zé)的人,以及按照所適用立法規(guī)定的程序提供給主管權(quán)力機(jī)關(guān)”;紅色按鈕條款則意味著,那些“在物理上與人們進(jìn)行互動(dòng)的且不處在人類(lèi)的直接管理之下的機(jī)器人應(yīng)當(dāng)具備按照要求瞬間斷開(kāi)或緊急斷開(kāi)的功能”。

      值得注意的是,從阿西莫夫機(jī)器人學(xué)法則的角度看,整個(gè)公約文本并沒(méi)有明確規(guī)定對(duì)機(jī)器人的自我保護(hù),即對(duì)應(yīng)于三號(hào)法則的內(nèi)容,但是存在一個(gè)看起來(lái)類(lèi)似但實(shí)際上并無(wú)相同之處的條款,即關(guān)于保護(hù)機(jī)器人免受未經(jīng)許可的接近的條款——“機(jī)器人應(yīng)當(dāng)配備免遭未經(jīng)許可而對(duì)其系統(tǒng)和裝置的物理性和電子性接近的保護(hù)系統(tǒng)”。從該條的規(guī)定上看,是針對(duì)潛在的機(jī)器人研究者、研發(fā)者、生產(chǎn)者和推廣者提出的要求,而不是像三號(hào)法則是針對(duì)機(jī)器人自己提出的要求(也可以說(shuō)是賦予的自我保護(hù)的權(quán)利);從該條的規(guī)范目的上看,這個(gè)條款的目的是通過(guò)防止未經(jīng)許可的對(duì)機(jī)器人的系統(tǒng)和裝置的接近,從而防止不法之徒將機(jī)器人作為傷害人類(lèi)的手段而保護(hù)人類(lèi)的安全??梢哉f(shuō),對(duì)機(jī)器人免受未經(jīng)許可的接近的保護(hù)僅是具有手段性的目的,其最終目的是保護(hù)人類(lèi),而三號(hào)法則的目的卻是允許機(jī)器人在不違反一號(hào)法則和二號(hào)法則的前提下保護(hù)自己。

      (五)公約作者的創(chuàng)造:“高度危險(xiǎn)機(jī)器人”的概念及其法律制度

      “高度危險(xiǎn)機(jī)器人”的概念和法律制度,則是公約作者們的創(chuàng)造,這個(gè)概念和制度只出現(xiàn)和存在于該作者們包括該公約在內(nèi)的作品中。按照兩位作者的意見(jiàn),“在因機(jī)器人的設(shè)計(jì)特性和(或)其信息系統(tǒng)參數(shù)導(dǎo)致其行為由于人類(lèi)不可能對(duì)之進(jìn)行完全的控制而產(chǎn)生造成損害的高度蓋然性時(shí),機(jī)器人被視為高度危險(xiǎn)來(lái)源”(11)張建文:《格里申法案的貢獻(xiàn)與局限——俄羅斯首部機(jī)器人法草案述評(píng)》,《華東政法大學(xué)學(xué)報(bào)》2018年第2期。。根據(jù)該公約第13條“高度危險(xiǎn)機(jī)器人”的設(shè)計(jì),“應(yīng)當(dāng)對(duì)由于自己的構(gòu)造和用途潛在地能夠給人類(lèi)個(gè)體造成包括致命性的傷害在內(nèi)的實(shí)質(zhì)性傷害的機(jī)器人的應(yīng)用設(shè)立更高的保護(hù)其免于第三人未經(jīng)許可的接近的要求”。這里所謂的高度危險(xiǎn)機(jī)器人,具體包括醫(yī)療機(jī)器人、植入設(shè)備、高度自動(dòng)化交通工具、軍事機(jī)器人等。“機(jī)器人學(xué)的諸主體應(yīng)當(dāng)以該類(lèi)機(jī)器人的危險(xiǎn)性推定作為出發(fā)點(diǎn),而主管權(quán)力機(jī)關(guān)應(yīng)當(dāng)規(guī)定相應(yīng)的要求并監(jiān)督其在所屬司法管轄區(qū)內(nèi)的執(zhí)行。”此外,對(duì)于此類(lèi)高度危險(xiǎn)機(jī)器人還規(guī)定了人機(jī)管理的特別要求:“由于其構(gòu)造和用途所決定的高度危險(xiǎn)機(jī)器人潛在地對(duì)人類(lèi)個(gè)體的消極作用,應(yīng)當(dāng)在其他人類(lèi)個(gè)體的直接管理下進(jìn)行?!?/p>

      四、現(xiàn)代人工智能倫理如何構(gòu)建(三):創(chuàng)建與使用機(jī)器人的一般規(guī)則

      (一)創(chuàng)建機(jī)器人的一般規(guī)則:造福、責(zé)任、安全與遵守公約

      對(duì)于創(chuàng)建機(jī)器人的一般規(guī)則,該公約的作者們提出了四個(gè)規(guī)則:創(chuàng)造公共福利、負(fù)責(zé)任地對(duì)待應(yīng)用機(jī)器人后果的態(tài)度、安全優(yōu)先、遵守示范公約的可能性。

      根據(jù)該公約第18條,所謂的創(chuàng)造公共福利,是指“機(jī)器人的研發(fā)者和生產(chǎn)者,以及其他參與機(jī)器人創(chuàng)建過(guò)程的人(‘機(jī)器人的創(chuàng)建者’)應(yīng)當(dāng)盡可能地努力使得他們所創(chuàng)建的機(jī)器人能夠給盡可能多的人們創(chuàng)造最大福利”。相較于阿西莫夫的機(jī)器人學(xué)法則,創(chuàng)建現(xiàn)代人工智能倫理的努力明確提出了造福公眾的目標(biāo),這一點(diǎn)在歐洲議會(huì)提出的關(guān)于機(jī)器人民法規(guī)范的動(dòng)議中所附的《機(jī)器人技術(shù)研發(fā)者倫理守則》提出的造福原則中也得到了體現(xiàn)。

      對(duì)機(jī)器人創(chuàng)建者以及資助機(jī)器人學(xué)領(lǐng)域的研究和研發(fā)的人提出了負(fù)責(zé)任地對(duì)待應(yīng)用機(jī)器人后果的態(tài)度的要求,要求他們“應(yīng)當(dāng)了解,他們的活動(dòng)不具有特別的技術(shù)性,負(fù)責(zé)地對(duì)待所可能產(chǎn)生的作為應(yīng)用機(jī)器人的后果的那些社會(huì)與經(jīng)濟(jì)現(xiàn)象和情事,并極力預(yù)防與之相關(guān)的任何重大消極后果”。

      作為一般原則的機(jī)器人安全原則在創(chuàng)建和使用機(jī)器人的領(lǐng)域中的具體體現(xiàn),公約的作者們明確提出了“安全優(yōu)先”規(guī)則,要求“在創(chuàng)建機(jī)器人時(shí),保障人類(lèi)安全的目的應(yīng)當(dāng)始終勝過(guò)所有其他目的和任務(wù)”。

      對(duì)于機(jī)器人的創(chuàng)建者而言,“應(yīng)當(dāng)保障在設(shè)計(jì)上(考慮到本公約的可能的更正、修改和補(bǔ)充)遵守本公約指明的規(guī)則的可能性”。

      (二)使用機(jī)器人的一般規(guī)則:建構(gòu)人類(lèi)中心的抑或平等的機(jī)器人與人類(lèi)關(guān)系模式

      使用機(jī)器人的一般規(guī)則,較之于研究和研發(fā)機(jī)器人更需要全面回應(yīng)建構(gòu)什么樣的人類(lèi)與機(jī)器人關(guān)系模式問(wèn)題,其中包含著在機(jī)器人與人類(lèi)之間人類(lèi)的基本權(quán)利、尊嚴(yán)和價(jià)值到底處在何種地位,是人類(lèi)更優(yōu)先還是機(jī)器人更優(yōu)先,抑或二者可能構(gòu)成平等的關(guān)系。后一種傾向還蘊(yùn)含著機(jī)器人是否可能具有法律主體地位的問(wèn)題,在機(jī)器人造成損害的情況下,責(zé)任的歸屬與分配問(wèn)題也是機(jī)器人與人類(lèi)關(guān)系模式的應(yīng)有之義。根據(jù)有的學(xué)者的看法,服從法則——“機(jī)器人要服從人類(lèi)”,就是“人當(dāng)主子,機(jī)器為奴,為工具”,不傷害原則同樣是“主奴關(guān)系的推衍,視AI為聽(tīng)使喚的奴仆”(12)馮象:《我是阿爾法:論法和人工智能》,中國(guó)政法大學(xué)出版社2018年版,第216-217頁(yè)。。

      整體而言,公約的作者們?cè)诂F(xiàn)階段對(duì)人類(lèi)與機(jī)器人關(guān)系模式的構(gòu)建充分貫徹了人類(lèi)中心主義,也就是人類(lèi)高于機(jī)器人的模式。但是,從作者們關(guān)于機(jī)器人法律地位的考慮看,作者們將機(jī)器人作為權(quán)利主體蘊(yùn)含了不排除、不排斥而是允許將人類(lèi)高于機(jī)器人的人類(lèi)與機(jī)器人關(guān)系模式修改為機(jī)器人與人類(lèi)有限平等的關(guān)系模式的傾向。

      首先,該公約所提出的人類(lèi)中心主義的人類(lèi)與機(jī)器人關(guān)系模式,主要集中在對(duì)人類(lèi)的基本權(quán)利和安全優(yōu)先的保護(hù)上(13)張建文:《阿西莫夫的教誨:機(jī)器人學(xué)三法則的貢獻(xiàn)與局限》,《人工智能法學(xué)研究》2018年第1期。。該公約要求,“在使用機(jī)器人的過(guò)程中,無(wú)論是否存在專(zhuān)門(mén)的法律調(diào)整,均應(yīng)當(dāng)遵守人類(lèi)的基本權(quán)利和公認(rèn)的道德與倫理規(guī)范”;“擁有預(yù)防和阻止機(jī)器人給其他人類(lèi)造成未經(jīng)批準(zhǔn)的(包括偶然的)損害之可能性的人,有義務(wù)為此采取所有可能的與對(duì)自己的生命或者健康的風(fēng)險(xiǎn)無(wú)關(guān)的措施”;“關(guān)于某一裝置或者客體為機(jī)器人的信息,應(yīng)當(dāng)使任何與之互動(dòng)的人類(lèi)個(gè)體或者其他機(jī)器人周知,但由于情勢(shì)所限或者由于其用途和適用具體形式的機(jī)器人的特別條件不需要的情形除外”;“機(jī)器人的運(yùn)作原則上應(yīng)當(dāng)對(duì)其創(chuàng)建者和使用者而言為可預(yù)見(jiàn)的,符合其構(gòu)造和用途,是安全的和可控的”;“機(jī)器人的運(yùn)作應(yīng)當(dāng)以如下方式進(jìn)行,即使得與其互動(dòng)的機(jī)器人學(xué)諸主體能夠理解這些機(jī)器人的運(yùn)作方式或者在進(jìn)行互動(dòng)時(shí)擁有取得足夠相關(guān)信息的可能性”;“如果不能從所適用的立法條款或者具體情勢(shì)中得出相反規(guī)定,履行機(jī)器人運(yùn)作規(guī)則的責(zé)任,由機(jī)器人的創(chuàng)建者以及任何其他的能夠以自己的行為影響其履行的人承擔(dān)”。

      其次,該公約蘊(yùn)含了將人類(lèi)中心主義的人類(lèi)與機(jī)器人關(guān)系模式構(gòu)建為人類(lèi)與機(jī)器人有限平等的關(guān)系模式。

      一是在人類(lèi)作為使用者對(duì)待機(jī)器人的態(tài)度上,公約的作者們提出“尊重人類(lèi)尊嚴(yán)”的要求,但是這個(gè)所謂的尊重人類(lèi)尊嚴(yán),并非是要求機(jī)器人尊重人類(lèi)尊嚴(yán),恰恰相反,卻是要求“人類(lèi)不得以自己對(duì)待機(jī)器人的態(tài)度漠視人類(lèi)的尊嚴(yán)”。這里蘊(yùn)含的意圖不是突出和凸顯人類(lèi)尊嚴(yán)的地位和價(jià)值,恰恰是要求人類(lèi)作為使用者在對(duì)待機(jī)器人時(shí)不得過(guò)分殘酷或者嚴(yán)重違反人道規(guī)則。這種對(duì)人類(lèi)使用者的倫理性限制,為可能的人類(lèi)與機(jī)器人(特別是智能機(jī)器人)之間的有限平等關(guān)系模式建設(shè)鋪墊了倫理基礎(chǔ)。這有點(diǎn)類(lèi)似于羅馬帝國(guó)時(shí)期皇帝對(duì)奴隸主任意對(duì)待奴隸的權(quán)力的限制,特別是公元2世紀(jì)時(shí),無(wú)正當(dāng)理由殺死奴隸被等同于殺害僑民。但是,筆者認(rèn)為,將機(jī)器人與曾經(jīng)作為奴隸的自然人類(lèi)比并不恰當(dāng),自然人即使作為奴隸存在,其本身的自然本性會(huì)使其他人類(lèi)能夠在人性范圍和限度內(nèi)對(duì)其進(jìn)行理解和判斷。也就是說(shuō),奴隸與主人這一對(duì)關(guān)系中所涉及的都是在最純粹的自然意義上相同的人類(lèi)(種屬上的共性,就是“奴隸有生命——和罐子或者錘子不一樣,但更具體地說(shuō),是一種有生命的工具”(14)[美]列奧·施特勞斯:《古典政治哲學(xué)引論:亞里士多德〈政治學(xué)〉講疏(1965年)》,婁林譯,華東師范大學(xué)出版社2018年版,第50頁(yè)。)。在人類(lèi)與機(jī)器人的關(guān)系上,機(jī)器人并不屬于與人同類(lèi)的存在,盡管人類(lèi)期望和決定要全面了解和絕對(duì)掌握機(jī)器人,但是并不意味著人類(lèi)最終能夠全面了解和絕對(duì)掌握機(jī)器人。在沒(méi)有這種絕對(duì)性把握之前,無(wú)條件地將機(jī)器人與人類(lèi)關(guān)系完全類(lèi)比為奴隸與主人的關(guān)系,并試圖為機(jī)器人創(chuàng)造一個(gè)倫理性的主體地位,毫無(wú)疑問(wèn)屬于愛(ài)心泛濫的體現(xiàn),羅馬帝國(guó)時(shí)期限制主人的權(quán)限也并非是為了“不漠視人類(lèi)尊嚴(yán)”,而是羅馬人清楚地意識(shí)到,“處在一個(gè)大量存在努力的環(huán)境中,羅馬人經(jīng)受著時(shí)時(shí)的威脅”(15)Римское право:учеб.пособие для студентов вузов,обучающихся по специальности 030501《Юриспруденция》/А.А.Иванов-М.:ЮНИТИ-ДАНА:Закон и право,2016.C.130.,“有多少奴隸,就有多少敵人!”(16)Ранович А.Б.Первоисточники по истории раннего христианства.Античные критики христианства.3-е изд.М.,1990.С.97,104.這種觀點(diǎn)也不排除有將機(jī)器人作為動(dòng)物看待的因素,要求人類(lèi)在行使權(quán)利的時(shí)候不允許違背人道原則殘酷對(duì)待機(jī)器人(17)Гражданский кодекс Российской Федерации . Части первая , вторая . третья и четвертая . - Москва : Проспект , 2017. С.80.,“通過(guò)限制人的行為,來(lái)達(dá)到對(duì)動(dòng)物權(quán)利的保護(hù)”(18)騰訊研究院等:《人工智能》,中國(guó)人民大學(xué)出版社2017 年版,第266 頁(yè)。。

      二是在對(duì)機(jī)器人可能的法律地位上,公約的作者們預(yù)留了機(jī)器人作為權(quán)利主體的空間。盡管是有限的權(quán)利主體地位,但這種有限主體地位將會(huì)為機(jī)器人與人類(lèi)使用者的平等地位建構(gòu)初步的橋梁,并成為逐步擴(kuò)展的基礎(chǔ)。根據(jù)作者們的意見(jiàn),“在所適用的立法直接規(guī)定的情況下,機(jī)器人可以在民事流轉(zhuǎn)中作為獨(dú)立的人,包括作為其他機(jī)器人的所有權(quán)人”。盡管將該問(wèn)題付諸各國(guó)國(guó)內(nèi)立法去解決,至少根據(jù)該作者們所提出的俄羅斯首部機(jī)器人法草案“格里申法案”的內(nèi)容和意圖來(lái)看,該公約作者們是要將機(jī)器人作為有限的權(quán)利主體,也就是權(quán)利能力被限定為特定范圍的主體,也有其他作者提出將其作為“準(zhǔn)民事法律關(guān)系主體”(19)Е.Н.Ирискина,К.О.Бедяков.Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями робота как квазисубьекта гражданско-правовых отношений.Гуманитарная инаорматика.2016.Вып.10.С.63.。仍然不甚清晰的是,該權(quán)利能力的范圍目前希望限定在哪些領(lǐng)域,以及將來(lái)是否會(huì)擴(kuò)大,有否可能在機(jī)器人智能水平達(dá)到或者接近人類(lèi)的情況下賦予機(jī)器人與人類(lèi)完全相同的權(quán)利能力范圍,等等。

      五、現(xiàn)代人工智能倫理如何構(gòu)建(四):人工智能研發(fā)規(guī)則

      對(duì)于人工智能的發(fā)展和規(guī)制,А.Незнамов認(rèn)為:“悖論在于,那種強(qiáng)人工智能還不存在。如果可能的,最好任何時(shí)候都不要?jiǎng)?chuàng)建它”,“一旦問(wèn)世,它就會(huì)立即失控。而人們簡(jiǎn)直就是不會(huì)有時(shí)間去創(chuàng)設(shè)游戲規(guī)則:現(xiàn)在就需要去寫(xiě)下游戲規(guī)則”,“如果即使是存在0.1%的極端風(fēng)險(xiǎn)存在的可能性,法學(xué)家也有義務(wù)去著手工作。這就意味著,21世紀(jì)的法學(xué)領(lǐng)域期待著重大變革”(20)А.Незнамов.Искусственный вопрос.Стандарт.2018.№3(182),С.13.。所以,該文作者同時(shí)也是該公約的兩位作者之一,就把人工智能的研發(fā)規(guī)則作為該公約的重要組成部分,提出了四項(xiàng)規(guī)則:負(fù)責(zé)任的態(tài)度、人工智能危險(xiǎn)性假定、知情互動(dòng)和將公約條款適用于人工智能。

      “負(fù)責(zé)任的態(tài)度”意味著,要求“人工智能和相近領(lǐng)域中的研發(fā)者、研究者以及研究資助者,有義務(wù)顧及社會(huì)情緒,而且無(wú)權(quán)忽視那種認(rèn)為人工智能技術(shù)可能會(huì)對(duì)人類(lèi)整體產(chǎn)生不可逆的后果并令人類(lèi)自己承擔(dān)極端風(fēng)險(xiǎn)的意見(jiàn)”?!柏?fù)責(zé)任的態(tài)度”要求給純粹的瘋狂的以求真為導(dǎo)向的自然科學(xué)精神套上價(jià)值的籠套,明確要求不但是自然科學(xué)的研究者和研發(fā)者,就連資助這些研究和研發(fā)的人也要承擔(dān)顧及社會(huì)情緒的義務(wù),明確他們沒(méi)有權(quán)利忽視那種特定的社會(huì)意見(jiàn)。正如施特勞斯所說(shuō):“某些意見(jiàn)雖然并非真理,但有益于政治生活”(21)[美]列奧·施特勞斯:《古典政治理性主義的重生——施特勞斯思想入門(mén)》,郭振華譯,華夏出版社2011年版,第197頁(yè)。,“技術(shù)和藝術(shù)從道德和政治中獲得解放將導(dǎo)致災(zāi)難或人的非人化”(22)[美]朗佩特:《“什么是政治哲學(xué)”中的論證》,載 [美]列奧·施特勞斯:《什么是政治哲學(xué)》,李世祥等譯,華夏出版社2014年版,第307頁(yè)。。尤瓦爾·赫拉利說(shuō)得更直白:“雖然科技帶來(lái)了許多美好的承諾,但我想特別強(qiáng)調(diào)的卻是威脅和危險(xiǎn)。引領(lǐng)科技革命的企業(yè)和企業(yè)家,自然傾向于高聲謳歌科技創(chuàng)造的美好,但對(duì)于社會(huì)學(xué)家、哲學(xué)家和像我這樣的歷史學(xué)家,卻想盡快拉響警報(bào),指出所有可能釀成大錯(cuò)的地方”(23)[以]尤瓦爾·赫拉利:《今日簡(jiǎn)史:人類(lèi)命運(yùn)大議題·序》,林俊宏譯,中信出版社2018年版,第8頁(yè)。。

      正是基于對(duì)人工智能完全的絕對(duì)的安全性保障期待之不可能和人類(lèi)理性有限不能顧及到所有可能的情形特別是意外的情形,“人工智能危險(xiǎn)性假定”規(guī)則就極有必要,該規(guī)則同樣針對(duì)“人工智能與相近領(lǐng)域的研發(fā)者、研究者和研究資助者”,要求他們“應(yīng)當(dāng)以人工智能的危險(xiǎn)性假定作為出發(fā)點(diǎn)”,“明白在沒(méi)有相反證明以前,所創(chuàng)造的或者正在創(chuàng)造的人工智能技術(shù)對(duì)人類(lèi)而言是危險(xiǎn)的”。從這種“人工智能危險(xiǎn)性假定”出發(fā),“知情互動(dòng)”規(guī)則就順理成章了,知情互動(dòng)意味著要求“任何一項(xiàng)人類(lèi)與人工智能的互動(dòng)行為,未經(jīng)告知人類(lèi)并獲得同意均不得進(jìn)行”。

      由于機(jī)器人與人工智能的緊密聯(lián)系,該公約的作者們提出“本公約中所述的機(jī)器人條款應(yīng)當(dāng)考慮其設(shè)計(jì)特性而適用于人工智能的物理網(wǎng)絡(luò)系統(tǒng)”。

      六、現(xiàn)代人工智能倫理如何構(gòu)建(五):軍事機(jī)器人的使用限制

      阿西莫夫機(jī)器人學(xué)法則中的零號(hào)法則和一號(hào)法則構(gòu)成了完整的不傷害原則。第一層意義上,機(jī)器人不得傷害人類(lèi)是指機(jī)器人不得以自己的作為傷害人類(lèi)的消極義務(wù);第二層意義上,機(jī)器人不得以自己的不作為致使人類(lèi)受到傷害又蘊(yùn)含了機(jī)器人應(yīng)當(dāng)全力以自己的行為救助人類(lèi)、使人類(lèi)免遭傷害的積極義務(wù)。實(shí)際上,第二層面的不傷害原則并未在現(xiàn)代人工智能倫理中得到充分實(shí)現(xiàn)。

      軍事機(jī)器人特別是將來(lái)智能化程度更高的機(jī)器人的使用是一個(gè)現(xiàn)實(shí)而又迫切需要解決的問(wèn)題。該公約將軍事機(jī)器人的使用限制作為單獨(dú)的一個(gè)部分,提出了四個(gè)規(guī)則:一是人道主義戰(zhàn)爭(zhēng)規(guī)則的可適用性,明確要求“為軍事目的使用機(jī)器人不得違背世界上公認(rèn)的人道主義戰(zhàn)爭(zhēng)規(guī)則”。二是為遵守人道主義戰(zhàn)爭(zhēng)規(guī)則的限制。這是關(guān)于軍事機(jī)器人的內(nèi)在設(shè)計(jì)的要求,“為軍事用途而創(chuàng)建的機(jī)器人,應(yīng)當(dāng)擁有自始就嵌入其中且不得修改的符合國(guó)際人道主義法規(guī)定的對(duì)進(jìn)行戰(zhàn)爭(zhēng)的方法和手段的限制,無(wú)論機(jī)器人將會(huì)被用于哪個(gè)領(lǐng)土”。三是不得傷害和平居民。該條實(shí)際上包含了兩個(gè)層面的內(nèi)容:一方面是不得用于給和平居民造成傷害,即“被用于軍事目的的機(jī)器人不應(yīng)當(dāng)用于給和平居民造成傷害”;另一方面是對(duì)敵方的傷害的限制,要求“在軍事用途中使用機(jī)器人時(shí)必須以所有在此情況下盡可能的方法排除或者最小化機(jī)器人給敵方人手的生命和健康的傷害”。四是對(duì)使用機(jī)器人實(shí)施犯罪的責(zé)任,主要是對(duì)使用機(jī)器人實(shí)施軍事犯罪的責(zé)任,明確了責(zé)任的主體,即“使用機(jī)器人實(shí)施軍事犯罪的責(zé)任依照對(duì)控制這些機(jī)器人的人所實(shí)施的軍事犯罪所適用的規(guī)則確定”,而且“國(guó)家應(yīng)當(dāng)努力制定使用機(jī)器人實(shí)施軍事犯罪將構(gòu)成加重情節(jié)的規(guī)范”。

      七、現(xiàn)代人工智能倫理如何構(gòu)建(六):機(jī)器人學(xué)與人工智能規(guī)則的發(fā)展

      該公約的作者們將機(jī)器人學(xué)與人工智能規(guī)則的發(fā)展作為該公約的組成部分并且是最后的部分。第一,關(guān)于公約規(guī)則的適用,“在本示范公約的條款沒(méi)有強(qiáng)制性之前,機(jī)器人學(xué)主體有權(quán)指出自愿適用本公約的全部或者部分條款”。從表述來(lái)看,公約的作者們是期望該公約具有強(qiáng)制性約束力的,但在此之前只能作為機(jī)器人學(xué)主體們自愿選擇全部或者部分適用的文本。第二,示范公約的適用范圍。作者們將其開(kāi)放給所有的司法管轄區(qū)自由適用并可作創(chuàng)建和使用機(jī)器人規(guī)則統(tǒng)一化的基礎(chǔ)使用,“本公約的規(guī)則可以在任何司法管轄區(qū)并由任何創(chuàng)建、應(yīng)用和使用機(jī)器人進(jìn)程的參加者團(tuán)體作為創(chuàng)建和使用機(jī)器人規(guī)則統(tǒng)一化的基礎(chǔ)使用”。第三,推進(jìn)制定公認(rèn)的國(guó)際規(guī)則?!皺C(jī)器人學(xué)主體應(yīng)當(dāng)推動(dòng)在制定公認(rèn)的創(chuàng)建、應(yīng)用和使用機(jī)器人的規(guī)則,以及協(xié)調(diào)可能在最大數(shù)量的司法管轄區(qū)適用的機(jī)器人學(xué)標(biāo)準(zhǔn)方面的國(guó)際合作”。第四,推動(dòng)創(chuàng)建超國(guó)家機(jī)構(gòu)。“為了有效地、協(xié)調(diào)地和完全地發(fā)展機(jī)器人學(xué)和人工智能,應(yīng)當(dāng)建立國(guó)家間的和非國(guó)家的機(jī)構(gòu),包括已經(jīng)存在的國(guó)際團(tuán)體和組織下設(shè)立國(guó)家間的和非國(guó)家的機(jī)構(gòu)”。第五,示范公約的發(fā)展?!氨竟s的條款應(yīng)當(dāng)經(jīng)討論、更正、修改和補(bǔ)充,以便它們?cè)谧畲蟪潭壬象w現(xiàn)當(dāng)前人類(lèi)社會(huì)中關(guān)于機(jī)器人和人工智能的觀點(diǎn),并符合應(yīng)當(dāng)在機(jī)器人學(xué)和人工智能中發(fā)生效力的公認(rèn)規(guī)則和規(guī)范。”

      阿西莫夫機(jī)器人學(xué)法則在本質(zhì)上屬于機(jī)器人與人類(lèi)關(guān)系的倫理原則,正是由于其作為原則顯得簡(jiǎn)潔明了,但這種簡(jiǎn)潔明了又成為其執(zhí)行中的不足之處,太過(guò)簡(jiǎn)明反而對(duì)具體情形的指導(dǎo)性和可適用性不夠(24)張?zhí)锟保骸度嬗雍团φ瓶厝斯ぶ悄堋?,《光明日?qǐng)?bào)》2017年5月25日第2版。。

      阿西莫夫機(jī)器人學(xué)法則應(yīng)當(dāng)成為現(xiàn)代人工智能倫理建構(gòu)的基礎(chǔ),從本文研究的《機(jī)器人學(xué)與人工智能示范公約》來(lái)看,阿西莫夫的機(jī)器人學(xué)法則的大部分內(nèi)容都在該公約中得到了體現(xiàn),但也并不是完全都得到了體現(xiàn)。以人類(lèi)的中心地位(人類(lèi)對(duì)機(jī)器人和人工智能的控制、人類(lèi)基本權(quán)利和人類(lèi)尊嚴(yán)的尊重和保障)和機(jī)器人與人工智能的安全性保障(其相對(duì)的是機(jī)器人和人工智能的危險(xiǎn)性假定)為基點(diǎn)的該示范公約,以不同的表述涵蓋了大部分阿西莫夫機(jī)器人學(xué)法則,如將阿西莫夫的服從法則表述為來(lái)自人類(lèi)一方對(duì)機(jī)器人的控制性、紅色按鈕等規(guī)則,將不傷害原則以機(jī)器人的安全性保障原則等形式予以接受和落實(shí),并在具體的形式上創(chuàng)新和發(fā)展了機(jī)器人學(xué)法則中的不傷害原則與服從原則。也存在一些未能體現(xiàn)機(jī)器人學(xué)法則的地方:第一,未能體現(xiàn)阿西莫夫機(jī)器人學(xué)法則中的不傷害原則所蘊(yùn)含的要求機(jī)器人以自己的積極作為救助人類(lèi)個(gè)體或者人類(lèi)整體的倫理義務(wù);第二,未能體現(xiàn)阿西莫夫機(jī)器人學(xué)法則中的自我保護(hù)原則,即如何允許并以何種方式實(shí)現(xiàn)機(jī)器人在不違背第一法則和第二法則的前提下自我保護(hù)的問(wèn)題有待進(jìn)一步研究。

      猜你喜歡
      機(jī)器人學(xué)阿西莫夫公約
      我,機(jī)器人(二)
      永不停歇的工作者
      圖書(shū)借閱公約
      詩(shī)意的理性:論阿西莫夫機(jī)器人小說(shuō)中的人機(jī)倫理
      制定《圖書(shū)借閱公約》
      機(jī)器人學(xué)的教育應(yīng)用及展望
      尋找最大公約
      能源(2018年8期)2018-09-21 07:57:40
      制定《圖書(shū)借閱公約》
      科幻電影世界的機(jī)器人之父—阿西莫夫
      影響深遠(yuǎn)的機(jī)器人學(xué)佳作——蔡自興教授的機(jī)器人學(xué)著作述評(píng)
      永顺县| 柞水县| 武川县| 社会| 北安市| 黑龙江省| 林甸县| 嫩江县| 涞水县| 寿光市| 苍山县| 贞丰县| 姚安县| 赫章县| 元谋县| 铜川市| 江孜县| 德钦县| 合阳县| 吴堡县| 秦安县| 微山县| 林周县| 黑河市| 揭阳市| 高要市| 龙山县| 金塔县| 松滋市| 石门县| 阳春市| 汉川市| 新乡县| 潜山县| 广河县| 祁门县| 瑞丽市| 区。| 霍林郭勒市| 金阳县| 阜平县|