• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能的倫理建構(gòu)

      2019-12-16 01:39于雪段偉文
      理論探索 2019年6期
      關(guān)鍵詞:人工智能價(jià)值

      于雪 段偉文

      〔摘要〕 人工智能2.0時(shí)代標(biāo)志著人機(jī)一體化新一代技術(shù)革命的來(lái)臨,這種背景下建構(gòu)人工智能倫理不僅重要而且必要。人工智能技術(shù)具有不確定性、隱象性和系統(tǒng)復(fù)雜性,其倫理建構(gòu)需要遵循整體性、過(guò)程性、適應(yīng)性、相容性、靈活性和魯棒性等原則。人工智能倫理的框架建構(gòu)可以通過(guò)明晰人工智能倫理的基本價(jià)值、確定人工智能倫理的基本標(biāo)準(zhǔn),以及落實(shí)人工智能倫理的相關(guān)責(zé)任這三方面得以實(shí)現(xiàn),并且通過(guò)嵌入設(shè)計(jì)、合理使用、合作管理和多元參與這四條實(shí)踐進(jìn)路來(lái)推進(jìn)。

      〔關(guān)鍵詞〕 人工智能,倫理體系,價(jià)值,實(shí)踐智慧,彈性倫理

      〔中圖分類號(hào)〕N01?? ?〔文獻(xiàn)標(biāo)識(shí)碼〕A〔文章編號(hào)〕1004-4175(2019)06-0043-07

      隨著人工智能2.0時(shí)代的來(lái)臨,“人工智能+互聯(lián)網(wǎng)+區(qū)塊鏈”的技術(shù)合作模式激發(fā)了人工智能技術(shù)在各個(gè)領(lǐng)域的應(yīng)用,掀起了人機(jī)一體化的新一代技術(shù)革命 〔1 〕。2017年,國(guó)務(wù)院出臺(tái)《新一代人工智能發(fā)展規(guī)劃》,提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力” 〔2 〕。理論上看,對(duì)人工智能技術(shù)進(jìn)行倫理規(guī)約有兩種可能的路徑。一種路徑是使人工智能的設(shè)計(jì)符合現(xiàn)有的倫理規(guī)范,但人工智能技術(shù)的發(fā)展無(wú)論是深度上還是廣度上都表現(xiàn)出一種開(kāi)放性的態(tài)勢(shì),其發(fā)展與倫理應(yīng)對(duì)都處于一種未完成的狀態(tài),現(xiàn)有的倫理規(guī)范可能無(wú)法完全回應(yīng)人工智能技術(shù)帶來(lái)的潛在風(fēng)險(xiǎn)。這就需要采取另外一種路徑,即通過(guò)制定新的倫理規(guī)范為人工智能的發(fā)展劃出合理的倫理邊界,以實(shí)現(xiàn)人工智能技術(shù)的“向善”目的。誠(chéng)如亞里士多德所說(shuō):“一切技術(shù),一切研究以及一切實(shí)踐和選擇,都是以某種善為目標(biāo)?!?〔3 〕因此,建構(gòu)適合人工智能技術(shù)發(fā)展的倫理框架不僅重要,而且必要。

      一、人工智能倫理的內(nèi)涵及其建構(gòu)原則

      (一)人工智能倫理的內(nèi)涵。建構(gòu)人工智能倫理,首先需要回答“什么是人工智能”。目前關(guān)于人工智能的定義可以總結(jié)為三種類型:一是將人工智能定義為與人類行為相似的計(jì)算機(jī)程序;二是將人工智能定義為會(huì)自主學(xué)習(xí)的計(jì)算機(jī)程序;三是將人工智能定義為能夠根據(jù)對(duì)環(huán)境的感知,采取合理的行動(dòng),并獲得最大收益的計(jì)算機(jī)程序 〔4 〕。這三種定義分別傾向于模擬人的行動(dòng)能力、人的思維能力或?qū)W習(xí)能力以及人的理性能力。這三種人工智能的界定都在一定程度上涉及到倫理問(wèn)題,因此需要將其作為一個(gè)整體來(lái)考察。以此為起點(diǎn),闡釋人工智能倫理的內(nèi)涵可以按照“界定→理解→表述”的邏輯順序展開(kāi):(1)界定人工智能倫理的基本概念,這意味著需要對(duì)現(xiàn)有人工智能的概念、基本范疇、主要問(wèn)題進(jìn)行解釋和整合,從中提煉出與人工智能倫理相關(guān)的基本議題;(2)在把握人工智能倫理基本概念的基礎(chǔ)上,獲得對(duì)人工智能倫理話語(yǔ)體系的一致性理解,即能夠?qū)θ斯ぶ悄軅惱淼暮诵母拍詈拖嚓P(guān)用法達(dá)成共識(shí);(3)建構(gòu)適合人工智能倫理的表述體系,例如是應(yīng)當(dāng)以人類為主導(dǎo)建構(gòu)倫理表述體系,強(qiáng)調(diào)當(dāng)設(shè)計(jì)、發(fā)明、使用人工智能的時(shí)候,你(人類)應(yīng)當(dāng)……,還是以人工智能技術(shù)為主導(dǎo)建構(gòu)倫理表述體系,即你(人工智能,AI)應(yīng)當(dāng)……?;谶@一思路,為了便于討論,我們可以提出人工智能倫理的定義:在人工智能產(chǎn)品、服務(wù)、應(yīng)用與治理中,智能體(人與智能機(jī)器)所應(yīng)該遵循的一般倫理原則和行為規(guī)范。

      (二)建構(gòu)人工智能倫理的基本原則。人工智能技術(shù)的發(fā)展表現(xiàn)出三個(gè)明顯的特征:一是不確定性,即人工智能技術(shù)發(fā)展過(guò)程中可能出現(xiàn)的新情況以及可能產(chǎn)生的后果難以確定。二是隱象性,基于大數(shù)據(jù)和機(jī)器學(xué)習(xí)的人工智能技術(shù)難以從直觀上把握,出現(xiàn)問(wèn)題前可能沒(méi)有明顯的征兆。三是系統(tǒng)復(fù)雜性,人工智能技術(shù)的研發(fā)需要各學(xué)科、各行業(yè)、各部門(mén)的人員相互配合,在復(fù)雜大系統(tǒng)中協(xié)同工作,彼此之間的溝通與協(xié)作可能存在一定的困難。

      基于以上特征,要想建構(gòu)恰當(dāng)?shù)娜斯ぶ悄軅惱恚氁曰凇皩?shí)踐智慧”的彈性倫理思想為宗旨 〔5 〕1-3。具體看來(lái),建構(gòu)人工智能倫理過(guò)程應(yīng)當(dāng)遵循以下基本原則:(1)整體性原則。人工智能倫理的建構(gòu)應(yīng)當(dāng)體現(xiàn)宏觀視角,能夠?qū)θ斯ぶ悄馨l(fā)展的整體規(guī)律有一定的掌握和預(yù)見(jiàn),從整體的高度建構(gòu)人工智能倫理。(2)過(guò)程性原則。人工智能倫理的建構(gòu)應(yīng)當(dāng)關(guān)注人工智能技術(shù)發(fā)展的全過(guò)程,從設(shè)計(jì)、生產(chǎn)、操作、應(yīng)用等各個(gè)環(huán)節(jié)共同參與建構(gòu)。(3)適應(yīng)性原則。人工智能倫理的建構(gòu)應(yīng)當(dāng)體現(xiàn)出可適應(yīng)性,即為了更好地實(shí)現(xiàn)其倫理規(guī)約的功能,而適當(dāng)?shù)馗淖兤鋬r(jià)值要素或者增加新的價(jià)值要素以適應(yīng)倫理價(jià)值本身的變化。(4)相容性原則。人工智能倫理的建構(gòu)應(yīng)當(dāng)體現(xiàn)整體與局部、一般與個(gè)別、當(dāng)下與未來(lái)的相容性,在倫理建構(gòu)的過(guò)程中應(yīng)當(dāng)考慮一般性與特殊性,以保證倫理價(jià)值在不同情境中的相容性。(5)靈活性原則。人工智能倫理在保證尊重核心倫理價(jià)值的前提下,要體現(xiàn)具體案例具體分析的彈性處理辦法,以適應(yīng)人工智能技術(shù)自身的隱象性、不確定性和復(fù)雜性。(6)魯棒性原則。這里指的是“價(jià)值魯棒性”,即通過(guò)設(shè)計(jì)的方式調(diào)整價(jià)值的合適域,使價(jià)值能夠在一定范圍內(nèi)保持穩(wěn)定,不會(huì)隨著外在環(huán)境的變化徹底顛覆。遵循以上基本原則建構(gòu)人工智能倫理,可以在充分考慮人工智能技術(shù)自身的特點(diǎn)和發(fā)展趨勢(shì)的基礎(chǔ)上,實(shí)現(xiàn)對(duì)人工智能技術(shù)的倫理治理。

      二、人工智能倫理建構(gòu)的基本框架

      在充分考慮人工智能技術(shù)需求和社會(huì)需求的基礎(chǔ)上,可以從明晰人工智能倫理的基本價(jià)值、確定人工智能倫理的基本標(biāo)準(zhǔn),以及落實(shí)人工智能倫理的相關(guān)責(zé)任這三個(gè)方面實(shí)現(xiàn)人工智能倫理的框架建構(gòu)。

      (一)明晰人工智能倫理的基本價(jià)值。建構(gòu)人工智能倫理的一個(gè)核心環(huán)節(jié)是確定人工智能技術(shù)應(yīng)當(dāng)遵循的倫理價(jià)值。價(jià)值指的是“人們普遍認(rèn)為應(yīng)該為之奮斗的持續(xù)的信念或者事件,這種奮斗不僅僅是為了他們個(gè)人,而是為了能夠獲得一種好的生活或?qū)崿F(xiàn)一個(gè)好的社會(huì)” 〔6 〕72。在科技倫理領(lǐng)域內(nèi),價(jià)值有其特定的范式。一般而言,科技活動(dòng)的倫理價(jià)值可以從核心層、基礎(chǔ)層和實(shí)踐層三個(gè)層面來(lái)理解。實(shí)踐層面的科技倫理價(jià)值指的是科技活動(dòng)中具體的行為規(guī)范,基礎(chǔ)層面的科技倫理價(jià)值指的是指導(dǎo)這些科技活動(dòng)一般性的倫理原則和基礎(chǔ)性的倫理價(jià)值,而核心層面的科技倫理價(jià)值則建基于人類的核心價(jià)值,即建立在主體理性之上的人的尊嚴(yán)、幸福、自由、關(guān)愛(ài)等內(nèi)在價(jià)值。這三個(gè)層面的價(jià)值之間的關(guān)系是:實(shí)踐層的倫理價(jià)值受基礎(chǔ)層的倫理價(jià)值指導(dǎo),而基礎(chǔ)層的倫理價(jià)值來(lái)自于核心層的人類價(jià)值。三個(gè)層面的倫理價(jià)值層層推進(jìn)。具體而言,按照當(dāng)代科技倫理學(xué)家瑞斯·尼克(David B. Resnik)的觀點(diǎn),科技倫理行為應(yīng)該體現(xiàn):“誠(chéng)實(shí)、審慎、公開(kāi)性、自由、信用、教育、社會(huì)責(zé)任、合法、機(jī)會(huì)、相互尊重、效率與尊重主體” 〔7 〕63-88這十二項(xiàng)倫理價(jià)值。在科技活動(dòng)中,專業(yè)人員所遵循的基本價(jià)值訴求是公眾利益優(yōu)先,即以負(fù)責(zé)任的專業(yè)服務(wù)造福社會(huì)。弗雷德曼等人針對(duì)信息通訊技術(shù)(ICT)同樣提出了十二條倫理價(jià)值,分別是:“人類福祉、財(cái)產(chǎn)權(quán)、隱私、無(wú)偏見(jiàn)、普遍可用性、信任、自主性、知情同意、可解釋性、同一性、平衡和環(huán)境可持續(xù)性?!?〔8 〕55-59 這些科技倫理的價(jià)值可以劃分為指標(biāo)性價(jià)值和實(shí)踐性價(jià)值兩類,前者體現(xiàn)了科技活動(dòng)的宗旨,是科技活動(dòng)應(yīng)有的與人類價(jià)值相一致的基本價(jià)值;后者指的是基于指標(biāo)性原則的要求、在科技實(shí)踐中的具體行動(dòng)所遵循的價(jià)值 〔9 〕。由是觀之,基于科技倫理價(jià)值的倫理構(gòu)建策略是:首先將指標(biāo)性價(jià)值與人類一般倫理價(jià)值保持一致,進(jìn)而通過(guò)實(shí)踐性價(jià)值規(guī)制具體的科技活動(dòng)。這一策略為建構(gòu)人工智能的倫理價(jià)值框架提供了指南。人工智能技術(shù)的指標(biāo)性價(jià)值應(yīng)為人類福祉,這里既包含了積極實(shí)現(xiàn)人類福祉的公共福祉優(yōu)先和客觀性價(jià)值,也包含了被動(dòng)實(shí)現(xiàn)人類福祉的尊重和無(wú)害原則。而人工智能技術(shù)的實(shí)踐性價(jià)值應(yīng)該在以人類福祉為核心的前提下,對(duì)涉及人工智能技術(shù)的具體行為進(jìn)行價(jià)值設(shè)定,其本質(zhì)是促進(jìn)人工智能的創(chuàng)新與發(fā)展。

      具體看來(lái),以人類福祉為核心,以人工智能的創(chuàng)新和發(fā)展為要旨,人工智能倫理價(jià)值的設(shè)定可以總結(jié)為三個(gè)方面,分別是:觀念化價(jià)值、經(jīng)驗(yàn)化價(jià)值和技術(shù)化價(jià)值。觀念化價(jià)值指的是從概念框架出發(fā)理論上應(yīng)當(dāng)被關(guān)注的價(jià)值,其來(lái)源既包括與人工智能技術(shù)直接相關(guān)的直接利益相關(guān)者,也包括受人工智能技術(shù)影響的間接利益相關(guān)者。無(wú)人駕駛汽車(chē)的直接利益相關(guān)者(如設(shè)計(jì)者、企業(yè)、銷售商等)會(huì)將安全、人類控制、隱私等價(jià)值作為訴求,間接利益相關(guān)者(如行人或受該技術(shù)影響的其他人)則會(huì)將公正、責(zé)任、可持續(xù)性等價(jià)值作為訴求,這些價(jià)值都應(yīng)當(dāng)在觀念上被考慮。經(jīng)驗(yàn)化價(jià)值指的是從“理解、語(yǔ)境和經(jīng)驗(yàn)”中對(duì)觀念化價(jià)值的實(shí)踐體認(rèn),如可信任、尊嚴(yán)等。技術(shù)化價(jià)值指的是與人工智能技術(shù)的特殊性相關(guān)的價(jià)值,這一方面包括了當(dāng)前人工智能技術(shù)所涉及的價(jià)值(比如透明性、可解釋性等),也包括了未來(lái)人工智能技術(shù)可能出現(xiàn)的新的價(jià)值(可能需要的價(jià)值例如AI產(chǎn)品的可識(shí)別性、可解釋性等)。

      從當(dāng)前關(guān)于人工智能技術(shù)的倫理準(zhǔn)則看,大多準(zhǔn)則提到了上述的部分價(jià)值。歐盟委員會(huì)發(fā)布的由人工智能高級(jí)專家組編制的《可信任人工智能的倫理指南》(Ethics Guidelines For Trustworthy AI)提出了尊重人類自主性、預(yù)防傷害、公正性、可解釋性這四個(gè)價(jià)值旨?xì)w;“阿西洛馬人工智能原則”(Asilomar AI Principles)中提出了13點(diǎn)倫理價(jià)值,分別是:安全性、故障透明性、司法透明性、責(zé)任、價(jià)值歸屬、人類價(jià)值觀、個(gè)人隱私、自由和隱私、分享利益、共同繁榮、人類控制、非破壞、避免人工智能軍備競(jìng)賽;北京智源人工智能研究院聯(lián)合北京大學(xué)、清華大學(xué)、中國(guó)科學(xué)院自動(dòng)化研究所等高校、科研院所和產(chǎn)業(yè)聯(lián)盟,共同發(fā)布了《人工智能北京共識(shí)》,從研發(fā)、使用和治理三個(gè)方面提出了造福、服務(wù)于人、負(fù)責(zé)、控制風(fēng)險(xiǎn)、合乎倫理、多樣與包容、開(kāi)放共享、善用與慎用、知情與同意、教育與培訓(xùn)、優(yōu)化就業(yè)、和諧與合作、適應(yīng)與適度、細(xì)化與落實(shí)、長(zhǎng)遠(yuǎn)規(guī)劃共15條準(zhǔn)則;2019年6月,我國(guó)科技部國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則》,指出通過(guò)和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理這八個(gè)方面建設(shè),有助于實(shí)現(xiàn)負(fù)責(zé)任的人工智能。這些倫理價(jià)值的提出有著重要的借鑒意義。但是這些報(bào)告中關(guān)于價(jià)值的討論主要是將其視為無(wú)差別的價(jià)值序列,未能體現(xiàn)人工智能技術(shù)自身的指標(biāo)性價(jià)值和實(shí)踐性價(jià)值之區(qū)別??傮w看來(lái),人工智能的價(jià)值體系可以從體現(xiàn)人類福祉的指標(biāo)性價(jià)值和體現(xiàn)AI創(chuàng)新與發(fā)展的實(shí)踐性價(jià)值入手,從而實(shí)現(xiàn)其可視化和可嵌入化過(guò)程。

      (二)確定人工智能倫理的基本標(biāo)準(zhǔn)。標(biāo)準(zhǔn)指的是為了實(shí)現(xiàn)價(jià)值而采取的具體規(guī)范,因此,標(biāo)準(zhǔn)是由價(jià)值轉(zhuǎn)化而來(lái)的。價(jià)值是標(biāo)準(zhǔn)的來(lái)源,同時(shí)標(biāo)準(zhǔn)需要以設(shè)計(jì)需求作為支撐,這也是價(jià)值-標(biāo)準(zhǔn)-設(shè)計(jì)需要之間的內(nèi)在關(guān)系 〔10 〕253-266。如圖1所示,價(jià)值-標(biāo)準(zhǔn)-設(shè)計(jì)需要三者之間的關(guān)系表現(xiàn)為:頂層是價(jià)值,中層是為實(shí)現(xiàn)價(jià)值而設(shè)定的標(biāo)準(zhǔn),底層是為了實(shí)現(xiàn)標(biāo)準(zhǔn)而設(shè)定的具體的設(shè)計(jì)要求。

      圖1 價(jià)值-標(biāo)準(zhǔn)-設(shè)計(jì)需要之轉(zhuǎn)化模式

      確定人工智能倫理的基本標(biāo)準(zhǔn),首先,需要確定人工智能技術(shù)所體現(xiàn)的基本價(jià)值。根據(jù)上一部分的論證,人工智能倫理的基本價(jià)值包括人類福祉與AI創(chuàng)新和發(fā)展,這兩個(gè)基本價(jià)值分別體現(xiàn)了人與技術(shù)這兩個(gè)維度。其次,需要將人類福祉和AI創(chuàng)新發(fā)展這兩個(gè)價(jià)值還原為標(biāo)準(zhǔn)并繼而還原為設(shè)計(jì)需要。AI創(chuàng)新和發(fā)展的價(jià)值可以還原為安全、可解釋性、可持續(xù)性等標(biāo)準(zhǔn),繼而被還原為安全可中斷性、故障透明性、環(huán)境友好等設(shè)計(jì)要求;人類福祉的價(jià)值可以被還原為公正、隱私、多元包容、責(zé)任、人類控制等標(biāo)準(zhǔn),繼而被還原為避免算法歧視、敏感信息處理、通用設(shè)計(jì)、數(shù)據(jù)追蹤與審查、可追蹤系統(tǒng)、可追溯系統(tǒng)等設(shè)計(jì)要求(如圖2所示)。

      需要特別說(shuō)明的是,人工智能倫理的建構(gòu)既可以采用自上而下的方式,即根據(jù)價(jià)值而設(shè)定標(biāo)準(zhǔn)和設(shè)計(jì)要求,也可以采用自下而上的方式,即根據(jù)具體的設(shè)計(jì)要求來(lái)尋找這些設(shè)計(jì)要求所依據(jù)的標(biāo)準(zhǔn)和價(jià)值,或者它們有可能對(duì)其起作用的標(biāo)準(zhǔn)和價(jià)值。這對(duì)于人工智能倫理的建構(gòu)而言,可以用來(lái)說(shuō)明通用人工智能(AGI)和狹義人工智能(ANI)之間的互相作用關(guān)系。通用人工智能的倫理建構(gòu)可以采用自上而下的方式,先設(shè)定符合通用人工智能的一般價(jià)值,繼而對(duì)此提出標(biāo)準(zhǔn)要求和設(shè)計(jì)要求;而狹義人工智能的倫理建構(gòu)可以采用自下而上的方式,先從各個(gè)領(lǐng)域的人工智能的具體設(shè)計(jì)要求出發(fā),繼而尋找這些設(shè)計(jì)要求符合的中層標(biāo)準(zhǔn),從而上升為一般的倫理價(jià)值(如圖1所示)。

      (三)明確人工智能倫理的相關(guān)責(zé)任。為了建構(gòu)人工智能倫理,還需要考慮的一個(gè)重要維度就是責(zé)任問(wèn)題,落實(shí)責(zé)任有助于人工智能倫理治理的法治化建構(gòu)。對(duì)人工智能技術(shù)的責(zé)任反思有助于人工智能倫理的落實(shí),以責(zé)任促進(jìn)倫理,是保障倫理實(shí)踐有效性的重要舉措。責(zé)任可以分為法律責(zé)任和道德責(zé)任兩類。按照現(xiàn)有的法律制度,人工智能可能引發(fā)的法律問(wèn)題主要涉及四種情況:(1)過(guò)失行為責(zé)任,指的是因?yàn)槭韬龆鸬倪^(guò)失,這要考慮是否在人工智能的設(shè)計(jì)、操作、管理等方面履行了避免過(guò)失的義務(wù),并以此追究責(zé)任;(2)產(chǎn)品責(zé)任,指的是生產(chǎn)商或者銷售商對(duì)其產(chǎn)品負(fù)有責(zé)任,如果因?yàn)槿斯ぶ悄墚a(chǎn)品的質(zhì)量問(wèn)題而導(dǎo)致的事故可以追究其生產(chǎn)商或銷售商的責(zé)任;(3)轉(zhuǎn)承責(zé)任或替代責(zé)任,指的是在特定關(guān)系中責(zé)任者(如雇主)要為行為者(如雇員)負(fù)責(zé)任,比如警察雇傭智能機(jī)器人作為他的代替巡邏者,如果該機(jī)器人在巡邏過(guò)程中產(chǎn)生了錯(cuò)誤從而導(dǎo)致事故,那么雇傭該機(jī)器人的警察需要承擔(dān)這種轉(zhuǎn)承責(zé)任;(4)無(wú)過(guò)失意外賠償責(zé)任,指的是不考慮行為人是否有過(guò)失,都應(yīng)當(dāng)對(duì)受害人進(jìn)行賠償,可以考慮推行因人工智能技術(shù)導(dǎo)致事故的意外賠償計(jì)劃 〔11 〕83-119。目前看來(lái),涉及人工智能的法律責(zé)任還是以人為主要的責(zé)任者,而人工智能本身無(wú)法承擔(dān)責(zé)任。但是隨著人工智能逐漸被設(shè)計(jì)為具有決策能力的行為者,其本身有可能因?yàn)殄e(cuò)誤決策而產(chǎn)生事故,這種情況就需要提前做好相應(yīng)的法律對(duì)策。

      另一方面,人工智能涉及的道德責(zé)任問(wèn)題也應(yīng)當(dāng)引起重視。根據(jù)傳統(tǒng)道德理論的定義,道德責(zé)任指的是對(duì)由個(gè)體行為引起的后果在道義上所承擔(dān)的責(zé)任,這是一種后置性責(zé)任。按照康德哲學(xué)的要旨,道德責(zé)任只能由作為道德能動(dòng)者的人來(lái)承擔(dān),而道德能動(dòng)者則需要滿足自主性和自由意志這兩個(gè)條件。因?yàn)槿斯ぶ悄芸腕w無(wú)法滿足自主性和自由意志這兩個(gè)條件,所以無(wú)法承擔(dān)相應(yīng)的道德責(zé)任。但也有學(xué)者指出,盡管人工智能體無(wú)法具有與人類相同的道德責(zé)任,但因其在行動(dòng)中體現(xiàn)出與人類相似的自主行為能力和決策能力,因此應(yīng)當(dāng)將人工智能的道德責(zé)任視為“擬責(zé)任”(quasi-responsibility)或“第二責(zé)任”(second-order responsibility),這兩種意義上的道德責(zé)任承認(rèn)人工智能客體具有承擔(dān)道德責(zé)任的能力,它們作為個(gè)體單獨(dú)承擔(dān)道德責(zé)任。但是,這種觀點(diǎn)也存在著局限性,人工智能客體不具有承擔(dān)道德責(zé)任的情緒能力(如不會(huì)產(chǎn)生愧疚等道德情緒),因而將這類后置性道德責(zé)任單獨(dú)地賦予人工智能客體似乎是沒(méi)有意義的。然而,必須要承認(rèn)的是,人工智能客體在人類道德決策活動(dòng)中的重要作用使其承擔(dān)了一定的道德角色,由此有必要對(duì)其進(jìn)行道德意義上的責(zé)任分配。這就需要將人工智能客體與人類主體作為一個(gè)聯(lián)合體,承擔(dān)“共同責(zé)任”(joint responsibility)。共同責(zé)任的概念并不陌生,艾倫·漢森(Allan Hanson)將這一概念應(yīng)用到人與技術(shù)人工物的關(guān)系上。漢森指出,行動(dòng)中的人和技術(shù)人工物共同承擔(dān)道德能動(dòng)性,是聯(lián)合的道德能動(dòng)者(joint moral agent),因此在道德情境中人與技術(shù)人工物具有共同責(zé)任。這一觀點(diǎn)受到了海倫·尼森鮑姆(Helen Nissenbaum)的“多面手”(many hands)理論啟發(fā)。按照“多面手”理論,在復(fù)雜系統(tǒng)的事故中,由多方因素共同承擔(dān)責(zé)任,難以追究其中某個(gè)個(gè)體的單一責(zé)任 〔12 〕25-42。與之相似的觀點(diǎn)還包括大衛(wèi)·岡克爾(David Gunkel)提出的“混合責(zé)任”(hybrid responsibility)、喬爾·芬堡(Joel Feinberg)提出的“集體責(zé)任”(collective responsibility)以及克里斯蒂安·約豪瑟(Christian Neuhuser)提出的“責(zé)任網(wǎng)絡(luò)”(responsibility network)等。以上對(duì)人工智能的道德責(zé)任歸因主要是將其視為一種后置性責(zé)任,是針對(duì)已發(fā)生事實(shí)的道德追究??紤]到人工智能技術(shù)的不確定性,不僅要從后置性的角度反思如何恰當(dāng)?shù)刈肪康赖虑榫持械娜祟愔黧w與人工智能客體之間的道德責(zé)任分配,而且要基于一種前瞻性的視角盡可能地預(yù)防道德事故的發(fā)生。這是將道德責(zé)任視為一種前置性的責(zé)任,從預(yù)防的角度考察責(zé)任的歸屬問(wèn)題,即能夠有效地預(yù)防事故的發(fā)生就體現(xiàn)出道德責(zé)任。因此,建構(gòu)人工智能倫理不僅需要對(duì)已發(fā)生事故的法律責(zé)任展開(kāi)追究,更需要對(duì)未發(fā)生事故進(jìn)行預(yù)防性責(zé)任建構(gòu),盡可能減輕倫理問(wèn)題產(chǎn)生的后果。

      三、人工智能倫理建構(gòu)的實(shí)踐進(jìn)路

      人工智能的倫理建構(gòu)可以通過(guò)嵌入設(shè)計(jì)、合理規(guī)制、合作管理和多元參與這四種方式及其互動(dòng),全方位多角度地踐行人工智能的倫理建構(gòu),即通過(guò)嵌入設(shè)計(jì)和規(guī)范使用方式體現(xiàn)人工智能倫理的價(jià)值和標(biāo)準(zhǔn),通過(guò)多方合作與大眾參與形式實(shí)踐人工智能倫理的責(zé)任建設(shè)和評(píng)價(jià)機(jī)制建設(shè)。

      (一)嵌入設(shè)計(jì)。首先,建構(gòu)人工智能倫理的一條有效路徑就是嵌入設(shè)計(jì),即將倫理價(jià)值和倫理準(zhǔn)則嵌入到人工智能技術(shù)之中,以實(shí)現(xiàn)在技術(shù)層面建構(gòu)人工智能倫理? 〔13 〕。嵌入設(shè)計(jì)的方法路徑可以采用價(jià)值敏感性設(shè)計(jì)、機(jī)器倫理、負(fù)責(zé)任創(chuàng)新等理論模型,以AI創(chuàng)新和發(fā)展以及人類福祉這兩個(gè)主要價(jià)值為宗旨,以與之相關(guān)的安全性、可解釋性、可持續(xù)性、公正、隱私、人類控制等標(biāo)準(zhǔn)為目標(biāo),具體的設(shè)計(jì)要求可以體現(xiàn)為如下四個(gè)方面:

      其一,人工智能的設(shè)計(jì)要體現(xiàn)可識(shí)別性。在對(duì)人工智能的倫理反思中,一個(gè)主要的擔(dān)憂是:如果人工智能(特別是機(jī)器人)與人無(wú)異,那么該如何對(duì)待這類人工智能產(chǎn)品呢?以何種方式與其交流互動(dòng)?如何將其區(qū)別于人類能動(dòng)者?比較典型的例子是人形機(jī)器人,作為幾乎和人一模一樣的機(jī)器人,一旦被應(yīng)用到社會(huì)生活中,按照恐怖谷理論所說(shuō)的,在某些情況下會(huì)引起人們的恐懼心理 〔14 〕222。對(duì)于這些情況,可以通過(guò)設(shè)計(jì)人工智能產(chǎn)品作出可識(shí)別性的標(biāo)識(shí),就像某些食品的包裝上會(huì)提示“注意!該產(chǎn)品含有堅(jiān)果!”以提示對(duì)堅(jiān)果過(guò)敏的人們避免食用,那么也可以在人工智能產(chǎn)品上標(biāo)注“注意!該產(chǎn)品含有人工智能!”以區(qū)別于非人工智能產(chǎn)品,如無(wú)人駕駛汽車(chē)可以作出顯著提示以區(qū)別人類駕駛汽車(chē)。

      其二,人工智能設(shè)計(jì)要體現(xiàn)可解釋性。一方面可以將可解釋性作為一種工具以改善人工智能的性能或者修正錯(cuò)誤;另一方面可解釋性的內(nèi)在價(jià)值體現(xiàn)了人們對(duì)自由意志和可控性的需要。例如,歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation, GDPR)要求算法具備可解釋性(The Right to Explanation of Automated Decision),數(shù)據(jù)主體對(duì)于自動(dòng)決策不滿意時(shí),可以采取人工干預(yù),要求對(duì)相關(guān)數(shù)據(jù)進(jìn)行解釋。Upol Ehsan, Brent Harrison等人據(jù)此提出了一種技術(shù)方案“合理化人工智能”(AI rationalization),該方法可以生成對(duì)自動(dòng)系統(tǒng)行為的解釋 〔15 〕。

      其三,人工智能設(shè)計(jì)要盡可能避免偏見(jiàn)。人工智能系統(tǒng)被要求從一定的數(shù)據(jù)當(dāng)中挑選出合適的數(shù)據(jù),那么挑選的過(guò)程就會(huì)產(chǎn)生數(shù)據(jù)偏見(jiàn)。主要的偏見(jiàn)類型包括:“交互偏見(jiàn)”(用戶由于自己與算法的交互方式而使算法產(chǎn)生的偏見(jiàn))、“潛意識(shí)偏見(jiàn)”(算法錯(cuò)誤地把觀念與種族和性別等因素聯(lián)系起來(lái))、“選擇偏見(jiàn)”(用于訓(xùn)練算法的數(shù)據(jù)被傾向性地用于表示某個(gè)群體或者分組)和“確認(rèn)偏見(jiàn)”(數(shù)據(jù)驅(qū)動(dòng)偏向于那些先入為主的信息)。谷歌公司的研究人員發(fā)明了一種“硬性糾錯(cuò)”,就是把系統(tǒng)判斷出的對(duì)應(yīng)關(guān)系放到一個(gè)論壇平臺(tái)上去發(fā)布并詢問(wèn)是否合適。如果有一半的人認(rèn)為不合適,那么這個(gè)類比就不恰當(dāng),就要糾正過(guò)來(lái)。還有一種更加智能化的方式,即來(lái)自哥倫比亞大學(xué)的Kexin Pei等人研發(fā)的“DeepXpolre” 〔16 〕軟件,即在神經(jīng)網(wǎng)絡(luò)中通過(guò)欺騙系統(tǒng)從而使其暴露自身缺陷,據(jù)稱這個(gè)軟件能夠激活系統(tǒng)中幾乎百分之百的神經(jīng)元,從而讓整個(gè)神經(jīng)網(wǎng)絡(luò)去掃描錯(cuò)誤。

      其四,人工智能的設(shè)計(jì)要預(yù)留“切斷開(kāi)關(guān)”(kill switch)?!発ill switch”,專業(yè)術(shù)語(yǔ)叫“安全可中斷性”,即必要時(shí)通過(guò)人類決策或者系統(tǒng)自動(dòng)決策來(lái)關(guān)閉該系統(tǒng),以防止產(chǎn)生不可逆的后果。例如,人工智能公司Deep Mind在其程序中設(shè)計(jì)了“切斷開(kāi)關(guān)”以防止人工智能帶來(lái)的毀滅性后果。

      (二)合理規(guī)制。人工智能倫理的建構(gòu)不僅需要依靠技術(shù)嵌入的方法,還需要在技術(shù)使用和技術(shù)操作層面對(duì)其進(jìn)行規(guī)制。要明確人工智能可以使用和不可以使用的范圍,以確?!坝幸饬x地人類控制”(Meaningful Human Control,MHC)?!坝幸饬x地人類控制”最初針對(duì)的是自動(dòng)武器,強(qiáng)調(diào)自動(dòng)(武器)系統(tǒng)必須保留在有意義的人類控制之中,即人類應(yīng)當(dāng)對(duì)其道德行為及后果作出終極決策并負(fù)有相應(yīng)的道德責(zé)任,而不是自動(dòng)機(jī)器或與此相關(guān)的算法程序。意大利學(xué)者Filippo Santoni De Sio和荷蘭學(xué)者Jeroen van den Hoven對(duì)此進(jìn)行了細(xì)化,提出了自動(dòng)系統(tǒng)滿足有意義的人類控制兩個(gè)必要條件:(1)“追蹤”條件,系統(tǒng)應(yīng)當(dāng)能夠回應(yīng)人類設(shè)計(jì)和發(fā)展該系統(tǒng)所涉及的相關(guān)道德理由以及該系統(tǒng)運(yùn)行環(huán)境中的相關(guān)事實(shí);(2)“追溯”條件,系統(tǒng)應(yīng)當(dāng)總是能夠允許在設(shè)計(jì)或使用的鏈條中有至少一個(gè)人對(duì)其操作的結(jié)果進(jìn)行追溯 〔17 〕。“有意義的人類控制”基于菲舍爾(Fischer)和里瓦扎(Ravizza)提出的“引導(dǎo)控制”(guidance control)?!耙龑?dǎo)控制”強(qiáng)調(diào)兩個(gè)條件,一是對(duì)決策機(jī)制的恰當(dāng)?shù)睦碛苫貞?yīng),二是由行動(dòng)者自己決定的決策機(jī)制 〔18 〕207-239。這里的根本問(wèn)題是道德決策的歸屬。道德決策指的是在道德情境中對(duì)現(xiàn)有可能性作出選擇的行動(dòng)過(guò)程。人工智能技術(shù)為非人因素作出道德決策提供了可能性,因?yàn)闆Q策的過(guò)程可以通過(guò)數(shù)據(jù)計(jì)算的方式展現(xiàn),比如自動(dòng)駕駛汽車(chē)不得不面對(duì)“電車(chē)難題”(Trolley Dilemma)以及由此變型的“頭盔難題”(Helmet Dilemma)? 〔19 〕58-65。

      對(duì)人工智能展開(kāi)“有意義的人類控制”意味著嚴(yán)格控制人工智能的自我決策權(quán),在人類主體與人工智能客體的交互活動(dòng)中,人類在人工智能技術(shù)使用中應(yīng)當(dāng)擁有最后的決策權(quán)。“有意義的人類控制”對(duì)限制人工智能的合理使用具有重要的參考意義,對(duì)于超出人類控制的自動(dòng)系統(tǒng)應(yīng)當(dāng)限制其應(yīng)用。例如,美國(guó)太空探索技術(shù)公司首席執(zhí)行官馬斯克在內(nèi)的全球116名機(jī)器人和 AI領(lǐng)域的專家、企業(yè)家以及技術(shù)領(lǐng)袖共同簽署了公開(kāi)信,呼吁禁止研發(fā)使用Killer Robots。2016年12月,聯(lián)合國(guó)《特定常規(guī)武器公約》的123個(gè)成員國(guó)同意正式討論這類自主武器,其中19個(gè)成員國(guó)已要求徹底禁止這種武器。

      (三)合作管理。人工智能倫理的建構(gòu)還需要多方的合作管理 〔20 〕。合作方主要包括政府、企業(yè)、行業(yè)委員會(huì)、學(xué)術(shù)共同體和AI倫理委員會(huì)。具體體現(xiàn)為:(1)政府方面,英國(guó)上議院頒布了《人工智能倫理準(zhǔn)則》(AI codes)、日本內(nèi)閣政府提出了“AI ready社會(huì)”等;(2)企業(yè)方面,美國(guó)英特爾公司發(fā)布了《人工智能—公共政策的機(jī)遇》、微軟發(fā)布了人工智能倫理的六條準(zhǔn)則、我國(guó)騰訊公司提出了“科技向善”的口號(hào);(3)行業(yè)委員會(huì)方面,日本人工智能學(xué)會(huì)發(fā)布了《日本人工智能學(xué)會(huì)倫理準(zhǔn)則》,美國(guó)電子電氣工程學(xué)會(huì)(IEEE)發(fā)布了《人工智能設(shè)計(jì)的倫理準(zhǔn)則》;(4)學(xué)術(shù)共同體方面,美國(guó)的未來(lái)社會(huì)、科學(xué)、法律與社會(huì)機(jī)構(gòu)提出了《人工智能治理原則》,加拿大蒙特利爾大學(xué)發(fā)布了《可靠的人工智能草案蒙特利爾宣言》,全球網(wǎng)絡(luò)聯(lián)盟(UNI Global Union)發(fā)布了《人工智能倫理的十大原則》;(5)AI倫理委員會(huì)方面,谷歌公司設(shè)立了AI倫理委員會(huì)對(duì)其AI產(chǎn)品進(jìn)行倫理審查。2019年7月24日,中央全面深化改革委召開(kāi)第九次會(huì)議通過(guò)《國(guó)家科技倫理委員會(huì)組建方案》。在共同原則的指導(dǎo)下,這五個(gè)方面的組織機(jī)構(gòu)應(yīng)當(dāng)共同參與政策制定、監(jiān)督、管理、反饋等環(huán)節(jié),以實(shí)現(xiàn)五位一體的管理模式。合作管理有助于促進(jìn)人工智能的制度建設(shè)和法律建設(shè)。

      (四)多元參與。學(xué)術(shù)共同體、企業(yè)、管理機(jī)構(gòu)、設(shè)計(jì)者和使用者等利益相關(guān)者都應(yīng)當(dāng)參與到建構(gòu)人工智能倫理的過(guò)程中。主要參與形式包括三種:(1)建立相應(yīng)的國(guó)際倫理機(jī)構(gòu),提倡各行業(yè)、各領(lǐng)域、各環(huán)節(jié)的利益相關(guān)者共同參與治理。這可以參考現(xiàn)有的各行業(yè)國(guó)際組織,如國(guó)際海事組織的目的是創(chuàng)建一個(gè)監(jiān)管公平和有效的航運(yùn)業(yè)框架,以確保在船舶設(shè)計(jì)、施工、設(shè)備、人員配備、操作和處理等方面體現(xiàn)安全、環(huán)保、節(jié)能等價(jià)值。以此類機(jī)構(gòu)為借鑒,可以建構(gòu)相應(yīng)的國(guó)際人工智能倫理機(jī)構(gòu),在人工智能設(shè)計(jì)、操作、應(yīng)用和反饋等各環(huán)節(jié)提出供參考的價(jià)值,包括AI創(chuàng)新和發(fā)展、人類福祉和可持續(xù)性等共同價(jià)值,以及各行業(yè)、各領(lǐng)域所涉及的具體價(jià)值。(2)推動(dòng)自下而上的調(diào)查方法。開(kāi)放機(jī)器人倫理機(jī)構(gòu)采用調(diào)查問(wèn)卷和訪談的形式對(duì)諸如無(wú)人駕駛汽車(chē)、護(hù)理機(jī)器人或者致死性自動(dòng)武器等進(jìn)行調(diào)研,曾經(jīng)在其網(wǎng)站上發(fā)布了“你是否會(huì)信任機(jī)器人來(lái)照顧你的奶奶”?麻省理工大學(xué)(MIT)制作了一個(gè)“道德機(jī)器”的模擬平臺(tái),旨在收集人們對(duì)由機(jī)器智能(如無(wú)人駕駛汽車(chē))作出的道德決策的看法。(3)廣泛開(kāi)展人工智能倫理的相關(guān)教育活動(dòng),例如開(kāi)設(shè)相關(guān)課程或相關(guān)講座,召開(kāi)相關(guān)的專題研討會(huì)等。多元參與有助于拓寬人工智能倫理的建構(gòu)渠道,從而完善人工智能倫理的評(píng)價(jià)機(jī)制,使人工智能倫理真正地發(fā)揮其倫理承載力、倫理建構(gòu)力和倫理兼容力的治理作用。

      總之,人工智能技術(shù)對(duì)人類社會(huì)生活的普遍滲透和內(nèi)在嵌入使得我們不得不面對(duì)這樣一個(gè)事實(shí):人類無(wú)法退回到?jīng)]有人工智能的時(shí)代,而是必須要與之共存。那么,我們就需要認(rèn)真思考該以何種方式與人工智能共存?目前看來(lái),一種可行的路徑是建構(gòu)適宜的人工智能倫理以規(guī)約人工智能技術(shù)的發(fā)展,從而最大程度地實(shí)現(xiàn)技術(shù)“向善”的目的。建構(gòu)適宜的人工智能倫理并非易事,需要各方的共同努力,在秉承基本價(jià)值理念的前提下,靈活地調(diào)整人工智能倫理的適用域,從而實(shí)現(xiàn)人工智能服務(wù)于人類的終極目的,進(jìn)而有助于實(shí)現(xiàn)人機(jī)共生的未來(lái)圖景。

      參考文獻(xiàn):

      〔1〕于 曉. 中國(guó)工程院院士潘云鶴:人工智能正處邁向2.0的關(guān)鍵期〔EB/OL〕. http://www.chinanews.com/cj/2018/07-18/8571804.shtml.

      〔2〕國(guó)務(wù)院.新一代人工智能發(fā)展規(guī)劃〔EB/OL〕.http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.

      〔3〕亞里士多德.尼各馬可倫理學(xué)〔M〕.苗力田,譯.北京: 商務(wù)印書(shū)館,1999.

      〔4〕蔡自興,劉麗鈺,蔡競(jìng)峰,等.人工智能及其應(yīng)用(第五版)〔M〕.北京:清華大學(xué)出版社,2016.

      〔5〕段偉文. 人工智能時(shí)代的價(jià)值審度與倫理調(diào)適〔J〕.中國(guó)人民大學(xué)學(xué)報(bào),2017(06):98-108.

      〔6〕I. Van de Poel,& L. Royakkers. Ethics,technology and engineering〔M〕. Oxford: Wiley-Blackwell,2011.

      〔7〕瑞斯尼克.科學(xué)倫理的思索〔M〕.何畫(huà)瑰,譯.臺(tái)北:韋伯文化公司,2003.

      〔8〕B. Friedman,P.H. Kahn,A. Borning,A. Huldtgren. “Value sensitive design and information systems”〔C〕//Doorn N,Schuurbiers D,van de Poel I,Gorman ME (eds) Early engagement and new technologies: opening up the laboratory,vol 16,Springer series: philosophy of engineering and technology. Dordrecht: Springer,2013.

      〔9〕段偉文.科技倫理: 從理論框架到實(shí)踐建構(gòu)〔J〕. 天津社會(huì)科學(xué),2008(04):36-41.

      〔10〕I.Van de Poel. “Translating Values into Design Requirements”〔C〕// Diane P. Michelfelder,Natasha McCarthy,David E. Goldberg(eds.): Philosophy and Engineering: Reflections on Practice,Principles and Process.Dordrecht: Springer,2013.

      〔11〕Jacob Turner. Robot Rules: Regulating Artificial Intelligence〔M〕. Switzerland:Palgrave Macmillan imprint,2019.

      〔12〕F. A. Hanson.? Beyond the skin bag:On the moral responsibility of extended agencies〔J〕.? Ethics and Information Technology,2009(1):91-99.

      〔13〕于 雪,王 前. “機(jī)器倫理”思想的價(jià)值與局限性〔J〕.倫理學(xué)研究,2016(04):109-114.

      〔14〕約瑟夫·巴-科恩,大衛(wèi)·漢森著.機(jī)器人革命——即將到來(lái)的機(jī)器人時(shí)代〔M〕. 潘俊,譯. 北京: 機(jī)械工業(yè)出版社,2015.

      〔15〕U.Ehsan,B.Harrison,L.Chan,et al. Rationalization: A Neural Machine Translation Approach to Generating Natural Language Explanations〔J〕.Artificial Intelligence,Ethics,and Society,2017(12):1-11.

      〔16〕K. Pei,Y. Cao ,J.Yang,et al. DeepXplore: Automated Whitebox Testing of Deep Learning Systems〔J〕.Association for Computing Machinery,2017(10):1-11.

      〔17〕Filippo Santoni de Sio,Jeroen van den Hoven. Meaningful human control over autonomous system: A philosophical account〔J〕. Frontiers in Robotics and AI,2018(05):1-14.

      〔18〕J.Fischer,M.Ravizza . Responsibility and Control:A Theory of Moral Responsibility〔M〕. Cambridge, UK:Cambridge University Press,1998.

      〔19〕N.J.Goodall. Ethical Decision Making During Automated Vehicle Crashes〔J〕. Transportation Research Record: Journal of the Transportation Research Board,2014.

      〔20〕蘇令銀.能將倫理準(zhǔn)則嵌入人工智能機(jī)器嗎?——以無(wú)人駕駛汽車(chē)為例〔J〕.理論探索,2018(03):38-45.

      責(zé)任編輯 蘇玉娟

      猜你喜歡
      人工智能價(jià)值
      人工智能之父
      2019:人工智能
      人工智能與就業(yè)
      數(shù)讀人工智能
      一粒米的價(jià)值
      “給”的價(jià)值
      下一幕,人工智能!
      下一幕,人工智能!
      一塊石頭的價(jià)值
      小黑羊的價(jià)值
      平乡县| 贵港市| 延安市| 榆社县| 建始县| 浮梁县| 甘南县| 房产| 曲周县| 阿勒泰市| 鄂托克前旗| 新丰县| 额敏县| 巴林右旗| 泰兴市| 炉霍县| 永清县| 香港| 惠来县| 南岸区| 宽甸| 锡林浩特市| 眉山市| 湟中县| 出国| 吉首市| 乌兰县| 东乡| 铜陵市| 嘉祥县| 宝兴县| 怀仁县| 通州区| 邳州市| 青冈县| 萝北县| 松原市| 汾阳市| 麻城市| 珲春市| 桓台县|