潘 超,高斯揚(yáng),韓卓鵬
(1.中央財(cái)經(jīng)大學(xué) 馬克思主義學(xué)院,北京 102200;2.哈爾濱工業(yè)大學(xué)(深圳) 馬克思主義學(xué)院,廣東 深圳 518000;3.北京交通大學(xué) 馬克思主義學(xué)院,北京 100080)
自1956年達(dá)特茅斯會(huì)議以來(lái),人工智能及其相關(guān)技術(shù)的研究已歷經(jīng)60余年,人工智能逐步從概念走入普羅大眾的現(xiàn)實(shí)生活。尤其是2010年后,以大數(shù)據(jù)、智能算法等為代表的人工智能技術(shù)發(fā)展迅猛,出現(xiàn)了如智能手機(jī)、智能汽車、智能家電等有限人工智能體。這些有限人工智能體作為搭載了人工智能技術(shù)的物質(zhì)載體,是一種“集機(jī)械、電子、控制、計(jì)算機(jī)、傳感器、人工智能等多學(xué)科及前沿技術(shù)于一體”[1]246的高級(jí)機(jī)器。這些機(jī)器,不僅改變了現(xiàn)代人的生產(chǎn)和生活,而且改變了人們的道德行動(dòng)。
道德行動(dòng)是一種能夠滿足主體需要的關(guān)系性活動(dòng)。有限人工智能體出現(xiàn)以前,實(shí)施道德行動(dòng)的主體只能是具有實(shí)踐能力的人類。但隨著有限人工智能體進(jìn)入人們的日常生活,能夠進(jìn)行道德行動(dòng)的主體、程度和范圍出現(xiàn)了變革。近十年來(lái),學(xué)者們圍繞有限人工智能體能否作為道德行動(dòng)的完全(或者部分)主體,以及其行動(dòng)的程度和范圍的是什么,進(jìn)行了廣泛而深入的探討,產(chǎn)生了一系列相互沖突的觀點(diǎn)。
倫理學(xué)意義上的道德行動(dòng)(moral action)是指對(duì)他人和社會(huì)利益產(chǎn)生一定影響的“自覺(jué)認(rèn)識(shí)和自由選擇的結(jié)果”[2]39。非人工智能時(shí)代,只有具有自由意志和自主選擇的人才有資格成為道德行動(dòng)的主體。但隨著有限人工智能體成為人們生產(chǎn)生活的重要工具,有限人工智能體與人類的實(shí)踐活動(dòng)(如智能手機(jī)、智能汽車、智能家電)高度綁定,甚至出現(xiàn)了一些如果缺少有限人工智能體的“幫助”(如快速篩查防疫風(fēng)險(xiǎn)、精準(zhǔn)定位感染人群等)人類活動(dòng)就無(wú)法完成的現(xiàn)象。針對(duì)這一情況,荷蘭技術(shù)哲學(xué)家唐·伊德認(rèn)為,“人類經(jīng)驗(yàn)被技術(shù)的居間調(diào)節(jié)所改變,人類與技術(shù)融為一體”(1)唐·伊德指出,機(jī)器或技術(shù)在人與世界中的關(guān)系,這些關(guān)系包括體現(xiàn)性關(guān)系、解釋學(xué)關(guān)系、背景關(guān)系、改變(alterity)關(guān)系等。在體現(xiàn)性關(guān)系中,人類經(jīng)驗(yàn)被技術(shù)的居間調(diào)節(jié)所改變,人類與技術(shù)融為一體。伊德將這一關(guān)系用意向性公式表述為:(人類—技術(shù))→世界,這里的圓括號(hào)表示為一個(gè)統(tǒng)一體(unity)。參見吳國(guó)林.后現(xiàn)象學(xué)及其進(jìn)展[J].哲學(xué)動(dòng)態(tài),2009(4):70-76.。學(xué)者們就這種關(guān)系下的有限人工智能體能否作為道德主體分化出了支持和反對(duì)兩種觀點(diǎn)。
支持有限人工智能體可作為道德主體的學(xué)者是荷蘭技術(shù)學(xué)派的維貝克(Peter Paul Verbeek)。維貝克在《將技術(shù)道德化:理解與設(shè)計(jì)物的道德》中指出,有限人工智能體尤其是那些承載社會(huì)管理職能的有限人工智能體,“不再是中立工具,而是一個(gè)滲入道德的規(guī)范性存在”[3]。它在一定社會(huì)活動(dòng)中(如精準(zhǔn)識(shí)別需要幫助的人群、信息處理等)承擔(dān)了這種社會(huì)行動(dòng)背后與道德規(guī)范相匹配的道德責(zé)任,“人與機(jī)器(技術(shù))成為了相互作用的耦合道德主體”[4]。與之相應(yīng),技術(shù)哲學(xué)家唐·伊德(Don Ihde)將人與機(jī)器(技術(shù))在道德活動(dòng)中的耦合關(guān)系描述為人和他的眼鏡,就像患有近視的人不能離開眼鏡而去看這個(gè)世界,高度理性和需要人工智能技術(shù)的現(xiàn)代人,已無(wú)法離開有限人工智能體去實(shí)施某些特定的道德行動(dòng)。在這種情況下,有限人工智能體不再是簡(jiǎn)單的功能性工具,而是在一定程度上能夠影響人類主體道德決策的“他異”(2)“他異”是人與技術(shù)的一種關(guān)系,其與“涉身”“解釋”和“背景”共同構(gòu)成“人—技術(shù)—世界”的關(guān)系。參見IHDE D.Technology and the lifeworld:from garden to earth[M].Indiana:Indiana University Press,1990:72-108.。
而反對(duì)有限人工智能體作為道德行動(dòng)主體的代表性學(xué)者是法國(guó)技術(shù)哲學(xué)家貝爾納·斯蒂格勒(Bernard Stiegler)和美國(guó)哲學(xué)家大衛(wèi)·查爾莫斯(David J. Chalmers)。斯蒂格勒認(rèn)為,人在起源之初是一種“缺陷性”存在,技術(shù)只是彌補(bǔ)這一缺陷的工具。盡管人與技術(shù)互為發(fā)展驅(qū)動(dòng)力,但在這種相互驅(qū)動(dòng)的關(guān)系中,技術(shù)始終是客體代具(工具),而不是具有自主意識(shí)和自我選擇的主體。斯蒂格勒寫道,“技術(shù)發(fā)展的動(dòng)力中的生命力的部分仍然是由人這種特殊的主體來(lái)充當(dāng)?shù)摹盵5]。即便有限人工智能體發(fā)展到了如今極具智能的狀態(tài),但也只是功能性客體,而無(wú)法成為自由自覺(jué)的主體。美國(guó)哲學(xué)家查爾莫斯支持以上觀點(diǎn),他從意識(shí)的二元屬性角度展開論證。他認(rèn)為,意識(shí)是道德行動(dòng)主體的核心要素,包含兩個(gè)基本屬性,即心理學(xué)屬性和現(xiàn)象學(xué)屬性。意識(shí)的心理學(xué)屬性是一個(gè)容易解決的問(wèn)題,這一屬性關(guān)注的是“如何做出刺激反應(yīng),如何整合不同來(lái)源的信息以及如何用這些信息控制行為”[6],這些行為可以通過(guò)認(rèn)知神經(jīng)科學(xué)的功能性方法進(jìn)行第三人稱的解釋。而意識(shí)的現(xiàn)象學(xué)屬性關(guān)注意識(shí)復(fù)雜系統(tǒng)的內(nèi)在本質(zhì)狀態(tài),是基于“物理過(guò)程如何產(chǎn)生主觀感受”[6]的困難問(wèn)題。這一問(wèn)題是作為第三人稱的有限人工智能體無(wú)法實(shí)現(xiàn)的。對(duì)此,查爾莫斯用“無(wú)心人論證”(3)“無(wú)心人”是一種可想象的人類復(fù)制品,具有和人類一致的功能屬性和行為屬性,但其內(nèi)部缺乏現(xiàn)象學(xué)意識(shí)。查爾莫斯的“無(wú)心人論證”原理:證明無(wú)心人只具備物理學(xué)意識(shí)而不具備現(xiàn)象學(xué)意識(shí)具有形而上學(xué)的可能性,可能性的關(guān)鍵在于可想象性。參見CHALMERS D J.The conscious mind:in search of a fundamental theory[M]. New York:Oxford University Press,1996:321.加以說(shuō)明。他指出,目前有限人工智能體無(wú)法真正模仿人類的元意識(shí),只有“他心”而無(wú)“人心”,這就意味著有限人工智能體不可能成為道德行動(dòng)的主體,除非“他心問(wèn)題有了可操作的解釋”[7]。
鑒于有限人工智能體能否作為道德行動(dòng)主體是一種倫理學(xué)領(lǐng)域元哲學(xué)層面的實(shí)體性判斷,目前的情況發(fā)展使學(xué)者無(wú)法對(duì)其做出準(zhǔn)確的分析,因此有些學(xué)者指出,應(yīng)回避實(shí)體性的研究路徑轉(zhuǎn)而考察有限人工智能體道德行動(dòng)的程度。程度是事物發(fā)展達(dá)到的狀況,程度判斷可以在不進(jìn)行實(shí)體性評(píng)判的情況下揭示事物的變化過(guò)程和演化方向。
美國(guó)哈佛大學(xué)信息基礎(chǔ)設(shè)施項(xiàng)目研究員詹姆斯·摩爾(James H. Moor)認(rèn)為,可以從倫理效果(ethical-impact)來(lái)理解有限人工智能體道德行動(dòng)的程度。倫理效果即一定行為引發(fā)的與倫理相關(guān)的結(jié)果。有限人工智能體的道德行動(dòng)的倫理效果有三個(gè)不同的層次,即“隱性道德、顯性道德和完全道德”[8]。其中,隱性道德是指有限人工智能體可以隱含地促進(jìn)人的道德行動(dòng)或者避免不道德行動(dòng)的發(fā)生。如智能汽車自動(dòng)駕駛儀內(nèi)設(shè)的裝置可以根據(jù)不同的路況和行人位置向駕駛員發(fā)出信號(hào),從而避免駕駛事故的發(fā)生。而顯性道德是指有限人工智能體能夠以足夠的精確度向人描述出道德狀況,并且自己做出道德判斷。如智能系統(tǒng)可以根據(jù)定位,找到需要幫助的人并自動(dòng)開啟救援警報(bào)。相應(yīng)地,完備道德是指有限人工智能體可以像人類一樣做出明確的道德判斷,同時(shí)能夠合理地解釋這一判斷。但這種完備程度的道德行動(dòng)目前還無(wú)法通過(guò)邏輯論證或?qū)嶒?yàn)測(cè)試加以證明。摩爾指出,目前的有限人工智能體已具備隱性道德和顯性道德的能力。
與以上觀點(diǎn)相反,溫德爾·瓦拉赫(Wendell Wallach)則按照自主性(autonomy)和倫理敏感度(ethical sensitivity)原則,將有限人工智能體的道德行動(dòng)程度劃分為“操作性道德、功能性道德和完備性道德”[9]25-26。其中,操作性道德是指有限人工智能體內(nèi)部蘊(yùn)含其設(shè)計(jì)者對(duì)倫理價(jià)值的認(rèn)知,但其自身卻不具備自主性的道德和道德敏感度。例如內(nèi)設(shè)兒童鎖機(jī)制的智能手表,兒童鎖可以防止兒童接觸不道德的網(wǎng)絡(luò)內(nèi)容,但對(duì)于這種不道德內(nèi)容標(biāo)準(zhǔn)的界定是由智能手表的設(shè)計(jì)者和兒童的家長(zhǎng)共同決定的。功能性道德是指有限人工智能體具有較高的自主性,但道德敏感度較低,只能判斷有限的道德情境并做出簡(jiǎn)單回應(yīng),如智能汽車的自動(dòng)駕駛儀。瓦拉赫指出,目前有限人工智能體只能具有功能性道德。與功能性道德相應(yīng)的完備性道德是高自主性和高敏感度的道德行為,這種行為只有在有限人工智能體達(dá)到能與人類進(jìn)行情感交互的階段才能實(shí)現(xiàn)。
范圍即界限,道德行動(dòng)的范圍是指有限人工智能體在道德行動(dòng)中涉及的內(nèi)容和邊界。由于人的道德行動(dòng)關(guān)涉經(jīng)濟(jì)、政治、法律、宗教等領(lǐng)域,特別是法律領(lǐng)域的道德行動(dòng)涉及法律身份、權(quán)利、責(zé)任和社會(huì)風(fēng)險(xiǎn),因此法律領(lǐng)域的有限人工智能體道德行動(dòng)的范圍成為學(xué)者探討的另一焦點(diǎn)。
以智能汽車自動(dòng)駕駛的電車難題情境為例,2021年自動(dòng)駕駛的特斯拉汽車因超速導(dǎo)致乘客死亡的事件在全球發(fā)生。學(xué)者們就這種情境中超速的行動(dòng)決策及相關(guān)的責(zé)任進(jìn)行了激烈爭(zhēng)論。美國(guó)技術(shù)哲學(xué)學(xué)者蘇珊·李·安德森(Susan Leigh Anderson)和邁克爾·安德森(Michael Anderson)指出,有限人工智能體在一定情境下具有行動(dòng)選擇和倫理的需要??茖W(xué)家、技術(shù)制造者、相關(guān)企業(yè)和政府監(jiān)管部門應(yīng)“為機(jī)器創(chuàng)建一個(gè)倫理準(zhǔn)則框架”[10]1,這樣我們才能“信任自主機(jī)器自行做出正確的倫理決策”[10]1。而美國(guó)技術(shù)哲學(xué)家詹姆斯·奧康納(James O’Connor)則指出,即便人們?cè)谟邢奕斯ぶ悄荏w中裝設(shè)了一套可操作的倫理準(zhǔn)則,如在有限人工智能體中預(yù)先安裝應(yīng)對(duì)“電車難題”的行動(dòng)指令,但在現(xiàn)實(shí)中,電車難題的場(chǎng)景是十分復(fù)雜的,是無(wú)法準(zhǔn)確預(yù)知的。這意味著“為機(jī)器制定一套倫理無(wú)異于白日夢(mèng),更為負(fù)責(zé)任的策略是在智能機(jī)器內(nèi)部嵌入一定的安全措施,同時(shí)在機(jī)器自動(dòng)操作時(shí),人可以作為‘共同決策人’發(fā)揮監(jiān)管作用”[11]28-29。這就是說(shuō),有限人工智能體的道德行動(dòng)范圍應(yīng)被限制在設(shè)計(jì)者能夠提供的使用說(shuō)明的范圍內(nèi)。在道德行動(dòng)中,使用者應(yīng)該承擔(dān)起主要責(zé)任,產(chǎn)品設(shè)計(jì)者、工程師和相關(guān)企業(yè)承擔(dān)法律意義上的連帶責(zé)任,而超出使用說(shuō)明范圍的責(zé)任應(yīng)該由使用者自行承擔(dān)。
以上針鋒相對(duì)的觀點(diǎn)反映出了學(xué)者們對(duì)于有限人工智能體道德行動(dòng)問(wèn)題的關(guān)注。這種關(guān)注指向了一個(gè)共同的目標(biāo),那就是構(gòu)建一種關(guān)于有限人工智能體道德行動(dòng)的共識(shí)性方案。而推進(jìn)這種方案不僅需要進(jìn)行一定的理論探討,還需要從實(shí)際出發(fā)廓清現(xiàn)實(shí)中有限人工智能體道德行動(dòng)的前提條件。
從總體來(lái)看,目前有限人工智能體仍處于弱人工智能階段,這就意味著,有限人工智能體尚未發(fā)展出完全的自我意識(shí)和自我判斷,還未達(dá)到自組織狀態(tài)下的道德自覺(jué)行動(dòng)程度,即尚未成為完全的道德行動(dòng)主體。而目前的有限人工智能體能夠基于一定的道德技術(shù)設(shè)定,在一定條件下和特定情況中與人一起實(shí)施道德行動(dòng),實(shí)現(xiàn)“相對(duì)滿意”的道德行動(dòng)結(jié)果。分析這些情況下的有限人工智能體的道德行動(dòng),需要從目前有限人工智能體已經(jīng)具備的擬主體性、所承載的認(rèn)知條件,以及能夠?qū)嵤┑男袆?dòng)效果方面出發(fā)。
如前文所述,道德主體是具有主觀判斷能力且能夠?yàn)樽陨硇袨槌袚?dān)道德責(zé)任的理性行為人。目前的有限人工智能體還尚未獲得人類的自我意識(shí),其所呈現(xiàn)的“決策”和“責(zé)任”行為能力只是基于其內(nèi)嵌的道德技術(shù)而做出的對(duì)人類主體的功能性模仿,并不是基于類似于人的具有能動(dòng)性的意識(shí)而產(chǎn)生的道德自覺(jué)行為。因此,擬主體性就是指有限人工智能體具有了類似人類的道德行動(dòng)的能力,但這種能力主要來(lái)源于內(nèi)設(shè)道德技術(shù)基礎(chǔ)上的對(duì)人類的模擬。這種模擬“賦予了人工智能特有的擬倫理角色”[12],其主要表現(xiàn)如下論述。
首先,從行動(dòng)決策的角度而言,有限人工智能體具備了一定的決策能力。即便弱人工智能階段的有限人工智能體暫不具備像人一樣的完全自主決策能力,但決策本身就是想出一定策略或辦法的過(guò)程,有限人工智能體在想辦法和找策略的過(guò)程中發(fā)展出了一定的決策能力。這種決策能力是受智能軟件的深度學(xué)習(xí)和信息迭代影響而產(chǎn)生的,突出表現(xiàn)了有限人工智能體可以對(duì)外部不完備信息環(huán)境產(chǎn)生一定的感知和支配。如,中科院研發(fā)出的兩人無(wú)限注德州撲克AI工程——AlphaHoldem。不同于AlphaGo在完備信息場(chǎng)景下做出博弈決策,AlphaHoldem面對(duì)的是信息不完備的不確定性環(huán)境(4)AlphaHoldem屬于典型的不完備信息博弈,由于在博弈過(guò)程中玩家均不公開各自底牌信息,這就使得每個(gè)玩家所能掌握的信息都不完備,玩家在每一步?jīng)Q策時(shí)都需充分考慮對(duì)手的各種可能情況(包括對(duì)手行為與心理建模、欺詐與反欺詐等問(wèn)題)。參見ENMIN ZHAO,RENYE YAN,JINQIU LI,et al.AlphaHoldem:high-performance artificial intelligence for heads-up no-limit poker via end-to-end reinforcement learning[EB/OL].(2022-02-26)[2023-11-01].https://www.aaai.org/AAAI22Papers/AAAI-2268.ZhaoE.pdf.。為了適應(yīng)這種環(huán)境,設(shè)計(jì)師運(yùn)用演化學(xué)習(xí)方法和深度神經(jīng)網(wǎng)絡(luò),讓AlphaHoldem能夠根據(jù)牌局變化來(lái)靈活應(yīng)對(duì)不完備信息的博弈問(wèn)題。雖然這里AlphaHoldem的深度強(qiáng)化學(xué)習(xí)算法和自博弈算法是由研究人員預(yù)測(cè)設(shè)定的,但其對(duì)外部不完備信息環(huán)境所做出的行動(dòng)決策卻是AlphaHoldem通過(guò)自己的深度學(xué)習(xí)和更新所決定的。就此,有學(xué)者指出“人類設(shè)計(jì)師只是行為決策的間接原因”[13],而有限人工智能體基于內(nèi)嵌的技術(shù)設(shè)定在信息組織、信息連接方式、處理方式方面的能力將成為其道德決策的關(guān)鍵。
其次,能力意味著責(zé)任。在道德活動(dòng)中,具備了一定行動(dòng)決策能力的有限人工智能體能承擔(dān)一定的道德責(zé)任。盡管目前的有限人工智能體尚未達(dá)到人類的完全認(rèn)知水平,但“已經(jīng)在某個(gè)領(lǐng)域形成了感知意識(shí)或現(xiàn)象意識(shí)”[14]。按照經(jīng)典責(zé)任倫理的說(shuō)法,介于無(wú)知和完全認(rèn)知階段之間的有限人工智能體需要承擔(dān)與其認(rèn)知水平相匹配的責(zé)任。目前這種責(zé)任是經(jīng)過(guò)相關(guān)利益方提前預(yù)估、檢驗(yàn)和審核的集體性責(zé)任,但集體責(zé)任并不意味著有限人工智能體的免責(zé),而是說(shuō)其道德責(zé)任可以追溯到作為完全行為人的設(shè)計(jì)者、生產(chǎn)者、維護(hù)者和使用者身上。這體現(xiàn)了有限人工智能體對(duì)人類道德責(zé)任的功能性模仿。
是否擁有自主意識(shí)是判斷有限人工智能體能否進(jìn)行道德行動(dòng)的核心條件。盡管目前有限人工智能體無(wú)法實(shí)現(xiàn)像人一樣的自主意識(shí),但基于統(tǒng)計(jì)學(xué)的認(rèn)知計(jì)算賦予了有限人工智能體人類意識(shí)的認(rèn)知屬性,使其在一定范圍內(nèi)能夠“在功能等價(jià)的意義上對(duì)意識(shí)的智力性認(rèn)知層面予以模擬”[15]。
傳統(tǒng)意義上的自主意識(shí),在經(jīng)驗(yàn)層面主要包括主體辨別、分類、信息整合、控制心理狀況和行為的能力。這種意識(shí)可以通過(guò)可觀察的經(jīng)驗(yàn)狀態(tài)來(lái)描述,那就是人們通過(guò)身體器官感受外部刺激獲得了信息,在頭腦中整合了這些信息,并在行為中自主地使用這些信息。如果有限人工智能體具備了以上可觀察的意識(shí)狀態(tài),那就意味著其在一定程度上表現(xiàn)出了類似人的自主意識(shí)。美國(guó)特拉華大學(xué)的托馬斯·鮑爾斯(Thomas M. Powers)教授指出,“盡管計(jì)算機(jī)是用人類程序員的外部意圖狀態(tài)來(lái)編程的,但它們會(huì)以某種方式產(chǎn)生內(nèi)部意圖狀態(tài),作為它們自己行為的原因的組成部分”[16]。這里強(qiáng)調(diào)的產(chǎn)生內(nèi)部意圖(意識(shí))的“某種方式”就是指基于統(tǒng)計(jì)學(xué)的認(rèn)知計(jì)算,這種“計(jì)算可為物理系統(tǒng)的認(rèn)知過(guò)程和行為的解釋提供一個(gè)通用的框架”[17]。
基于統(tǒng)計(jì)學(xué)的認(rèn)知計(jì)算提供了這種通用的框架?;诮y(tǒng)計(jì)學(xué)的認(rèn)知計(jì)算是指以社會(huì)物理學(xué)和大數(shù)定律為基礎(chǔ)而進(jìn)行的計(jì)算活動(dòng)。社會(huì)物理學(xué)揭示了人類社會(huì)行為中的數(shù)學(xué)關(guān)系,大數(shù)定律則指出了人類社會(huì)行為中的普遍概率。二者的結(jié)合在一定程度上能夠模仿人類對(duì)于自身行為和社會(huì)本身的認(rèn)識(shí)?;诮y(tǒng)計(jì)學(xué)的認(rèn)知計(jì)算在二十一世紀(jì)初被引入人工智能領(lǐng)域,“此類系統(tǒng)常常依賴數(shù)據(jù)開發(fā)利用既存在但未被揭曉的人類認(rèn)識(shí)”[18]34,甚至因?yàn)槿斯ぶ悄芗夹g(shù)的計(jì)算、存儲(chǔ)和信息處理能力而超過(guò)人類能力,“在某些情況下,這些系統(tǒng)創(chuàng)造的成果或完成的行為,幾乎超過(guò)人類在特定任務(wù)中的表現(xiàn)”[18]34。美國(guó)學(xué)者哈里·蘇爾登(Harry Surden)指出,這為特定任務(wù)型有限人工智能體(如自動(dòng)駕駛、回答問(wèn)題、自動(dòng)飛行)“提供了捷徑”[19]。基于統(tǒng)計(jì)學(xué)的認(rèn)知計(jì)算讓有限人工智能體“側(cè)重于制造‘有用成果’的算法技術(shù)。因此不需要專注于研發(fā)復(fù)制人的認(rèn)知、具有反省和抽象能力的系統(tǒng)”[19],就可以使其具備類似人類的認(rèn)知能力。
道德作為一定社會(huì)歷史產(chǎn)物具有發(fā)展性,一定歷史時(shí)期中的道德并不是完美無(wú)缺的,而是根據(jù)人類的發(fā)展不斷調(diào)整和完善的。這一特征表現(xiàn)在人類道德行動(dòng)上就是道德行動(dòng)效果的有限性,即“相對(duì)滿意”的行動(dòng)效果,其賦予了有限人工智能體道德行動(dòng)的條件。
“相對(duì)滿意”的行動(dòng)效果是由美國(guó)計(jì)算機(jī)科學(xué)家赫伯特·西蒙(Herbert A. Simon)提出的評(píng)判原則。西蒙否定了傳統(tǒng)決策的“最優(yōu)化”原則,提出了“滿意”原則。他認(rèn)為,人類無(wú)法完全擁有全部信息,且人類只有有限的計(jì)算能力,因此人類只可獲得有限的認(rèn)知理性,在這種有限認(rèn)知理性的支配下人類的道德行動(dòng)不會(huì)產(chǎn)生傳統(tǒng)倫理學(xué)所強(qiáng)調(diào)的完全的自由、自主和自律,而是只能實(shí)現(xiàn)相對(duì)自由、相對(duì)自主和相對(duì)自律的道德行動(dòng)效果,即“相對(duì)滿意”。對(duì)人類來(lái)說(shuō)就是,“在現(xiàn)實(shí)生活中,人們大多數(shù)時(shí)候并不采取最大或最優(yōu)的標(biāo)準(zhǔn),而是以滿意為標(biāo)準(zhǔn)”[20]。同樣,美國(guó)管理學(xué)大師詹姆斯·馬奇(James G. March)也在《決策是如何產(chǎn)生的》中表達(dá)了“相對(duì)滿意”的決策思路。他認(rèn)為,決策規(guī)則的行為學(xué)研究觀察到?jīng)Q策者似乎更傾向于“相對(duì)滿意”化,而非傳統(tǒng)要求的“最優(yōu)化”,這就表明,采取“相對(duì)滿意”的原則能夠使備選方案的效果更優(yōu)。
如前所述,處在弱人工智能階段的有限人工智能體所具有的擬主體性和現(xiàn)階段的統(tǒng)計(jì)學(xué)計(jì)算能力,使“相對(duì)滿意”這種人類道德行為評(píng)判原則仍適用于有限人工智能體的道德行動(dòng)效果判斷。而有限人工智能體的“相對(duì)滿意”的行動(dòng)效果是指,有限人工智能體的道德行為受到社會(huì)環(huán)境、創(chuàng)造者的知識(shí)水平和價(jià)值觀念等因素影響,其在道德行動(dòng)中呈現(xiàn)的道德行動(dòng)效果不可能完美無(wú)缺,對(duì)人類而言只能是相對(duì)可接受的。這意味著,研究人員需要從具體案例、案情出發(fā),通過(guò)觀察有限人工智能體與人類道德行為之間的相互影響,運(yùn)用人類行為互動(dòng)的判斷原則,來(lái)考察和辨析有限人工智能體行為的道德效果。這不僅可讓研究者避開紙上談兵式的教條探討進(jìn)行實(shí)事求是的分析,而且可讓研究人員在設(shè)計(jì)、生產(chǎn)、操作和協(xié)調(diào)過(guò)程中,以有限人工智能體道德行動(dòng)的能力、范圍和程度為基礎(chǔ),以效果判斷為指導(dǎo),倒逼有限人工智能體研究的不斷發(fā)展。
現(xiàn)實(shí)發(fā)展中,有限人工智能體的擬主體性、基于統(tǒng)計(jì)學(xué)的認(rèn)知計(jì)算和“相對(duì)滿意”的行動(dòng)效果提供了道德行動(dòng)的條件,賦予其道德行動(dòng)的可能性。而將這種可能性發(fā)展為現(xiàn)實(shí),不僅需要行之有效的設(shè)計(jì)方案,需要實(shí)現(xiàn)理論基礎(chǔ)和實(shí)際應(yīng)用相統(tǒng)一的技術(shù)共同體,還需要有貫穿整個(gè)行動(dòng)系統(tǒng)的有力監(jiān)管方。只有將有限人工智能體的道德行動(dòng)設(shè)計(jì)置于“方案—研發(fā)—監(jiān)管”這樣的閉環(huán)之下,才能協(xié)同推進(jìn)有限人工智能體良性的、深入的、長(zhǎng)遠(yuǎn)的發(fā)展。
“價(jià)值—技術(shù)”互動(dòng)方案是由弗里德曼(Batya Friedman)提出的一種基于人類的基本價(jià)值發(fā)展技術(shù)的設(shè)計(jì)思路。這一方案認(rèn)為,設(shè)計(jì)者要將包括自由、隱私和知情同意等價(jià)值觀提前加載到技術(shù)中,同時(shí)要通過(guò)人與技術(shù)的相互作用過(guò)程來(lái)檢驗(yàn)人類利用技術(shù)行動(dòng)的道德價(jià)值。這一方案對(duì)應(yīng)了有限人工智能體在人類社會(huì)中的當(dāng)下存在狀態(tài)。倫理學(xué)家伯特·戈迪恩(Bert Gordijn)將“價(jià)值—技術(shù)”互動(dòng)稱為是一種“可以將倫理問(wèn)題整合到現(xiàn)有設(shè)計(jì)實(shí)踐中的方法”[21]。
具體而言,有限人工智能體的“價(jià)值—技術(shù)”互動(dòng)方案要求設(shè)計(jì)者對(duì)有限人工智能體的道德行為采用概念思辨法、經(jīng)驗(yàn)調(diào)查法和技術(shù)檢驗(yàn)法。這種檢驗(yàn)方法的實(shí)現(xiàn)需要三個(gè)步驟。其一,概念思辨法主要運(yùn)用于有限人工智能體道德行動(dòng)設(shè)計(jì)的初始階段,這一階段研究者要利用概念對(duì)設(shè)計(jì)環(huán)節(jié)的問(wèn)題和結(jié)構(gòu)進(jìn)行哲學(xué)分析,包括如何界定特定價(jià)值(如責(zé)任、信任)、如何劃分利益相關(guān)方(直接利益和間接利益)、如何權(quán)衡相互沖突的價(jià)值(如隱私和知情同意)等問(wèn)題。其二,在概念方法預(yù)先呈現(xiàn)價(jià)值的基礎(chǔ)上,經(jīng)驗(yàn)調(diào)查法(觀察、訪談和用戶行為等)要求研究者考察利益相關(guān)者對(duì)價(jià)值觀的反應(yīng),考慮設(shè)計(jì)理念與實(shí)際價(jià)值要求之間是否存在偏差,進(jìn)而實(shí)現(xiàn)對(duì)人類價(jià)值的量化。其三,研究者要將價(jià)值投射到人工智能技術(shù)中去,在真實(shí)環(huán)境中對(duì)價(jià)值的適應(yīng)性進(jìn)行檢驗(yàn),在技術(shù)設(shè)計(jì)階段需要對(duì)現(xiàn)有技術(shù)進(jìn)行評(píng)估分析,分析其如何影響人類價(jià)值觀。
歸納而言,“價(jià)值—技術(shù)”互動(dòng)方案的目標(biāo)是推動(dòng)有限人工智能體道德設(shè)計(jì)的迭代式發(fā)展。眾所周知,有限人工智能體的道德行動(dòng)設(shè)計(jì)不可能在一次設(shè)計(jì)過(guò)程后得到完善,而是需要在不斷試錯(cuò)的數(shù)次過(guò)程中通過(guò)無(wú)數(shù)次循環(huán)迭代,不斷升級(jí)改造,進(jìn)而出現(xiàn)“相對(duì)滿意”的道德行動(dòng)效果。因此,有限人工智能體道德行動(dòng)的每一次技術(shù)設(shè)計(jì)結(jié)果都將會(huì)成為下一次技術(shù)設(shè)計(jì)過(guò)程的起點(diǎn),而在否定之否定的過(guò)程中實(shí)現(xiàn)迭代式發(fā)展也正是目前有限人工智能體道德行動(dòng)的選擇和趨勢(shì)。
自技術(shù)倫理學(xué)產(chǎn)生以來(lái),倫理學(xué)家和技術(shù)工作者之間矛盾不斷。技術(shù)倫理學(xué)家設(shè)計(jì)出一套倫理原則應(yīng)用于現(xiàn)實(shí)的技術(shù)案例中,進(jìn)一步通過(guò)演繹和推理的方式對(duì)技術(shù)的研發(fā)、應(yīng)用等環(huán)節(jié)進(jìn)行分析和評(píng)判。但在技術(shù)人員看來(lái),技術(shù)理論學(xué)家提出的各種道德理論在實(shí)際的技術(shù)情景中很難適用,認(rèn)為這些并不會(huì)對(duì)他們的技術(shù)工作起到有益作用,反而是一種干擾。因而,破除技術(shù)倫理學(xué)的這種困境也是當(dāng)前有限人工智能體道德行動(dòng)順利進(jìn)行的又一關(guān)鍵。
對(duì)此,拉圖爾(Bruno Latour)的“行動(dòng)者網(wǎng)絡(luò)”(ANT)理論能夠提供一定的解決思路。他認(rèn)為,“任何通過(guò)制造差別而改變了事物狀態(tài)的東西都可以被稱為行動(dòng)者”[22],行動(dòng)者是節(jié)點(diǎn),處在網(wǎng)絡(luò)中的各個(gè)節(jié)點(diǎn)是相互作用和影響的。我們?cè)谶@里不談拉圖爾的人和非人的關(guān)系問(wèn)題,而是主要借ANT探討當(dāng)前有限人工智能體道德行動(dòng)的各方技術(shù)人員的道德責(zé)任問(wèn)題。如前所述,現(xiàn)階段的有限人工智能體尚未形成自組織狀態(tài)下的道德自覺(jué),因而對(duì)于有限人工智能體道德行動(dòng)的設(shè)計(jì)還主要是針對(duì)人工智能的“人”方面的“行動(dòng)者”,即對(duì)包括技術(shù)理論學(xué)者和技術(shù)工程師的技術(shù)共同體的道德責(zé)任做出一定要求。技術(shù)理論學(xué)者和技術(shù)工程師作為平等的“行動(dòng)者”均要明確自己的責(zé)任,以保證有限人工智能體的道德行動(dòng)在理論基礎(chǔ)和實(shí)際應(yīng)用中達(dá)到“相對(duì)滿意”的效果。
首先,技術(shù)理論學(xué)者的責(zé)任是在充分論證的基礎(chǔ)上發(fā)展出有限人工智能體道德行動(dòng)的基礎(chǔ)理論,保證其在理論邏輯上合乎規(guī)范。倫理學(xué)是一門古老的學(xué)科,在這門學(xué)科中有著極為不同甚至相互沖突的道德行動(dòng)判斷理論,比如功利主義原則、人本主義原則和技術(shù)社會(huì)學(xué)原則。技術(shù)理論學(xué)者需要做的一方面是厘清各種理論的區(qū)別,找到最為適合有限人工智能體道德行動(dòng)的“底層邏輯”;另一方面是將這一理論與有限人工智能體道德行動(dòng)相結(jié)合,進(jìn)行前瞻性的充分探討。即便這種探討會(huì)在一定時(shí)間內(nèi)引起學(xué)界的廣泛爭(zhēng)論和意見爭(zhēng)執(zhí),但正如倫理學(xué)發(fā)展歷史所揭示的,唯有充分探討才有倫理學(xué)的發(fā)展。這體現(xiàn)在人工智能技術(shù)領(lǐng)域就是唯有技術(shù)理論學(xué)者在基礎(chǔ)理論方面的充分明晰論證,才會(huì)有技術(shù)科學(xué)在基礎(chǔ)理論領(lǐng)域知其然更知其所以然的長(zhǎng)足進(jìn)步。因此,技術(shù)理論學(xué)者要承擔(dān)起為有限人工智能體道德行動(dòng)的發(fā)展夯實(shí)理論基礎(chǔ)的責(zé)任。
其次,作為技術(shù)理論學(xué)者理念的實(shí)現(xiàn)者,技術(shù)工程師的責(zé)任是編寫代碼,反復(fù)校驗(yàn),確保安全可控,破除代碼黑箱,保證有限人工智能體在實(shí)際應(yīng)用中合乎道德規(guī)范的“相對(duì)滿意”。技術(shù)工程師職責(zé)的關(guān)鍵在于確保有限人工智能體道德行為的可解釋性,即各個(gè)道德算法模塊“輸入—輸出”的可解釋、性能的可解釋及其如何促進(jìn)系統(tǒng)結(jié)果的可解釋。這是相關(guān)企業(yè)可以安全生產(chǎn)有道德行動(dòng)能力的有限人工智能體的前提,也是政府部門能夠?qū)τ邢奕斯ぶ悄荏w道德行動(dòng)進(jìn)行監(jiān)測(cè)和補(bǔ)救的底線。
2023年5月全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)發(fā)布《人工智能安全標(biāo)準(zhǔn)化白皮書(2023版)》,其中對(duì)當(dāng)前我國(guó)人工智能的安全標(biāo)準(zhǔn)化發(fā)展問(wèn)題做出了一系列的要求和建議。這就要求在有限人工智能體道德行動(dòng)的“人的責(zé)任”的考量中,需要將企業(yè)和政府的科技管理部門所承擔(dān)的監(jiān)管責(zé)任納入其中。相關(guān)企業(yè)的科技管理部門作為社會(huì)管理單位其責(zé)任主要體現(xiàn)在兩個(gè)階段。
一是在有限人工智能體道德行動(dòng)準(zhǔn)備應(yīng)用之前,企業(yè)的科技管理部門要做好倫理準(zhǔn)備工作,建立倫理調(diào)查和監(jiān)督機(jī)制,以確定、防止和減輕有限人工智能體道德行動(dòng)的負(fù)面影響,并提前設(shè)計(jì)應(yīng)對(duì)道德負(fù)面影響的可行對(duì)策。二是在有限人工智能體道德行動(dòng)投放應(yīng)用之后,企業(yè)的科技管理部門要確保其透明度。為了讓用戶了解人工智能系統(tǒng)的各環(huán)節(jié)對(duì)于具體環(huán)境和敏感度的設(shè)定原理,增進(jìn)用戶的信任和理解,確保有限人工智能體道德行動(dòng)的透明度可以幫助人類行為主體知曉在危急情形下如何影響和阻止有限人工智能體的道德決策,監(jiān)管部門應(yīng)提前準(zhǔn)備適當(dāng)?shù)姆婪洞胧?。相關(guān)企業(yè)的科技管理部門在以上兩個(gè)階段中的監(jiān)管責(zé)任是有限人工智能體道德行動(dòng)安全落地的重要一環(huán)。企業(yè)科技管理部門在檢驗(yàn)產(chǎn)品和反饋問(wèn)題的過(guò)程中能夠規(guī)范和提高相關(guān)技術(shù)工程師的道德責(zé)任意識(shí),減少政府科技管理部門的監(jiān)管難題。
在有限人工智能體道德行動(dòng)的整個(gè)生命周期中,政府的科技管理部門擔(dān)負(fù)立法、評(píng)估和補(bǔ)救的責(zé)任。為了規(guī)范有限人工智能體道德行動(dòng)的發(fā)展,政府部門應(yīng)加快制定與其相適應(yīng)的法律、法規(guī)和政策,并定期對(duì)其審查和修訂。這需要所有人工智能行為者,包括投資方、設(shè)計(jì)人員、運(yùn)營(yíng)企業(yè)、產(chǎn)品用戶、律師和司法部門等全部參與進(jìn)來(lái),填補(bǔ)現(xiàn)有法律框架中關(guān)于有限人工智能體道德行動(dòng)的空白領(lǐng)域。政府部門的硬法和智能體內(nèi)嵌的道德價(jià)值軟法相結(jié)合是有限人工智能體道德行動(dòng)安全的保障。同時(shí),在有限人工智能體道德行動(dòng)投向應(yīng)用之前,政府科技管理部門需承擔(dān)評(píng)估責(zé)任,建立倫理影響評(píng)估程序,以監(jiān)測(cè)和評(píng)估系統(tǒng)的惠益和風(fēng)險(xiǎn),并視情況出臺(tái)預(yù)防和減輕道德風(fēng)險(xiǎn)的措施和保障機(jī)制。但由于可能存在信息的不完全透明等原因,并不是所有倫理問(wèn)題都能夠在評(píng)估階段發(fā)現(xiàn)。因此,在有限人工智能體道德行動(dòng)的應(yīng)用過(guò)程中,政府科技管理部門仍需承擔(dān)補(bǔ)救責(zé)任,持續(xù)監(jiān)測(cè)倫理影響并實(shí)施積極的補(bǔ)救措施,對(duì)于造成負(fù)面?zhèn)惱韱?wèn)題的有限人工智能體采取返廠、停用或銷毀等懲處手段,并審查和追溯相關(guān)責(zé)任方。
從人類發(fā)展角度來(lái)看,如何理解和應(yīng)對(duì)有限人工智能體的道德行動(dòng)是一個(gè)歷史問(wèn)題。雖然人類目前無(wú)法預(yù)估有限人工智能體將有多大的發(fā)展?jié)摿翱赡墚a(chǎn)生怎樣的變革,但我們既不應(yīng)過(guò)度樂(lè)觀,也不應(yīng)過(guò)度悲觀,而是應(yīng)從發(fā)展的角度出發(fā),基于目前正處于并將在很長(zhǎng)一段時(shí)間處于有限人工智能體的發(fā)展階段的這一客觀現(xiàn)實(shí),立足現(xiàn)有的人工智能技術(shù)和人類道德實(shí)際,考察和探索有限人工智能體道德行動(dòng)的發(fā)展?fàn)顩r與發(fā)展進(jìn)路??梢哉f(shuō),唯有有限人工智能體的道德行動(dòng)安全、可靠、持續(xù)及更好地服務(wù)于人類,才能逐漸化解長(zhǎng)久以來(lái)學(xué)界對(duì)于有限人工智能體道德行動(dòng)問(wèn)題的種種爭(zhēng)論,才能繼續(xù)推動(dòng)人工智能技術(shù)事業(yè)健康、深入、可持續(xù)發(fā)展。