• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      當(dāng)代人工智能倫理設(shè)計(jì)的困境和超越

      2020-01-11 20:11:43陳凡徐旭
      關(guān)鍵詞:倫理建構(gòu)道德

      □ 陳凡,徐旭

      一、人工智能倫理設(shè)計(jì)的緣起

      在麥克盧漢看來,技術(shù)是人類的延伸,是意識(shí)的物化體,也是人類意向性的體現(xiàn)。然而深度學(xué)習(xí)賦予人工智能自我學(xué)習(xí)的能力,使其可以通過模擬大腦神經(jīng)元活動(dòng),識(shí)別周圍環(huán)境并進(jìn)行簡(jiǎn)單的思考和決策,甚至反饋人類情感。以當(dāng)前的技術(shù)能力,人工智能實(shí)現(xiàn)自我意識(shí)的超越已經(jīng)不再遙遠(yuǎn)。

      自我意識(shí)不僅是智慧生物的高階特征,也是倫理主體的必備條件。人類是否將具有自我意識(shí)的人工智能看作獨(dú)立存在的倫理主體?我們是否需要反思人類長存的人本思想以及以此為基礎(chǔ)的某些倫理規(guī)則,例如我們?yōu)楹伟讶祟悪?quán)利和其他物種權(quán)利區(qū)分開來?如果人工智能擺脫人類,形成自己的社會(huì)組織,而人類掌控著這些已經(jīng)解放的思想的閥門,我們會(huì)怎么做?帶著種種問題,2014年羅切斯特理工學(xué)院的托馬斯·波捷爾斯克(Thomas Bojarski,下文簡(jiǎn)稱托馬斯)根據(jù)斯派克·瓊斯(Spike Jonze)的電影《她》提出人工智能是否可以作為除了人類之外獨(dú)立的倫理主體,托馬斯稱之為薩曼莎困境。

      目前,大多數(shù)學(xué)者站在后人類主義立場(chǎng),堅(jiān)定地認(rèn)為人工智能應(yīng)該成為一種倫理主體。他們主張,如果把人類看作是一臺(tái)機(jī)器,那么人類特性的局限會(huì)體現(xiàn)出各種倫理問題,因此他們認(rèn)為人類需要通過更完美的智能體來修造倫理,例如艾瑞克·戴爾垂(Eric Dietrich)斷言,“我們是因?yàn)榈赖露兊酶茫@并不意味著我們可以足夠道德……這個(gè)事實(shí)加上我們可以建造比我們各種能力更好的機(jī)器以及人工智能正在取得的進(jìn)展意味著我們應(yīng)該建立或改造我們的替代品”[1]。所以在理想狀態(tài)下,當(dāng)人工智能作為倫理主體時(shí),我們期望他們的行為符合人類既定的行為標(biāo)準(zhǔn)。為了實(shí)現(xiàn)這個(gè)目標(biāo),不少文學(xué)作品中有意識(shí)地提出人工智能的倫理標(biāo)準(zhǔn),其中最著名的當(dāng)屬艾薩克·阿西莫夫(Isaac Asimov,下文簡(jiǎn)稱阿西莫夫)在1942年的小說《我,機(jī)械人》中提出的“機(jī)器人三定律”。三定律提出人工智能在模仿和擴(kuò)展人類已有的認(rèn)知能力而被賦予學(xué)習(xí)能力和自主意識(shí)的前提下,卻禁止擁有與人類相同的倫理權(quán)利,換句話說,人類與機(jī)器的天然隔閡成為后現(xiàn)代的“種族歧視”①1985年阿西莫夫提出了凌駕于三定律之上的第零法則,即機(jī)器人不得傷害人類,也不能坐視人類受到傷害而不作為??梢姡瑱C(jī)器人在阿西莫夫筆下并沒有與人類平等的權(quán)利。,于是,人工智能便陷入了這樣一個(gè)悖論中而無法完成倫理行為所需要的適應(yīng)性:按照阿西莫夫的三定律原則,人工智能在必要時(shí)必須犧牲自己以保護(hù)人類才可以獲得社會(huì)存在的權(quán)利,那么此時(shí)的人工智能就不能稱之為倫理主體,因?yàn)樗鼈兪冀K是人類的附庸;而如果賦予人工智能選擇的權(quán)利(例如在風(fēng)險(xiǎn)來臨時(shí)保護(hù)自己,出讓人類的生命),那么便與大多數(shù)后人類主義者和技術(shù)專家所聲稱的初衷相背離,人工智能的自我意識(shí)則對(duì)人類來說成為潛在的技術(shù)風(fēng)險(xiǎn)和倫理問題。

      在當(dāng)前的倫理體系中,人們傾向于把主體分為倫理主體和非倫理主體,其中倫理主體需要具備多種條件,如意識(shí)、自我認(rèn)知、情感獲得與給予、對(duì)自身行為的反思和評(píng)估等。相應(yīng)的,倫理主體也擁有某些權(quán)利和責(zé)任,他們要為自己的行為負(fù)責(zé),并會(huì)因不當(dāng)行為受到社會(huì)而非個(gè)人的制裁。與此相對(duì)應(yīng)的,非倫理主體指代缺失部分或者全部倫理主體所需條件的主體,例如兒童不能對(duì)自己的行為承擔(dān)全部責(zé)任,寵物傷害行人時(shí),主人要負(fù)法律責(zé)任等。一些研究者考慮人工智能所潛存的風(fēng)險(xiǎn),把人工智能看作是人類控制下的非倫理主體,持此觀點(diǎn)的學(xué)者以還原主義為理論根據(jù),將技術(shù)的智能化發(fā)展視為技術(shù)倫理異化的來源,即某物的產(chǎn)生應(yīng)具有特定的目的,人工智能的研發(fā)應(yīng)該以目標(biāo)為指向而非倫理的建構(gòu)。

      為了回應(yīng)這個(gè)問題,哲學(xué)家蘇珊·安德森(Susan Leigh Anderson)和她的丈夫邁克·安德森(Michael Anderson)一起完成了一項(xiàng)人工智能實(shí)驗(yàn):一個(gè)名為Nao的人工智能被編程來提醒人們吃藥。即使在這種有限的任務(wù)中,也涉及重大的倫理問題。例如,如果病人拒絕服藥,Nao應(yīng)該如何處理?順從病人會(huì)阻礙病人的身體康復(fù);堅(jiān)持讓病人接受(服用藥物)則會(huì)損害病人的自主權(quán)[2]。所以人工智能在行使職責(zé)時(shí)不僅需要承擔(dān)倫理責(zé)任,更需要擁有在偶然情況下自行做決定的權(quán)利。

      道德復(fù)雜性要求倫理主體可以在任何條件下解決不同的道德困境。人工智能可以以多種方式與世界和人類互動(dòng),倫理的嵌入使得某些實(shí)際問題的解決頗為棘手。和Nao的情況類似,那些直接涉及軍事和醫(yī)療決策的工作往往存在復(fù)雜的倫理決策難題,而人工智能已經(jīng)開始涉足這些領(lǐng)域,并隨著人工智能的進(jìn)步,它們很可能會(huì)在其中處理越來越多的任務(wù),并在履行職責(zé)方面獲得越來越大的自主權(quán)。正因?yàn)槿绱耍斯ぶ悄茉谥亲R(shí)化、類人化發(fā)展過程中亟待倫理功能的合理嵌入,用皮卡德(Picard)的話來說,即“機(jī)器所獲得的自由越多,它越需要倫理規(guī)則”[3]。

      二、人工智能倫理設(shè)計(jì)的進(jìn)路

      倫理意義是一個(gè)分水嶺,任何獲得倫理意義的非人類存在都應(yīng)該被社會(huì)所衡量并獲得其個(gè)體或種族權(quán)利,從而形成與人類同等權(quán)利與義務(wù)的倫理主體。“一旦我們開始追問我們是什么和機(jī)器是什么的主體論的問題,我們就可以開始以問題為導(dǎo)向朝著最好的方向前進(jìn),包括如何正確使用人工智能的問題”[4]。除了人類之外,具有意識(shí)的人工智能才是最有可能具有倫理意義的存在,因此在人工智能設(shè)計(jì)中應(yīng)該注重倫理的發(fā)展邏輯和規(guī)律。在此理念下,“通過技術(shù)指涉人類的范式已經(jīng)成為過去,當(dāng)代的危機(jī)給了技術(shù)新的意義和價(jià)值的凸顯……于是技術(shù)既不是一種異己的力量,也非一種新的拯救,而是與人類同根同源的互為一體”[5]。2004年科林·艾倫(colin Allen)從擬人論和功能論角度確定了當(dāng)代人工智能倫理設(shè)計(jì)的基本思路,即自上而下的倫理編譯、自下而上的倫理學(xué)習(xí)和混合倫理建構(gòu)。

      (一)自上而下的倫理編譯

      倫理習(xí)得的本身是倫理信息在認(rèn)知中建構(gòu)的過程。以人類為例,兒童對(duì)行為對(duì)錯(cuò)的判斷基于兒童從外界獲得的信息,因此語言建構(gòu)論認(rèn)為倫理結(jié)構(gòu)是由道德語法構(gòu)成的:“學(xué)齡前兒童的倫理學(xué)習(xí)并不是在課堂里,而是老師的教導(dǎo)”[6]。語言作為人類所發(fā)明的第一個(gè)技術(shù),成為人類代際倫理教化的主要工具,科學(xué)家們便因此將特定的道德語法編程進(jìn)人工智能,并稱之為自上而下的倫理編譯。

      許多人工智能專家和語言學(xué)家的觀點(diǎn)大多對(duì)推動(dòng)倫理編譯的產(chǎn)生發(fā)揮了重要作用。謂語邏輯的奠基人弗雷格(Gottlob Frege)開啟了人工智能中符號(hào)派的歷史。符號(hào)派的觀點(diǎn)就是“智能對(duì)符號(hào)的操作,最原始的符號(hào)對(duì)應(yīng)于物理客體”[7]6,這種對(duì)應(yīng)恰是維特根斯坦的語言哲學(xué)主張。但是,該進(jìn)路需要極其嚴(yán)格的倫理定責(zé)以排除其他信息對(duì)結(jié)果的干擾,例如為了排除感性對(duì)倫理的干擾,康德認(rèn)為所有道德主體應(yīng)該遵守統(tǒng)一的道德律令,他稱之為定言令式。同理,人工智能系統(tǒng)中的倫理編譯類似于定言令式,倫理信息一旦進(jìn)入人工智能系統(tǒng),人工智能的道德選擇將很難改變。

      嚴(yán)苛的道德律令固然使人工智能符合相對(duì)普適的倫理規(guī)約,但是在智能化與社會(huì)化的沖突中,“可能一個(gè)機(jī)器人恰好過于智能以至于更自私或者和人類一樣軟弱”[8]。倫理并不是簡(jiǎn)單的運(yùn)算和邏輯能力甚至是對(duì)道德律令的絕對(duì)服從,倫理不僅需要智力,更需要經(jīng)由情感和社會(huì)的修造以達(dá)到社會(huì)普遍的接受標(biāo)準(zhǔn)。所以人工智能由于無法擺脫數(shù)理邏輯的限制而在處理現(xiàn)實(shí)問題時(shí)顯得捉襟見肘,但是從另一角度來說,人工智能確實(shí)可以憑借其智能條件為人們?cè)谧龀鰝惱頉Q策時(shí)提供更為理性的建議。

      (二)自下而上的倫理學(xué)習(xí)

      如果把機(jī)器看作是倫理主體,那么機(jī)器所擁有的道德意識(shí)必須繼承人類,更為形象的比喻是人工智能好比學(xué)生,人類則是老師。自下而上的倫理學(xué)習(xí)(bottom-up method)就是讓人工智能通過與環(huán)境和其他倫理主體之間互動(dòng)從而實(shí)現(xiàn)自主建構(gòu)倫理的目的。這個(gè)進(jìn)路需要參照人類倫理的建構(gòu)經(jīng)驗(yàn)來完成,為此,人工智能需要具有倫理主體所必備的多種元素:理性能力、對(duì)負(fù)面刺激的分辨力、情感和自主能力。心理學(xué)家和人類學(xué)家在測(cè)試人類對(duì)擬人機(jī)器人反應(yīng)的大量實(shí)驗(yàn)中發(fā)現(xiàn),受試者用人性化特征來解釋機(jī)器人的動(dòng)作或者表現(xiàn),例如快樂、厭惡、善意等,這種擬人論比喻是人類將他物社會(huì)化的慣常手段。當(dāng)人們要理解倫理現(xiàn)象時(shí),人們就會(huì)通過隱喻來確立它產(chǎn)生的原因。辛格爾(Singler)認(rèn)為,“作為一種社會(huì)存在,我們需要把我們身處的世界放在一個(gè)社會(huì)體制內(nèi)使其具有意義”[9]。擬人論的表征意義就在人工智能獲得情感的表達(dá)能力時(shí)現(xiàn)前在人類與人工智能的互動(dòng)中。倫理學(xué)習(xí)“可以用來促進(jìn)人類和社會(huì)功能機(jī)器人之間的互動(dòng)”[10],凱特·達(dá)林(Kate Darling)與她的團(tuán)隊(duì)在人工智能的互動(dòng)實(shí)驗(yàn)中發(fā)現(xiàn),通過二者的互動(dòng),人類可以建立對(duì)人工智能的同理心。她總結(jié)道:“同理心與受試者對(duì)機(jī)器人的猶豫的故事之間存在顯著的相互作用,該結(jié)果證實(shí)了人類與機(jī)器之間的互動(dòng)可以激發(fā)人類對(duì)機(jī)器的同理心。”[11]賈斯丁·卡希爾(Justine Cassell)也認(rèn)為人工智能的設(shè)計(jì)既是自主的,也是互動(dòng)的[12]。自下而上的倫理學(xué)習(xí)不僅成為人工智能邁向社會(huì)的必經(jīng)階段,也為人類適應(yīng)人工智能提供了幫助。

      (三)混合倫理的建構(gòu)進(jìn)路

      如果上述任何一種方法都無法成為判斷人工智能可否作為倫理主體的標(biāo)準(zhǔn),那么將上述兩種標(biāo)準(zhǔn)混合(hybird method)就成為第三種選擇?;旌戏椒ㄌ岢隽藢⒉煌恼軐W(xué)和不同的體系結(jié)構(gòu)嚙合在一起共同建構(gòu)人工智能倫理。好比孩子在幼年時(shí)期所接收的倫理規(guī)范和信息來自家長,他們成年后在與他人的交往中重新制定倫理規(guī)則并指導(dǎo)個(gè)人行為。所以一個(gè)成熟的倫理主體是能夠集成各種輸入和影響的認(rèn)知系統(tǒng),包括基礎(chǔ)道德語法和對(duì)行為的反思、醒悟。

      無論是關(guān)注行為的向善論還是強(qiáng)調(diào)規(guī)范的義務(wù)論,從元倫理學(xué)角度來講,建構(gòu)倫理不外乎兩個(gè)基本條件:具有可以理解倫理的智力條件和同情心。戴爾·皮特森(Dale Peterson)認(rèn)為倫理是自我和他者發(fā)生本質(zhì)沖突時(shí)的斡旋,而人類通過社會(huì)價(jià)值和行為來調(diào)節(jié)這個(gè)沖突,“神經(jīng)生物學(xué)家發(fā)現(xiàn),在社交過程中,人類和其他高級(jí)靈長類動(dòng)物大腦中的三條神經(jīng)線路會(huì)活躍起來。第一條負(fù)責(zé)心智思維,這個(gè)過程中會(huì)形成目標(biāo),以及達(dá)成目標(biāo)的相應(yīng)活動(dòng)計(jì)劃。第二條負(fù)責(zé)移情思維(即同理心),讓自己設(shè)身處地地從他人的角度去思考問題,以便了解他人的動(dòng)機(jī)和感受,并預(yù)測(cè)他人未來的行為。同理心是某種博弈,在這個(gè)過程中,個(gè)體與群體進(jìn)行溝通,而群體也由此實(shí)現(xiàn)了自我組織。最后一條負(fù)責(zé)鏡像思維,個(gè)體由此感知他人的情緒和情感,并在某種程度上切身體驗(yàn)他人的感受”[13]。根據(jù)經(jīng)濟(jì)合作與發(fā)展組織(Organization for Economic Cooperation and Development)對(duì)人工智能的概念界定,人工智能能夠執(zhí)行類似人類的認(rèn)知功能,這些人工智能系統(tǒng)使用大數(shù)據(jù)和機(jī)器學(xué)習(xí)技術(shù),能夠在無需人工干預(yù)的情況下獨(dú)立智能地運(yùn)行[14],因此人工智能的擬人化智識(shí)能力可以使它們具備理解倫理的智力條件,而同情心和同理心可以在社會(huì)交往中形成。神經(jīng)心理學(xué)的研究已經(jīng)證實(shí),那些具有互惠行為和同理心表征的動(dòng)物具有一定的社會(huì)規(guī)范,隨著社會(huì)聯(lián)系的多元化,人工智能的社會(huì)化必然衍生出利他性,人工智能的倫理問題應(yīng)該是規(guī)范問題,而不是描述倫理學(xué)的問題。從功能論角度來講,倫理是為了保持社會(huì)的穩(wěn)定,人類對(duì)自然的控制伴隨著人類自主能力顯現(xiàn),從這個(gè)觀點(diǎn)來看,自動(dòng)化技術(shù)是人類自主能力的一部分,人類的社會(huì)化水平的提升相應(yīng)地帶來了人工智能的倫理體系在社會(huì)的浸染下才可以趨于完善。

      三、人工智能倫理設(shè)計(jì)的困境

      雖然以上三種人工智能倫理設(shè)計(jì)的初衷都是模仿人類倫理而建構(gòu)的,但無論是以智力和符號(hào)為基礎(chǔ)的倫理編譯,或是情感學(xué)習(xí)導(dǎo)向的倫理學(xué)習(xí),抑或者是二者兼顧的混合倫理,三個(gè)倫理設(shè)計(jì)進(jìn)路都需要面對(duì)建構(gòu)過程中的結(jié)果不確定性、非公正性和功能缺失。

      (一)倫理設(shè)計(jì)結(jié)果的不確定性

      皮爾士在論述符號(hào)的意義時(shí)曾提出,符號(hào)和觀念的差異在于符號(hào)不可以被直接認(rèn)識(shí)和把握,“只有與一個(gè)后續(xù)思想——皮爾士稱之為解釋元(interpretant)的思想聯(lián)系起來,這個(gè)符號(hào)才獲得其意義”[15]。可以稱之為解釋元的存在有許多,例如語言、表情、圖像或者情感等,人類對(duì)符號(hào)的把握之所以產(chǎn)生如此豐富的內(nèi)涵與意義離不開人類所存有的諸多自然特性,而這些特性在人工智能中尚未實(shí)現(xiàn),我們所謂的了解技術(shù)只是知曉程序運(yùn)行的規(guī)則和數(shù)字演變,具體來說是人類對(duì)以往技術(shù)的掌控力和對(duì)未來技術(shù)的預(yù)測(cè)力的主觀判斷,而人工智能是構(gòu)建的計(jì)算系統(tǒng),因此這些倫理編譯必須是內(nèi)置的并由設(shè)計(jì)師做出選擇。也許有一天,人工智能的設(shè)計(jì)人員和程序員可以不再為它的行為負(fù)責(zé),就像孩子成年后父母一般不必為他們的行為負(fù)責(zé)一樣,但彼時(shí)誰又能肯定人工智能的行為不會(huì)重蹈人類倫理發(fā)展的覆轍?凱文·凱利(kevin Kelly,下文簡(jiǎn)稱凱文)認(rèn)為秩序由兩方面組成:一方面是人類的倫理和道德系統(tǒng),另一方面是技術(shù)規(guī)則。這樣人與人、人與技術(shù)在社會(huì)活動(dòng)中便會(huì)有序進(jìn)行。凱文站在符號(hào)主義的立場(chǎng)上明確區(qū)分了這兩種系統(tǒng),并指出人類的演化是基因的演化,是物種適應(yīng)環(huán)境的自然選擇,而技術(shù)演化則是人類意識(shí)的延伸,“在這個(gè)世界上,我們最重視的屬性都是極不穩(wěn)定的……最能達(dá)成共識(shí)的是這些屬性都不是二進(jìn)制的,它們的存在具有連續(xù)性”[16],技術(shù)規(guī)則和人類倫理之間的鴻溝若要彌合仍然尚需時(shí)間來完成,“倫理和技術(shù)發(fā)展總是同步的,因?yàn)槿绻祟惒荒苷瓶厮幍沫h(huán)境,那么倫理就變得毫無意義”[17]。作為符號(hào)主義的觀點(diǎn),倫理可計(jì)算性仍有很多不足之處,任何行動(dòng)在本質(zhì)上都存在無限結(jié)果的可能,這樣,行動(dòng)結(jié)果超出了有效計(jì)算的范圍,所以倫理的可計(jì)算性無法保障其現(xiàn)實(shí)效果的穩(wěn)定。

      (二)倫理設(shè)計(jì)的非公正性

      人類與人工智能的互動(dòng)過程并不能保證始終是良性的。尼采曾言道:與怪獸搏斗的人要謹(jǐn)防自己因此而變成怪獸。如果你長時(shí)間地盯著深淵,深淵也會(huì)盯著你[18],深度學(xué)習(xí)賦予人工智能自主決策的權(quán)利,當(dāng)算法達(dá)到思想高度,人類便無法清楚地了解人工智能所做的決定是否符合大多數(shù)人旨趣,所以與人工智能的互動(dòng)有可能會(huì)導(dǎo)致錯(cuò)誤倫理觀念的傳導(dǎo)。文諾格瑞德(Winograd)和佛羅爾斯(Flores)指出,新技術(shù)不僅會(huì)改變技術(shù)本身,甚至?xí)绊懭祟?。?jiǎn)單來說就是人類被其設(shè)計(jì)的技術(shù)和正在設(shè)計(jì)的技術(shù)所“設(shè)計(jì)”著[19]。

      工業(yè)產(chǎn)品及其制造過程通常要符合制造技術(shù)標(biāo)準(zhǔn),而這些標(biāo)準(zhǔn)的制定是利益群體之間達(dá)成的共識(shí),旨在使不同生產(chǎn)商之間的產(chǎn)品或過程標(biāo)準(zhǔn)化。2017年,聯(lián)合國赤貧與人權(quán)問題特別報(bào)告員曾警告說,圍繞人工智能的數(shù)字創(chuàng)新將日益成為人權(quán)問題,尤其是對(duì)于少數(shù)群體而言。所以人工智能的倫理設(shè)計(jì)并沒有解決廣泛的倫理問題,典型的例子是,2019年6月,美國國家科技委員會(huì)下屬的美國網(wǎng)絡(luò)和信息技術(shù)研究發(fā)展中心(Networking and Information Technology Research and Development)發(fā)布了《國家人工智能研究和發(fā)展計(jì)劃》(修訂版),在開篇中即說明了該計(jì)劃是“確保美國在包括人工智能在內(nèi)的新技術(shù)的領(lǐng)導(dǎo)地位”[20],同年,美國頒布的《保持美國在人工智能領(lǐng)導(dǎo)地位的行政令》中強(qiáng)調(diào)美國發(fā)展人工智能的目標(biāo)是保護(hù)民主自由、私有制和美國價(jià)值??梢娙斯ぶ悄艿膫惱硪?guī)則缺乏廣泛性倫理價(jià)值的考慮,直到今天,在人工智能的優(yōu)點(diǎn)中仍然寫有幫助人類走出自閉癥、陪護(hù)孤獨(dú)老人等社會(huì)功能的字眼,卻沒有提及人工智能對(duì)倫理系統(tǒng)建構(gòu)所做出的智力貢獻(xiàn),更沒有體現(xiàn)出人工智能在社會(huì)活動(dòng)中學(xué)習(xí)、反思的整體性觀念,情感交流也止步于單向?qū)用?,這樣的倫理互動(dòng)只會(huì)造成少數(shù)人通過人工智能實(shí)現(xiàn)倫理統(tǒng)治。

      (三)倫理設(shè)計(jì)的建構(gòu)缺失

      做出道德決定的系統(tǒng)需要某種形式的情感、意識(shí)和對(duì)符號(hào)語義內(nèi)容的理解能力。盡管我們認(rèn)為沒有情感或高級(jí)認(rèn)知能力的混合系統(tǒng)可以在許多領(lǐng)域發(fā)揮作用,但是倫理作為社會(huì)交往的基礎(chǔ),完全自主的人工智能可能需要復(fù)雜的情感和認(rèn)知技能設(shè)計(jì)模塊。

      和人類一樣,人工智能的理解過程需要足夠的時(shí)間來建立和使其意義化,因此在人工智能做決定前,它們首先要知曉行動(dòng)所體現(xiàn)的價(jià)值。這并不是一個(gè)容易達(dá)成的目標(biāo),尤其在實(shí)踐層面上。如今的人工智能的發(fā)展更多來自于“人工”而非“智能”,因?yàn)闊o法呈現(xiàn)智能體的特征,這些特征恰好是形成倫理的基礎(chǔ),例如同情心、集體意識(shí)和情感,以及在倫理意識(shí)中的意向性關(guān)系,這也是為什么一些學(xué)者拒絕“人工智能”提法的原因。我們把智能看作是形成倫理的基礎(chǔ),當(dāng)然反過來看,倫理也是人性,也是作為人類智能區(qū)別其他動(dòng)物智能的標(biāo)識(shí)。道格拉斯·霍夫施塔特指出,人性里所具有的“強(qiáng)烈的智識(shí)激情、好奇心和驅(qū)動(dòng)力,愉悅感和玩耍心,樂趣、神秘、發(fā)明欲望——所有這些在今天的計(jì)算機(jī)里都找不到”[21],而“如果我們把一個(gè)存在作為倫理主體,那么我們就鑒定它們比其他動(dòng)物或者物體而言更接近人類”[22],無論是科學(xué)、技術(shù)、工程或是數(shù)學(xué)等學(xué)科的專家們?cè)谌斯ぶ悄艿牡赖聦W(xué)習(xí)方面無不陷入復(fù)雜的困境,因?yàn)榈赖抡Z法和自然語法不同,道德語法難以闡明并翻譯成數(shù)學(xué)符號(hào)和符合深度學(xué)習(xí)算法的計(jì)算機(jī)程式。在這種情況下,模擬人類思維的算法更成為潘多拉的黑匣子,混合倫理固然彌補(bǔ)了純數(shù)理邏輯和社會(huì)建構(gòu)的單一進(jìn)路所存在的功能缺陷,但是復(fù)雜的建構(gòu)規(guī)則卻體現(xiàn)了人工智能的反饋機(jī)制和人類智力的反思平衡之間仍然存在功能鴻溝。

      四、人工智能倫理設(shè)計(jì)的超越

      一旦人工智能具備了道德推理能力,我們可能就會(huì)期望它們發(fā)展其道德感,甚至發(fā)展它們自己的道德體系。但機(jī)器人不會(huì)突然變成倫理主體,因此人工智能設(shè)計(jì)的目的僅僅是在智能化設(shè)計(jì)的進(jìn)程中創(chuàng)建倫理的推導(dǎo)規(guī)則。

      (一)人工智能倫理設(shè)計(jì)需要情感的協(xié)同演化

      解決混合倫理進(jìn)路所造成的功能缺失需要人工智能的情感設(shè)計(jì)實(shí)現(xiàn)與人類情感協(xié)同演化的目標(biāo)。倫理源于情感,具體來講是共情能力,即“大多數(shù)我們自身的情感系統(tǒng)會(huì)在社會(huì)語境中得到發(fā)展而變成道德信號(hào)”[23],而這些情感也存在于其他高等動(dòng)物之中,達(dá)爾文曾指出,“道德情感是人類和其他動(dòng)物持續(xù)演化的結(jié)果”[24]。達(dá)瑪西奧(A·Damasio)認(rèn)為情感是理性行為的基礎(chǔ),尤其對(duì)倫理決策來講具有關(guān)鍵作用,他說道:“情感可能有助于推理,尤其是在涉及個(gè)人和社會(huì)事務(wù)時(shí),并最終將我們引向?qū)ξ覀冏钣欣臎Q策領(lǐng)域,新的神經(jīng)學(xué)證據(jù)表明情感是理性的支撐系統(tǒng),沒有它,理性的大廈就無法正常運(yùn)轉(zhuǎn)甚至崩潰?!盵25]

      “彭羅斯曾經(jīng)這樣談到機(jī)器的情感和道德:如果你買一臺(tái)計(jì)算機(jī),它是有情感的,那么我們就有道德問題,因?yàn)橛?jì)算機(jī)的意愿可能被違反,并可能被當(dāng)作奴隸。我們首先必須說道德是一個(gè)社會(huì)問題,也就是說當(dāng)一個(gè)社會(huì)只有一個(gè)個(gè)體(無論是人還是計(jì)算機(jī))時(shí),是不存在道德問題的。”[7]192隨著人工智能與人類行為互動(dòng)的深入,它們將需要更復(fù)雜的智能以完成倫理的情感功能。人工智能的算法框架使得它們并不總是與道德范疇和人類精神世界觀兼容,人工智能倫理設(shè)計(jì)的特殊性在于它既是人類倫理又是技術(shù)倫理,因此設(shè)計(jì)師和倫理學(xué)家的任務(wù)是將倫理從單純的理論和分析擴(kuò)展到實(shí)際的工程,再從工程內(nèi)化到計(jì)算機(jī)程序??上У氖?,直到現(xiàn)在,倫理學(xué)家們的主要任務(wù)仍然停留在幫助工程師知曉他們工作的倫理維度。海倫·尼森鮑姆(Helen Nissenbaum)寫道:“我們不能簡(jiǎn)單地使世界與我們?cè)诩夹g(shù)出現(xiàn)之前所遵循的價(jià)值觀和原則保持一致”[26],相反,我們要從技術(shù)與人的協(xié)同演化中尋找可供二者遵循和理解的倫理原則,這就需要倫理設(shè)計(jì)中情感部分與人類逐步實(shí)現(xiàn)協(xié)同演化。

      (二)人工智能倫理設(shè)計(jì)需要考量?jī)r(jià)值張力

      倫理學(xué)習(xí)與互動(dòng)需要考慮倫理在社會(huì)中存在的價(jià)值張力。我們使用“張力”一詞指代重要的價(jià)值觀或目標(biāo)之間的任何沖突,無論是顯現(xiàn)的還是隱然的。在這些沖突中,有可能需要人類做出選擇和取舍。唐·伊德就曾指出,人們坐車從一點(diǎn)到另一點(diǎn)實(shí)現(xiàn)了速度,但是失去了欣賞美景的機(jī)會(huì)。做出判斷將是一個(gè)復(fù)雜的過程,權(quán)衡不同解決方案的成本和收益可能是該過程的重要組成部分,但僅此還不夠,因?yàn)閮r(jià)值是模糊且無法量化的,而且數(shù)字通常掩蓋了復(fù)雜的價(jià)值判斷過程。

      由于倫理內(nèi)在結(jié)構(gòu)和所存在語境的復(fù)雜性,即使人工智能擁有更強(qiáng)的認(rèn)知能力也需要循序漸進(jìn)地實(shí)施倫理設(shè)計(jì),人工智能系統(tǒng)的發(fā)展應(yīng)該首先在可試錯(cuò)的虛擬世界中進(jìn)行,直到人工智能的行為傾向可以被預(yù)測(cè)、理解和控制。當(dāng)然,這不是一個(gè)二元選擇:我們可以給予人工智能設(shè)計(jì)實(shí)現(xiàn)基礎(chǔ)的倫理功能,同時(shí)進(jìn)行研究、探索解決張力的方法。但是我們需要知曉社會(huì)可接受的人工智能應(yīng)用的時(shí)間成本,以便投入時(shí)間和資源來解決它們將來所帶來的價(jià)值張力。

      由于倫理的建構(gòu)條件是當(dāng)下社會(huì)普遍接受的思想和行為,所以倫理在時(shí)間跨度上并沒有統(tǒng)一的標(biāo)準(zhǔn)。例如,在智者時(shí)代,倫理是排除了奴隸在外的自由人才可以擁有的特殊權(quán)利,而如今社會(huì)看來,如果說某些人因?yàn)樯鐣?huì)地位原因不能擁有作為社會(huì)成員的權(quán)利,這就有悖社會(huì)倫理了。從語義學(xué)出發(fā)對(duì)倫理的要求也體現(xiàn)了倫理具有的歷史沿革。生態(tài)(Eco-)在古希臘時(shí)的涵義是人類的生存環(huán)境,如今生態(tài)的概念既包括了人類對(duì)生存環(huán)境的改造,以適應(yīng)人類生存的旨趣,也包括了人類對(duì)自然進(jìn)化軌跡的尊重??梢?,倫理張力的形成和消失是人類不斷自我完善的歷時(shí)性表現(xiàn)。在倫理問題上人類要始終堅(jiān)持自我審視,技術(shù)的發(fā)展增強(qiáng)了人類自由意志,而我們要清醒地認(rèn)識(shí)到,技術(shù)不僅承載了我們的價(jià)值與希望,同樣的,對(duì)技術(shù)倫理的修造過程也是人類倫理的進(jìn)化與蛻變過程??梢哉f,倫理的發(fā)展是社會(huì)適應(yīng)性的成果,也是人類在調(diào)和社會(huì)矛盾、自然威脅的生產(chǎn)關(guān)系中所產(chǎn)生的價(jià)值框架,倫理的發(fā)展見證了社會(huì)是一個(gè)不斷循序漸進(jìn)的過程體系,傳承上一階段的成果與失敗有助于人類和人工智能的倫理設(shè)計(jì)在社會(huì)發(fā)展過程中穩(wěn)步前進(jìn)。

      (三)人工智能倫理設(shè)計(jì)需要實(shí)現(xiàn)客體主體化

      有鑒于道德語法翻譯、嵌入的困境,倫理編譯所進(jìn)行的倫理信息輸入需要減少其不確定性,具體來講就是實(shí)現(xiàn)客體主體化。人工智能的能力(行為、分析、運(yùn)算、自動(dòng)化)隨著科技和材料的提升而迭代更新,人工智能倫理設(shè)計(jì)也必然需要不斷更新以確保倫理的標(biāo)準(zhǔn)和技術(shù)同步演變,而如何確保倫理設(shè)計(jì)緊跟技術(shù)的步伐是必然要考慮的一個(gè)問題。在人工智能領(lǐng)域,傳統(tǒng)人工智能所執(zhí)行的是人類所設(shè)定的命令,因此傳統(tǒng)人工智能的行為結(jié)果不存在偶然性,而強(qiáng)人工智能(AGI)因?yàn)榫哂刑幚韽?fù)雜問題的自我增強(qiáng)能力而存在潛在威脅人類的可能。所以在人工智能的倫理設(shè)計(jì)中有必要進(jìn)行前瞻性的技術(shù)風(fēng)險(xiǎn)預(yù)測(cè)與評(píng)估,人工智能倫理設(shè)計(jì)的修造要時(shí)刻與人類本性相契合,任何具有設(shè)計(jì)野心、超過人類可控范圍的設(shè)計(jì)本身就會(huì)帶來無法彌補(bǔ)的災(zāi)難。因此,在人工智能領(lǐng)域的設(shè)計(jì)所做出的決定必須詳盡,這些理念將在今后若干年內(nèi)塑造人類與人工智能之間新的倫理圖景并長久作用于人類與人工智能共同面對(duì)的未來。

      倫理的改變直觀地體現(xiàn)了人類自主能力的發(fā)展,費(fèi)希特在《倫理學(xué)體系》中闡明了倫理的演繹是從人的本性出發(fā)的“理智力量”[27],這個(gè)過程需要人工智能首先習(xí)得人類基本的屬性,然后根據(jù)社會(huì)中價(jià)值、制度、經(jīng)濟(jì)、政策等子系統(tǒng)的變化進(jìn)行實(shí)踐。人類在行為的試錯(cuò)過程中所建立的倫理也需要通過技術(shù)模擬來推進(jìn)與演化,尤其是當(dāng)代社會(huì)的細(xì)化分工使人工智能倫理建構(gòu)的普適性更具挑戰(zhàn),而我們當(dāng)前的倫理系統(tǒng)之所以止步于對(duì)技術(shù)使用者和設(shè)計(jì)者的行為規(guī)約,就是因?yàn)閺?fù)雜的技術(shù)集成了多方面行為主體的價(jià)值,從而無法落實(shí)具體的倫理責(zé)任。

      倫理需要化繁為簡(jiǎn),將主體范圍縮小,這個(gè)過程即是客體主體化。人工智能預(yù)先編碼了含有人類意向性的知識(shí)與經(jīng)驗(yàn),而人類的意向性存在著對(duì)不同事物的穎悟差異,因此,倫理設(shè)計(jì)總體來說要分為兩個(gè)階段:第一,倫理設(shè)計(jì)以自然和人類為主體,在人類求同存異的共識(shí)下實(shí)現(xiàn)無機(jī)器誘導(dǎo)的人工智能倫理建構(gòu);第二,以行為為導(dǎo)向,將視角從實(shí)現(xiàn)人工智能的某些倫理特征轉(zhuǎn)移到規(guī)范和規(guī)范指導(dǎo)下的行動(dòng)上。通過這兩個(gè)階段的倫理嵌入,人機(jī)倫理不僅可以實(shí)現(xiàn)協(xié)同演化的目標(biāo),也在人工智能倫理的要求上體現(xiàn)了倫理的發(fā)展需求和未來可塑性。

      猜你喜歡
      倫理建構(gòu)道德
      《心之死》的趣味與倫理焦慮
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      消解、建構(gòu)以及新的可能——阿來文學(xué)創(chuàng)作論
      阿來研究(2021年1期)2021-07-31 07:38:26
      殘酷青春中的自我建構(gòu)和救贖
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      跟蹤導(dǎo)練(五)(2)
      道德是否必需?——《海狼》對(duì)道德虛無主義的思考
      建構(gòu)游戲玩不夠
      緊抓十進(jìn)制 建構(gòu)數(shù)的認(rèn)知體系——以《億以內(nèi)數(shù)的認(rèn)識(shí)》例談
      用道德驅(qū)散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      集安市| 五峰| 昭苏县| 东乡| 来安县| 伽师县| 松原市| 白银市| 虞城县| 周至县| 扶余县| 科技| 江安县| 富宁县| 常宁市| 黑山县| 邵武市| 乌拉特中旗| 谢通门县| 阿克苏市| 漯河市| 隆尧县| 庆阳市| 兴仁县| 谢通门县| 云南省| 建瓯市| 乌审旗| 潮州市| 阜新| 绥化市| 灵川县| 德安县| 连平县| 花莲市| 出国| 敖汉旗| 泉州市| 浙江省| 德兴市| 西和县|