• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      創(chuàng)造智能道德機器的倫理困境及其破解策略

      2019-08-27 01:32:33蘇令銀
      理論探索 2019年4期
      關鍵詞:倫理困境

      〔摘要〕 隨著人工智能的廣泛應用,如何讓未來具有高度自主性的智能機器作出倫理推理和道德決策,成為機器倫理研究中亟待解決的難題之一。智能道德機器創(chuàng)造中必須深入探討智能機器成為道德能動者的前提與可能。人工智能、機器人領域的研究人員和程序員等非倫理學家面臨著諸如道德哲學知識缺失可能導致智能道德機器倫理假設偏誤,倫理理論多元加大了倫理共識達成的難度,“電車難題”造成倫理決策困境,人工智能的法律應用存在機器偏見,倫理方法論的多元性造成正當性辯護與道德行為選擇困難等更為突出的倫理困境。破解這些倫理困境,對創(chuàng)造智能化、人性化的道德機器是非常必要的。有效破解這些倫理困境,需要實現(xiàn)道德哲學與人工智能的融合發(fā)展,需要重新審度倫理自身的合理性,在多元價值中達成倫理共識,最終構建面向智能機器本身的可執(zhí)行倫理機制。

      〔關鍵詞〕 智能道德機器,道德能動者,道德多元論,倫理困境

      〔中圖分類號〕N1?? ?〔文獻標識碼〕A〔文章編號〕1004-4175(2019)04-0030-08

      在可預見的時空范圍內,人工智能系統(tǒng)面臨著擺脫人類監(jiān)管并獨立自主地作出道德決策和行動的巨大風險和挑戰(zhàn)﹐甚至會走上對抗人類之路。這種不確定性將使智能機器面臨的道德風險日漸凸顯。人類迫切需要確保智能機器的設計符合道德規(guī)范,即亟需創(chuàng)造出“道德機器”。伴隨著人工智能和機器人等技術取得的長足發(fā)展和進步,機器倫理的跨學科領域,諸如計算機信息科學、人工智能(AI)和機器人等現(xiàn)有的和未來的技術發(fā)展領域,幾乎都不可避免地面臨如何給智能機器進行倫理規(guī)則編程,以便使它們成為隱性或顯性的道德能動者 〔1 〕。蘇珊·安德森(Susan Anderson)將人工智能機器“合乎倫理”的目標定義為“創(chuàng)造一臺遵循理想倫理原則或一套指導其行為的倫理原則的機器;換句話說,在它針對可能采取的行動方案作出決定時,就是由這一倫理原則或這些倫理原則指導。簡單地說,這涉及到為智能機器增加倫理維度的問題” 〔2 〕22。未來出現(xiàn)完全自主的、類人化的、能夠進行倫理推理和決策的智能機器似乎是不可避免的。這里主要關注計算機信息科學、人工智能和機器人技術領域的研究人員和程序員在試圖構建這種道德機器時所面臨的倫理困境問題?;趯υ擃I域現(xiàn)有決策程序的回顧,人們發(fā)現(xiàn)這一領域的研究人員和程序員既沒有對倫理問題本身有足夠的理解,也缺乏足夠的倫理或道德哲學知識構建在倫理推理和決策方面可以與人類相媲美的道德機器。未來創(chuàng)造道德機器是完全可以想象的,對人類來說可能是一個有價值、有意義的巨大社會技術進步。然而,實現(xiàn)這一目標需要創(chuàng)造者具有相當?shù)膫惱砘虻赖抡軐W知識。智能道德機器的倫理決策應該基于避免不道德行為或禁止某些不道德行為,以及解決道德問題應建立在多元倫理方法基礎之上,而不是依賴于特定的倫理方法論來解決。

      一、創(chuàng)造智能道德機器的前提條件及其可能性

      (一)前提條件

      多數(shù)學者主張,智能機器能夠成為道德能動者最重要的前提條件是自主性。波克(Bekey)指出,自主性的概念可以定義為“機器一旦被激活并且至少在某些操作領域,以及在很長一段時間內和沒有任何外部控制的情況下,而且在真實世界環(huán)境中運行的能力” 〔3 〕18。這意味著,如果最大限度地提高機器在現(xiàn)實環(huán)境中的操作能力,人們就能創(chuàng)造出能夠執(zhí)行各種極其復雜任務的智能機器(Intelligent Robots),這些任務很可能是人類無法完成的。提高這種能力的方法是完善人工智能在機器人中的應用,即“讓機器做那些如果由人來做的話就需要智能的事情” 〔4 〕1。從技術層面上看,智能機器需要合適的算法并根據(jù)其所感知到的輸入信息來解決任何問題。然而,有人認為智能機器不能成為道德能動者,因為算法本身是有限的或確定性的。因此,機器缺乏自主性,而自主性本身通常被理解為是道德能動性的先決條件。如果智能機器必須按照一套固定的規(guī)則行動,那么它們就不能被視為道德能動者。這一反對觀點被長久而詳細地討論過,但在此需要強調兩點。首先,智能機器有可能從它們過去的經驗中學習,從而重新編程并改變它們的算法,并因此通過改變它們預先固定的規(guī)則集來適應新的可能情況。其次,許多從事跨學科和復雜自由意志問題研究的有影響力的哲學家和神經生物學家,都對機器是否具有類似人的自主性,以及自主性是否是道德能動者的必要前提表示存疑。為了證明道德機器永遠無法作出類似人類的自主性道德決策,反對者必須回應這兩種意見。但是,這種決定性的駁斥論據(jù)尚未提出。因此,基于自主性反對因智能機器算法的性質從而否定它們的道德能動性,這是無法令人信服的。因為它表明智能機器應該滿足道德能動性(自主性)的一個假定的必要先決條件,而道德能動性(自主性)的實現(xiàn)即使是對于人類本身也是存在爭議的。

      (二)可能性

      詹姆斯·摩爾(James H. Moor)在其頗具影響力的論文《機器倫理的本質、重要性和難題》中,對四種類型的道德能動者進行了重要的區(qū)分 〔1 〕。摩爾認為受道德因素影響的能動者是一種幫助道德能動者避免不道德行為發(fā)生的機器。他引用了機器人駱駝騎士來取代小男孩的例子,這些小男孩被當作奴隸而在比賽中騎駱駝?!坝嬎慵夹g通常具有重要的倫理影響。被機器駱駝騎士取代的年輕男孩被從奴隸制度中解放出來” 〔1 〕。內隱道德能動者是一種通過編程使其行為合乎道德,或通過遵循設計師所遵循的道德原則的編程來避免不道德行為的機器。而一個顯性的道德能動者實際上使用倫理原則來解決倫理問題。“一個完全道德的能動者能夠作出顯性的道德判斷,并且通常能夠合理地為其道德判斷辯護” 〔1 〕。顯性的道德能動者和完全道德能動者都使用倫理原則來作倫理決策,但只有后者才能為這些決策提供正當性辯護。大多數(shù)學者只提到這四種類型中的兩種(隱性和顯性)。因此,給人的印象是顯性道德能動者是道德能動者的主要方面。這是不全面的,因為它將討論局限于“有限的顯性道德能動者”,而不是完全的道德能動者。摩爾強調指出:“一個完全道德的能動者能夠作出顯性的道德判斷,并且通常能夠合理地為其道德判斷辯護。一個普通的成年人就是完全的道德能動者。人們通常認為人類具有意向性和自主性。機器能成為一個完全的道德能動者嗎?正是在這方面,關于機器倫理的爭論變得最為激烈。許多人認為在目前討論的機器倫理與完全的道德能動者之間存在一條清晰的界線。對他們來說,機器不能越過這條線,這條線標志著人類與未來可能出現(xiàn)的任何智能機器人之間本體論意義上的重要區(qū)別?!?〔1 〕摩爾認為,僅僅堅持通過哲學論證或實證研究,是不可能回答“機器是否會成為完全的道德能動者”這一問題的。因此,他建議考慮發(fā)展有限的顯性能動者。按照摩爾的說法,即使它們最終不能成為完全的道德能動者,它們仍然可以“幫助防止不道德的結果”,但即使是這樣,人類也不應該“對自己發(fā)展這類智能機器的能力過于樂觀” 〔1 〕。

      這種觀點面臨兩個問題。首先,從哲學或經驗的角度來說智能機器是否能成為完全的道德能動者,或者僅僅是人類目前無法做到這一點,這一問題總體上是不可能回答的。更樂觀的方法將只假定人類目前無法做到。其次,詹姆斯·摩爾的警示性聲明相當缺乏說服力。他曾警告即使創(chuàng)造出具有明確道德標準的機器,也許是不可能實現(xiàn)的。他提出的主要依據(jù)包括:(1)人類對倫理的復雜性主題只能實現(xiàn)有限的理解;(2)人類對學習現(xiàn)象,尤其是關于圖靈所設想的“幼稚機器”① 缺乏了解;(3)計算機缺乏常識和世界知識 〔1 〕。事實上,人們應該抵制這些異議,主要原因是技術發(fā)展的軌跡表明似乎很有希望。此外,許多人會爭辯說,盡管道德哲學本身仍然無可爭議地存在著尚未解決的復雜道德問題,但它在過去幾個世紀中也同樣取得了重大進展。然而,人們不應忽視關于道德進步這一富有爭議問題的兩個關鍵點。首先,制定道德規(guī)則將某些行為歸類為不道德,似乎比為所有人規(guī)定正確的道德規(guī)范更容易 〔5 〕。這是因為在現(xiàn)實生活中存在著多種生活方式,從這些生活方式中可能出現(xiàn)不同的規(guī)范行為,這些行為可以被視為同樣好或者至少在道德上不應受到譴責,而人們也可以確定一些被普遍認為不道德的特定行為,比如強奸、酷刑、盜竊和猥褻兒童。其次,不可否認,有些重要的道德發(fā)展的歷史可以說是人類的道德進步,比如廢除奴隸制、承認普世人權、公正的審判、犯罪與懲罰相匹配、性別平等和動物權利的認可,等等。道德進步的概念并不是說所有這些觀點都被所有人完全接受和承認,而是說在過去幾個世紀中,人類在這些問題上總體上取得了巨大的道德進步。

      因此,必須要認真考慮智能機器成為完全的道德能動者的可能性。未來如果智能機器變得更復雜、更強大和高度自治并被賦予無與倫比的人工智能,那么與此類機器的巨大自由相匹配的道德標準將是避免造成可能傷害的必要條件。

      二、創(chuàng)造智能道德機器的倫理困境

      計算機科學、人工智能、機器人領域的研究人員和程序員應該更加關注倫理推理和決策的方法論問題。在沒有正確理解的情況下,這些問題可能會阻礙他們創(chuàng)造智能道德機器的努力。由于諸多原因,試圖授權智能機器作出合理道德決策的方法難以令人信服,并時常會遭到部分學者的批評。這一批評并非暗示智能機器將永遠無法作出道德決定從而成為完全的道德能動者;相反,它意在表明,由于倫理推理和道德決策的復雜性,它們往往比人工智能研究人員和程序員最初可能認為得更加困難。然而,從長遠來看,沒有任何原則性的理由表明智能機器的倫理推理和道德決策不會最終成為現(xiàn)實 〔6 〕164。目前,智能道德機器創(chuàng)造中的倫理困境主要體現(xiàn)在以下幾個方面:

      (一)道德哲學知識缺失可能導致智能道德機器倫理假設偏誤

      由于在機器倫理領域工作的計算機科學、人工智能和機器人領域的研究人員和程序員等道德哲學知識的缺失,使得他們很有可能從錯誤的倫理假設出發(fā),在不可靠的基礎上確立他們創(chuàng)造道德機器的方法。例如,機器倫理研究領域著名學者安德森和安德森就發(fā)展了三個不同的應用程序:(1)解決倫理困境的醫(yī)學顧問系統(tǒng)(MedEthEx),(2)用于老年人的用藥提醒系統(tǒng)(EthEl),(3)場景化的老年人用藥提醒機器人。他們認為這是第一個遵循道德原則決策并決定行動需要的機器人的例子。然而,他們著名的醫(yī)療顧問系統(tǒng)(MedEthEx)建立在一些有爭議的主張之上,這些主張削弱了他們原本有趣的論述。他們指出,“因為從事生物醫(yī)學倫理學研究的倫理學家比其他領域的倫理學家之間擁有更多的共識,而且職責也更少,所以我們決定開始利用比徹姆和奇爾德里斯的生物醫(yī)學倫理學原則,開發(fā)我們的首要職責方法,從而對倫理進行計算” 〔7 〕。生物倫理學家承認他們的領域是所有應用倫理學中最復雜和最具挑戰(zhàn)性的領域之一,生物倫理學家之間嚴重缺乏道德統(tǒng)一性。此外,所建議的生物倫理學的方法,盡管已經被從業(yè)者和生物倫理學家廣泛運用了幾十年,但在規(guī)范和平衡的方法方面是復雜的,不容易運用。因此,克勞澤和哥特(Clouser and Ger)認為,邁克爾·安德森(M. Anderson)和蘇珊·安德森從誤導的假設出發(fā),使用了一個非??量糖腋叨葼幾h的理論。因此,她們危及了自己的項目,因為她們錯誤地判斷了生物倫理學領域目前存在的倫理復雜性,并高估了作為機器倫理模范作用的原則主義的能力 〔8 〕。在另一項研究中,蘇珊·安德森采用了另一種方法。她指出,由于對每個人而言倫理都太過復雜,以至于他們無法堅持簡單的絕對倫理理論,為此,她建議從特定的案例入手,最終“以一種允許自動分析的方式使用大量案例”。從這些信息中,可能會出現(xiàn)普遍的倫理原則” 〔2 〕25。然而,她自己基于羅斯(Ross)的多重首要責任的方法,最終面臨著如何能在相互沖突的責任之間作出合理決策的問題。此外,她建議在創(chuàng)造“道德機器”之前,先從充當“道德顧問”的機器著手,因為后者要求“對機器本身的狀態(tài)作出艱難的判斷” 〔2 〕26。誠然,一個人可以因此避免關于智能機器的道德地位和道德權利界定的難題,但一個人越早開始思考這些問題,當時機到來時他的應對之策就會越充分。此外,麥克萊倫(McLaren和托倫斯(Torrance)等人也支持使用機器作為道德顧問的想法 〔9 〕310-312。例如,托倫斯認為,如果我們能創(chuàng)造出這樣的機器,人們也會學到一些關于人類道德的東西,并且總體來說,這些機器對人類是有益的和有教育意義的 〔10 〕。

      (二)倫理理論多元加大了倫理共識達成的難度

      許多倫理理論已經被廣泛被用來解決道德問題,其中最突出的是美德論、義務論、功利主義、決疑論和契約論。目前,在創(chuàng)造智能道德機器的過程中,倫理學家對于究竟使用哪種倫理理論尚未達成共識。倫理學家在處理道德問題時也會從不同的方法中作出選擇。這種多元論在機器倫理的研究方法(比如機器倫理框架建構)中同樣面臨著類似的困境問題 〔11 〕。智能機器將比人類更善于作出道德決定的基本觀點至少面臨兩個問題。首先,在宣稱機器可以在道德上作出更好的決定之前,人們必須有一個正確的倫理方法,它需要比其他現(xiàn)有的理論更好②。其次,許多道德問題可能同樣有好處,但也必須考慮到不同的決定(例如,相同的道德問題可以在不同的文化背景下以不同的方式得到充分解決)。此外,當涉及倫理學多元論時,避免極端的道德相對主義,并接受所有人都承認的普遍道德準則的堅強核心(例如,一個人不能謀殺或強奸、侮辱他人或侵犯他人權)似乎是合理的。在這一道德準則核心之外,只要這些特定的準則不與普遍準則的核心或國際人權的共同話語相沖突,人們就應該根據(jù)他們在特定社會中的特定道德自由行事。這一觀點在麥克林對道德相對主義問題的精辟描述中得到了進一步的證實:“長期以來,圍繞倫理道德是否與時間和空間有關的問題一直存在爭議。一方認為,普遍倫理準則沒有明顯的來源,倫理的對錯是其文化和歷史背景的產物。反對者則聲稱,即使一套普遍的倫理規(guī)范尚未被闡明或達成共識,倫理相對主義也是一種有害的學說,必須予以拒絕?!?〔12 〕4

      (三)“電車難題”造成倫理決策困境

      一個基本的決策涉及是否采用類似新康德主義的方法或享樂主義、功利主義的方法來解決道德問題。當人們考慮著名的道德困境即所謂的“電車難題”時,這兩種對立的方法之間的道德差異就變得顯而易見了。標準版的“電車難題”是說一輛有軌電車失去了控制,即將造成五人死亡。有軌電車可以通過改變鐵軌上的道岔來改變方向。然而,這樣會導致一名工人被重新改變了方向的電車撞死。為了挽救五個人的生命而使鐵軌改道,從而造成一名工人的死亡,在道德上是否允許?根據(jù)康德的觀點,如果不改變電車的方向,任何人都不能為了救那五個人而危害那一位工人。從功利主義的觀點來看,一個人必須考慮他的行為的后果和總效用,即對大多數(shù)人來說有最大的好處,因此他必須改變電車的方向。這兩種倫理理論最終導致了不同的解決方案。從特定理論的角度來看,每一種方案都是合理的。也就是說,如果機器運用一種新康德主義的方法,它將作出與功利主義道德理論的機器不同的倫理決策。當然,人類也面臨著同樣的道德困境,目前還沒有其他的根據(jù)來確定一個理論是錯誤的,而另一個理論是正確的。人類的生活本來在道德上是復雜的,當然不能用一個簡單的公式來計算。因此,道德機器必須能夠以符合公正和道德自身深度的方式來對待和處理這類具體案例。有人可能會反對,認為在這個時刻機器人沒有必要來決定這種道德困境。但考慮到目前無人駕駛汽車③ 和無人駕駛火車系統(tǒng)的發(fā)展,這種反對意見是有問題的,因為這兩種系統(tǒng)可能恰恰面臨如此復雜的道德決策。在這種進退兩難的情況下,智能機器最終是否能找到比人類更佳的道德解決方案還有待進一步觀察。

      (四)人工智能的法律應用存在機器偏見

      另一個復雜因素涉及智能技術在法律領域的應用。許多人預測人工智能法官的最終出現(xiàn),他們將像評判其他智能機器一樣評判人類。即使他們先進的編程能夠潛在訪問世界上所有可用法律文件,包括法律評論、先前的判例和復雜的法律策略。但至少在某種程度上,這些程序如何在法律辯護和起訴團隊之中相互影響,仍然是一個懸而未決的問題。這在很大程度上將取決于人工智能程序使用的基本數(shù)據(jù)是如何準備的,以便避免所謂的法律上的機器偏見。目前,“AI法官”仍然是一個思辨的概念,但人工智能程序在法律上的應用已經發(fā)生。例如,有一些人工智能程序能夠決定歐洲人權法院 〔13 〕和美國最高法院 〔14 〕的法庭判決。此外,一些人工智能程序正在幫助美國部分州的法官評估某個人再次犯罪的可能性。這種風險評估在決定是否釋放罪犯或嫌疑犯,或將其關押在監(jiān)獄中是極為重要的。然而,事實證明這種人工智能風險評估對某些種族有很強的道德偏見,因此被證明是不公平的。不幸的是,美國許多州的法官仍在根據(jù)這些項目作出裁決。機器偏見是一個嚴重的道德問題,作為人工智能領域的程序員必須密切關注它,以避免創(chuàng)造出對某個群體不利的智能機器。

      (五)倫理方法論的多元性造成正當性辯護與道德行為選擇困難

      倫理學中許多方法論問題,即使是倫理學家也沒有徹底解決。其中有兩個長期存在的方法論問題,它們對創(chuàng)造道德機器的努力具有極其重要的意義。

      首先,正當性辯護的多元方法論問題。正當性辯護問題產生于這樣一個基本事實,即目前沒有被廣泛認為通向道德途徑的唯一正確的終極倫理理論。從經驗層面上來講,一個人在擔任某倫理委員會成員時,可以經常就共同商定的解決方案與成員們提出的各種辯護理由之間的差異提出有趣極其重要的意見。通常,倫理委員會的決定是相當統(tǒng)一的,但倫理委員會的成員往往為他們的決定提供各種不同的辯護理由。這一結果表明,不同的倫理理論或觀點在它們對許多道德問題的看法上是重疊的,即使它們運用的論證路線完全不同。當然,有人可能會反對說,倫理委員會一般都在尋求最佳的務實決策,而“標準的”道德推理和倫理決策則與正確的道德決策有關,它不受任何可能有利于更務實解決方案的外部因素的影響。因此,倫理委員會的目標往往是雙重的,即在其道德決策過程中找到最佳可行和最務實的解決方案。這里的關鍵是人工智能研究人員或程序員必須意識到,在為道德機器編程時,不同的倫理理論往往會基于不同的原因而提供道德決策。為了避免倫理上的偏見,似乎有必要創(chuàng)造道德機器。從不同的倫理角度、使用多種倫理理論來考量現(xiàn)實道德問題,然后在確定和考量了所有可能的問題之后,作出一個平衡的道德決策。因此,這兩種倫理理論可能會基于各自不同的核心價值觀而得出不同的道德結果。因此,一些道德哲學家如布羅迪(Brody)和戈登(Gordon)提出了基于幾個倫理學關鍵概念的更加多元化的方法,以便避免道德決策中的理論偏見 〔15 〕32 〔16 〕11-20。這一推論表明,為了在理論上不偏不倚,機器倫理應該使用一種為道德生活的復雜性進行變化的方法。

      其次,避免不道德行為的多元方法論問題。如果多元論確實存在于倫理學領域,人們應該盡量避免作不道德的事情,而不是試圖在給定的情況下尋求道德上完美的解決方案。這些倫理學的方法論困境在人工智能機器(比如無人駕駛汽車)的倫理選擇中也造成了現(xiàn)實困境 〔17 〕。尋求創(chuàng)造道德機器的計算機信息科學、人工智能和機器人領域的研究人員和程序員必須清楚地理解這些道德方法論問題,否則要創(chuàng)造出智能道德機器注定是無法實現(xiàn)的。正如戈登所指出的,“為了更好地理解不應該做什么,機器倫理應該關注各種倫理方法之間的相似性。換句話說,人們應該嘗試更詳細地闡明道德能動者應該如何行動,而不是他們應該避免做什么” 〔5 〕。這種方法在道德增強的背景下有一個類比,其中提出了一個類似的問題,即為了使人類更有道德,究竟應該使用哪種倫理方法作為默認的道德立場。對這個問題一個合理的回答是嘗試就“我們在道德生活想要避免的一系列有約束力的事情” 〔5 〕達成一致。同時,創(chuàng)造出允許它們在不同類型但同樣可接受的道德解決方案的框架內作出道德決策和采取相應的行動機器。畢竟,這似乎是目前人們在機器倫理領域所能期望的最好結果。在這一點上,人類的道德與機器的道德有些不同,因為人類通常是在“如何過一種善的生活”這個更基本問題的背景下作出道德決定的。另一方面,機器可以獨立于人類意義、成就或幸福的考慮來解決具體的道德問題。這兩種觀點最終會產生不同的結果還是實際上彼此一致,這完全是另一回事。人們可以相當合理地認為,人類的道德是由這樣一種假設所豐富和塑造的:人類的生活因其存在性(例如,他們對充實、幸福生活的渴望)而具有比智能機器更深層次的意義。因此,人們可以有理由認為人類的道德超越了簡單的“避免不道德行為”的動機,因為人類也想過一種善的生活。至少在不久的將來,機器將無法提出這樣的生存論問題,也無法相應地安排它們的生活。因此,智能機器的倫理推理和道德決策缺乏這種額外的存在主義視角。應該看到,這里所討論的想法并不容易實現(xiàn)。然而,應該清楚的是對一種能夠使智能機器作出道德決策或甚至道德上最好決策的終極機器倫理的尋求,是建立在尋求一種反過來也可以用于機器的終極道德理論基礎的更廣泛的努力之上的。蘇珊·安德森認為機器倫理可能帶來人類的道德進步:“我相信機器倫理研究有潛力取得道德理論上的突破,它帶來普遍接受的倫理原則與道德機器交互可能激發(fā)我們使自己的行為更道德?!?〔6 〕524然而,目前還沒有這樣的終極道德理論能夠充分捕捉到人類道德生活的全部復雜性(更不用說像動物、自然和人工物這樣的非人類實體了)。因此,人們應該對道德及其發(fā)展采取一種更加溫和的態(tài)度,并把試圖避免不道德行為作為出發(fā)點,以及使用多元倫理方法而非單一道德理論來解決道德問題。

      三、創(chuàng)造智能道德機器倫理困境的破解之策

      對人類生存和發(fā)展來說,人工智能的應用意味著一場有著深刻影響的社會道德試驗。針對人工智能應用過程中的潛在社會道德和法律風險,國際社會在“如何創(chuàng)造智能道德機器”這一問題上提出了一系列嘗試控制智能機器的方案并逐漸達成了共識:借助智能算法把人類的道德價值觀念和倫理準則“嵌入”到智能機器之中,以此讓它們具有和人類類似的道德感、羞恥感、責任心和同情心等倫理道德。為此,人類迫切需要借助算法把人類的價值觀、道德準則和倫理規(guī)范等“嵌入”智能機器中,以便讓智能機器能夠在現(xiàn)實的人工智能應用場景中,作出道德推理和倫理推理。針對智能機器既有道德決策方法的缺陷和創(chuàng)造智能道德機器過程中面臨的突出倫理困境,可以嘗試從以下幾個方面著手解決:

      (一)實現(xiàn)道德哲學與人工智能的融合發(fā)展

      創(chuàng)造智能道德機器離不開必要的道德哲學或倫理學理論知識。從某種意義上來說,創(chuàng)造智能道德機器的過程就是計算機科學、人工智能和機器人領域的研究人員和程序員運用道德哲學或倫理學專業(yè)知識的過程。然而,目前這一領域的人員普遍缺乏相關的道德哲學和倫理學理論知識。為此,需要不斷增加對人工智能、機器人和計算機科學等領域道德哲學知識的供給力度,實現(xiàn)道德哲學與人工智能的融合發(fā)展。

      一是面對人工智能和智能機器人技術的廣泛應用,倫理學家需要深入研究和探討這一領域涉及的突出道德問題,在此基礎上提出切實有效的引領智能時代發(fā)展進步的倫理準則和道德指南,使人工智能的工程技術人員在創(chuàng)造智能道德機器過程中做到“有章可循”。

      二是作為人工智能的研究人員和程序員,也有必要積極向倫理學家尋求幫助,學習掌握必要的道德哲學和倫理學知識。因為創(chuàng)造智能道德機器的任務最終要由人工智能研究人員和程序員來落實。

      三是可以考慮在未來計算機科學、人工智能和機器人等相關專業(yè)中開設工程倫理課程,有目的、有計劃地對這些相關專業(yè)人員進行倫理學和道德哲學知識的教育。注重對相關領域人員開展計算機信息倫理、工程倫理專業(yè)知識的培訓,甚至可以考慮在相關職業(yè)資格考試中加大倫理專業(yè)知識的考核內容和力度。

      (二)重新審度倫理自身的合理性,在多元價值中達成倫理共識

      在智能革命時代,創(chuàng)造智能道德機器的必要前提之一是倫理共識的達成。而要達成這種倫理共識,不只是要為智能機器“增加倫理維度”以便作出道德決策和推理的問題,同樣也有必要重新審度倫理自身的合理性與時代性。智能革命時代的技術變革正深刻影響著人們的生活世界和交往方式。面對這種由于技術革命而深刻變化的生活世界與交往方式,倫理自身的合理性與時代性也備受質疑。從智能時代的技術進步和倫理重建的互動角度需要對下述問題進行深入思考:

      一是倫理究竟在何種意義上可以擔當智能機器決策的裁判者?倫理對于人工智能技術的規(guī)制是以善匡正真。倫理并不能直接裁判技術本身的善惡,也就無法裁判何種技術是否合理。倫理對人工智能本身的裁判,著眼點是人工智能應用的合倫理性。

      二是倫理本身能否為人工智能發(fā)展和應用劃定禁區(qū)?一種觀點認為人工智能發(fā)展和應用具有禁區(qū),倫理能夠為其劃定“不可逾越的倫理禁區(qū)”。也有學者認為人工智能禁區(qū)這一說法具有歧義性,必須具體分析它是在何種意義上而言的。由技術成熟度所決定的科學意義上的禁區(qū),倫理沒有資格為其設定禁區(qū)。倫理意義上的“禁區(qū)”指的是人工智能應用的特殊倫理規(guī)定,即只能從善,不能作惡。

      三是究竟是人工智能背離了倫理,還是倫理離開了人工智能?不僅人工智能應用應當從倫理獲得合理性辯護,倫理自身是否合理也應當從現(xiàn)代技術獲得某種道德辯護。這種辯護并非直接通過技術方式給予直接證明,而是考量它能否為技術進步與人的自由而全面地發(fā)展提供價值指導。倫理必須從人的生活世界獲得合理性證明。如果一種倫理不但不能促進反而阻礙現(xiàn)代技術進步與人的自由而全面發(fā)展,這種倫理的合理性是值得存疑的。

      當今多元社會更加離不開共識,否則人類社會必將由于紛爭而走向分裂。自由、平等、人權等都是現(xiàn)代社會的最基本價值。正是這些最基本的價值支撐著整個現(xiàn)代社會的大廈?,F(xiàn)代社會的價值基礎都是多元的,它們具有家族相似性,多元社會的價值共識本質上就是家族相似性的共識。這種家族相似性共識具有幾種屬性:(1)多元社會的基本價值具有家族相似性,它們都是現(xiàn)代人類社會不可或缺的。多元共識指的就是對自由、平等、人權這類價值的認同。(2)具有普遍性的基本價值總是以具體的形式呈現(xiàn)出來,并依托具體語境而存在。它們都具有其正當性與合理性,相互之間具有家族相似性。對基本價值的認同,并不意味著人們對同一具體問題必定會有完全一致的價值判斷。(3)多元社會的價值共識包括豐富的差異性,是建立在差異性基礎上的價值共識,而不是毫無差別的同一。(4)由家族相似性所決定的基于基本價值的具體判斷都具有某種合理性與正當性,應當彼此兼容。彼此兼容的具體價值認識者之間要實現(xiàn)行動上達成一致就離不開平等對話基礎之上的民主政治。要確保人類社會的健康發(fā)展和不斷進步,起碼需要形成道德和法律上的共識。因此,可以說道德是人類高層次的共識,法律是最低限度的共識。在當代社會,人們更加重視通過平等的批判性、開放性的討論而形成、檢驗“共識”。在多元社會中,人們普遍重視工具性價值和現(xiàn)實性因素而淡化終極性價值和理想性因素,這就使得多元社會中達成價值共識變得更加困難。所以,任何倫理共識都具有局限性,都是相對的。

      (三)構建面向智能機器本身的可執(zhí)行倫理機制

      將人類的倫理準則“嵌入”機器,從而進行道德決策和倫理推理,被認為是創(chuàng)造智能道德機器的可行策略。阿西莫夫曾經提出為機器人“內置倫理調節(jié)器”以使它服從某種倫理命令的設想,并在此基礎上提出了“機器人三定律”:(1)機器人不得傷害人類或坐視人類受到傷害;(2)在與第一定律不矛盾的前提下,機器人必須服從人類的命令;(3)在不違背第一、二定律的前提下,機器人有義務采取自我保護。為了克服第一定律的局限性,他后來提出了第零定律,即機器人不得危害人類整體利益。從內容上看,機器人定律是一種康德式的道德律令;從形式上看,它也是通過技術實現(xiàn)的。阿西莫夫認為,機器人定律是“嵌入”到機器人“大腦”中的“電子指令”:每個定律一旦被觸發(fā),都會在其“大腦”中產生相應的電位,最為優(yōu)先的第一定律產生的電位最高。這表明機器人定律也符合其技術背后的自然律,而并非完全屬于道德律令。機器人定律是人以技術為尺度為機器人設定的行為準則。它為擺脫“弗蘭肯斯坦情結”和“機器人造反”提供了可執(zhí)行的方案,即通過工程技術上的倫理設計來規(guī)制機器人行為選擇,使其成為道德機器。

      創(chuàng)造智能道德機器,就是要構建面向智能機器本身的可執(zhí)行倫理機制,使其能自主地進行道德推理和倫理決策。從現(xiàn)代技術哲學經驗轉向的視角來看,智能機器的倫理反思應該基于對智能機器技術本身的理解,這就為建構一種面向智能機器本身的倫理框架和機制提供了方向。鑒于現(xiàn)有技術限制,要在智能機器中嵌入倫理,只能訴諸智能機器可執(zhí)行的“機器代碼”,并將負載著人類價值內涵的道德代碼“嵌入”機器,使其成為智能機器可計算、可執(zhí)行的算法。當前機器倫理研究就是將“可計算的倫理”付諸實踐。比如,把功利論、道義論、美德論等轉換為“算法和邏輯”。那么,如何在計算過程中準確表達倫理范疇?如何使智能機器準確地理解自然語言?鑒于創(chuàng)造智能道德機器實踐中的倫理困境,智能機器的倫理嵌入不應僅僅局限于機器自身,必須把人的主導作用納入其中。

      具體到自動駕駛系統(tǒng)來看,盡管關于“電車難題”等倫理問題的共識在增強,如IEEE和歐盟都在積極制定人工智能倫理準則,但到目前為止尚未有一個廣泛認可的有效解決路徑。應該承認,探索人工智能倫理問題的解決路徑需要聆聽倫理學家的聲音。但當技術專家把倫理決策的重任托付給倫理學家時,我們發(fā)現(xiàn)倫理學家其實難以決定到底“電車難題”場景中自動駕駛汽車應該撞向誰。事實上,倫理學家也無權作出這樣的倫理決策并支撐起整個社會關于自動駕駛的倫理體系。如果智能機器與倫理能夠集成為一個整體,即融合成一種面向智能機器本身的倫理框架,或許在很大程度上能夠克服這一倫理決策困境。此外,我們還應該看到,“電車難題”本身在倫理問題的思想實驗、收集證據(jù)的方法、闡明倫理困境方面是有積極作用的,但當涉及自動駕駛汽車的道德規(guī)范時,它們的用處是有限的。對“電車難題”的考量并不構成自動駕駛汽車倫理準則的核心,在對自動駕駛汽車涉及的倫理問題進行反思時,應更多地關注現(xiàn)實情況。

      四、結論

      未來很可能出現(xiàn)一種道德機器,它能夠在沒有任何人類監(jiān)督的情況下自主地進行倫理推理和道德決策。然而,最近的機器人倫理學研究表明,計算機信息科學、人工智能和機器人技術領域的研究人員和程序員需要向倫理學家尋求建議,以便避免作為新手可能會犯的錯誤,更好地理解倫理學中根深蒂固的方法論問題。如果他們不適當?shù)靥幚磉@些問題,創(chuàng)造公正的智能道德機器的所有努力都將受到嚴重破壞。如何判斷哪些行為在道德上是正確的和正當?shù)模侨藗內粘5赖律钪凶罾щy的問題之一。理解這些道德決策所涉及的倫理困境并盡力克服和破解,對于創(chuàng)造智能的、人性化的、公正的道德機器是絕對必要的。

      對于如何實現(xiàn)智能機器的道德決策,學界已經提出了一些不同的道德決策方法:自下而上的方法,比如決疑論、美德倫理等;自上而下的方法,比如MoralDM、首要職責、道義論、神圣命令倫理等;混合方法,比如道德推理方法、基于網絡的方法、佛教的方法等。但是,智能機器的這些道德決策方法仍然存在著明顯的缺陷。決疑論系統(tǒng)面臨因缺乏適當?shù)姆答伜痛_切的表達而重新分類的問題。基于網絡的通用信念檢索能動者方法提供了一種基于人類的通常行為(包括不道德的行為)的多數(shù)決策原則。從道德的角度來看,在倫理上依賴多數(shù)決定程序的想法不僅具有誤導性,而且永遠不能被認為是道德推理和決策的恰當手段。MoralDM方法利用實證研究來反映人類道德決策的外部策略模型,往往只考慮那些與大多數(shù)人類主體一致的決策是正確的,這不僅是一種誤導而且存在著嚴重缺陷。

      人們有理由堅信,借助于對道德哲學更全面的理解,是可以避免智能機器道德決策的倫理困境的。解決問題的唯一辦法是人工智能研究者、工程技術人員與道德哲學家密切合作,嘗試創(chuàng)造智能道德機器并建構起面向智能機器本身的倫理決策機制,盡管這些嘗試任重而道遠。

      注 釋:

      ①艾倫對所謂道德圖靈測試的想法是如果機器對道德困境給出正確的答案,并為自己的主張?zhí)峁┻m當?shù)睦碛?,那么,它們就算是通過了測試。

      ②缺陷與偏見、自私、偏袒、意志薄弱并被情感所左右這一事實有關。

      ③麻省理工學院的媒體實驗室開發(fā)的可編程“道德機器”就涉及在汽車剎車失靈的情況下,自動駕駛汽車由誰來決定?這是一個收集人類對智能機器(如自動駕駛汽車)做出道德決策的看法的平臺。無人駕駛汽車必須兩害相權取其輕,例如殺死一名乘客或五名行人。作為一個外部觀察者,你會判斷哪種結果更容易被接受。然而,麻省理工學院的試驗并不涉及汽車協(xié)同工作,而是單獨進行或者以人機交互的方式進行。自動駕駛汽車可能最終會成為一個更大系統(tǒng)的一部分,在這個系統(tǒng)中,機器之間將相互通信,從而比機器單獨運行時更全面地解決即將出現(xiàn)的問題,尤其是在自動駕駛的環(huán)境中。

      參考文獻:

      〔1〕Moor, J. H. The nature, importance, and difficulty of machine ethics〔J〕. Research Gate,2006(21):18-21.

      〔2〕Anderson, S. L. Machine metaethics. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

      〔3〕Bekey, G. A. Current trends in robotics: Technology and ethics. In P. Lin, K. Abney, & G. Bekey (Eds.), Robot ethics: The ethical and social implications of robotics〔M〕. Cambridge, MA: MIT Press,2014.

      〔4〕Copeland, J. Artificial intelligence: A philosophical introduction〔M〕. Oxford: Wiley,1993.

      〔5〕Gordon, J.S. Should moral enhancement be compulsory?〔J〕.Ethical Perspectives, 2016(23):277-305.

      〔6〕Anderson, S. L.Philosophical concerns with machine ethics. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

      〔7〕Anderson, M & Anderson, S. L. Machine ethics: Creating an ethical intelligent agent〔J〕. AI Magazine, 2007(28):22.

      〔8〕 Clouser, K. D, & Gert, B. A critique of principlism〔J〕. Journal of Medicine and Philosophy, 1990(15):219-236.

      〔9〕McLaren, B. M. Computational models of ethical reasoning: Challenges, initial steps, and future directions. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

      〔10〕Torrance, S. Ethics and consciousness in artificial agents〔J〕. AI & Society, 2008(22):495-521.

      〔11〕蘇令銀.倫理框架的建構:當前機器倫理研究面臨的主要任務〔J〕.上海師范大學學報,2019(01):76-86.

      〔12〕Macklin, R. Against relativism. Cultural diversity and the search for ethical universals in medicine〔M〕. New York: Oxford University Press,1999.

      〔13〕Aletras. N,Tsarapatsanis,D. Preotiuc-Pietro, D, &Lampos, V. Predicting judicial decisions of the European Court of Human Rights: A natural language processing perspective〔J〕. PeerJ Computer Science, 2016(02):1-19.

      〔14〕Katz, D. M, Bommarito, M. J, II, & Blackman, J. A general approach for predicting the behavior of the Supreme Court of the United States〔J〕. PLoS ONE, 2017(12):1-18.

      〔15〕Brody, B. Life and death decision making〔M〕. Oxford: Oxford University Press,1988.

      〔16〕Gordon, J. S. Ethics as a method. In J. Schildmann, J. S. Gordon, & J. Vollmann (Eds.), Clinical ethics consultation: Theories and methods, implementation, evaluation〔M〕. London: Routledge,2016.

      〔17〕蘇令銀.能將倫理準則嵌入人工智能機器嗎?〔J〕.理論探索,2018(3):38-45.

      責任編輯 蘇玉娟

      猜你喜歡
      倫理困境
      翻譯職業(yè)道德準則的倫理困境
      腦機接口技術:倫理問題與研究挑戰(zhàn)
      基層公務員政策執(zhí)行過程中倫理困境及對策
      潛在舉報人秩序遵循倫理困境分析
      本土文化視角下人力資源管理倫理困境的研究
      醫(yī)務社會工作者介入癌癥患者知情權引發(fā)的倫理困境及對策
      青年時代(2016年29期)2016-12-09 21:17:02
      寧養(yǎng)社會工作服務中的倫理困境及反思
      人間(2016年26期)2016-11-03 16:19:52
      社會工作的倫理道德觀
      商(2016年21期)2016-07-06 14:06:59
      小說《羚羊與秧雞》中生態(tài)災難背后的倫理困境
      關于高校心理咨詢教師倫理問題的思考
      襄樊市| 普兰县| 天气| 北辰区| 长治市| 富阳市| 太原市| 景宁| 旌德县| 宣恩县| 鹤峰县| 安康市| 治县。| 泰兴市| 内丘县| 武隆县| 丽水市| 河池市| 保定市| 平原县| 博客| 滨州市| 新竹市| 鄄城县| 囊谦县| 图们市| 乌拉特前旗| 武平县| 松江区| 柳河县| 娱乐| 岑溪市| 咸丰县| 砚山县| 广丰县| 平凉市| 中方县| 渭南市| 南昌市| 霍城县| 洪江市|