周麗昀
當(dāng)前,人工智能技術(shù)的發(fā)展與應(yīng)用對人的發(fā)展和人類社會帶來了巨大挑戰(zhàn)。人工智能不僅具有工具性價值,而且對我們理解很多問題也有前提性的形而上的意義。人工智能哲學(xué)是對人工智能思想的思想,人工智能倫理的研究目標(biāo)似乎不應(yīng)是解決人工智能相關(guān)的具體倫理問題,而是要改變和創(chuàng)新提出問題的方式。在展開進(jìn)一步的討論之前,對人工智能倫理研究進(jìn)行回溯是必要的:當(dāng)前的研究主要探討了哪些問題,有哪些共識和困難,又該如何展開?這需要對人工智能倫理研究本身進(jìn)行哲學(xué)式的前提反思和理論批 判。
人工智能倫理是科技倫理的一部分。從狹義層面來說,人工智能倫理指的是人工智能自身的倫理問題,從廣義的層面來說,指的是人工智能的應(yīng)用引發(fā)的一些倫理問題。當(dāng)前,無論是政府、企業(yè)還是學(xué)界,都提出了很多關(guān)于人工智能倫理的說法。厘清相關(guān)討論的路徑、焦點(diǎn)和挑戰(zhàn),才能為進(jìn)一步的理論和實(shí)踐探索掃清障礙。基于歷史和邏輯相一致的原則,我們不妨借助本體論、認(rèn)識論、方法論和價值論的理論框架,來廓清人工智能倫理研究的主要面 貌。
1956 年,約翰·麥卡錫(John McCarthy)第一次創(chuàng)造了“人工智能”一詞,之后相關(guān)討論從未停止。人工智能的發(fā)展大概經(jīng)過了三個重要的階段:第一階段是通過機(jī)器模擬人類智力的水平來提高生產(chǎn)力;第二階段是實(shí)現(xiàn)機(jī)器的全智能化,并逐步替代人類的參與;第三階段是智能機(jī)器可以創(chuàng)造機(jī)器,虛擬分身大量普及,使每一個人具有增強(qiáng)智能,“‘增強(qiáng)智能’是人類智能和機(jī)器智能的結(jié)合”,這可能會產(chǎn)生超級智能,重構(gòu)人與機(jī)器共存和協(xié)同的社會秩序。隨著人工智能的推進(jìn),人是什么、機(jī)器是什么必然會成為繞不開的追問。人之為人的根據(jù)是什么?機(jī)器是否具有意識和自主性?對這些問題的回答,都將在很大程度上決定是否可以構(gòu)建真正的人工智 能。
對人的理解主要有本質(zhì)主義和非本質(zhì)主義兩種:本質(zhì)主義以二元論為基礎(chǔ),這種思路保證了人在理解變動不居的世界時對自身完整性、獨(dú)立性以及精神價值的確證,是近代科學(xué)得以成型的思想基礎(chǔ)。但非本質(zhì)主義也一直如影隨形,從斯賓諾莎的泛神論到謝林和黑格爾的大全思想,從胡塞爾的生活世界到梅洛—龐蒂的知覺場——總有哲人試圖彌合二元論帶來的身心分離,消解本質(zhì)主義帶來的思想禁錮。可以說,對人的本質(zhì)主義和非本質(zhì)主義的理解構(gòu)成了一項(xiàng)跨越數(shù)千年的辯證運(yùn)動,并最終在20 世紀(jì)通過科學(xué)技術(shù)這種現(xiàn)實(shí)形式凸顯出來。人有無永恒的本質(zhì)以及技術(shù)對人而言意味著什么等問題也在這樣的背景下得以揭 示。
人與技術(shù)的相互依存由來已久,但是在人工智能以及基因工程技術(shù)飛速發(fā)展之前,人和機(jī)器的區(qū)分并不是問題。隨著技術(shù)的發(fā)展,尤其是知識和技術(shù)內(nèi)化到人的身體中,成為身體的一部分,人和機(jī)器的界限就變得模糊起來。那么,是什么使得“我”跟其他人或者物區(qū)分開?是什么構(gòu)成了我們的身份認(rèn)同?關(guān)于這個問題,可以借鑒著名的“忒修斯之船”這一思想實(shí)驗(yàn):博物館里有一艘船,有些部分開始腐爛,壞掉的部分被逐一替換,直到所有的部分都被替換掉,那么,這還是同一艘船嗎?從什么時候起,我們就認(rèn)為被替換的船不是原來的船了?另外,假如將被換掉的部分重新拼成一艘船,那我們該認(rèn)為哪一艘才是原來的船?“忒修斯之船”對部分與整體的關(guān)系或者同一性問題進(jìn)行了質(zhì)疑。人工智能目前的發(fā)展還不足以完全替代人,但是,機(jī)器接管到什么程度,機(jī)器就不是機(jī)器,人就不是人了呢?如何區(qū)分哪是人工智能(AI),哪是我(I)?
另外,如果人通過智能機(jī)器來控制機(jī)器,又會發(fā)生什么呢?有一個與之相似的帕菲特思想實(shí)驗(yàn):假定將來會有一個傳送機(jī),這個遠(yuǎn)程運(yùn)輸裝置就會在你毫無痛苦的情況下,把你的細(xì)胞進(jìn)行拆解并掃描,并把相關(guān)數(shù)據(jù)傳送到火星,在那里用相關(guān)設(shè)備接收數(shù)據(jù),再組建成一樣的人,那么火星上的人會是另一個自己嗎?“帕菲特讓我們想象兩種不同類型的傳送機(jī)。一種在掃描他的同時摧毀他,另一種則不摧毀他。它們都利用掃描到的信息創(chuàng)造出了他的復(fù)制品?!边@種“二重身”似乎只是想象,但是放在人與機(jī)器的關(guān)系上,這個問題的討論就顯得很有必要了。假如我們是機(jī)器,我們能造一臺同樣的機(jī)器嗎?如果我們真的造出來,它會有自己的思維和意志嗎?兩者具有人格同一性嗎?未來的智能機(jī)器只是存在于這個世界上,還是在體驗(yàn)這個世界?它是否既具有自知又能夠反思這種自 知?
在人機(jī)關(guān)系與身份認(rèn)同方面,如果我們想去追究人機(jī)的區(qū)分,應(yīng)該怎么去理解呢?研究者經(jīng)常拿人工智能和人類智能作比較,認(rèn)為人工智能來自于機(jī)器對思維的模擬,而人類智能卻大不相同。從本體論上看,人是碳基的,機(jī)器是硅基的;從自我意識的角度,我們可以體驗(yàn)這個世界,而機(jī)器卻只能測量它。而人之所以能體驗(yàn),是因?yàn)槿擞猩眢w,可以感知意義。人的思維是與身體結(jié)合在一起的,并且被牢牢固定在身體內(nèi),而機(jī)器智能卻可以完全脫離身體存在,并且還可以同時在多個地點(diǎn)進(jìn)行復(fù)制。除了身體,環(huán)境也成為延展認(rèn)知和思維的一部分,這些環(huán)境是由人、機(jī)器以及一些倫理規(guī)則和制度等共同構(gòu)成的。1991 年,人類學(xué)家唐納德·布朗(Donald brown)在《人類共性》一書中指出:“人類的共性包括文化、社會、語言、行為和心靈的特征,沒有已知的例外。”基于關(guān)系主義的視角,似乎可以理解,機(jī)器人的意義不在于機(jī)器人本身的表現(xiàn),也不在于人類的想象,而在于具體的人機(jī)關(guān)系及其運(yùn)行環(huán)境。往往使許多機(jī)器的應(yīng)用得以實(shí)現(xiàn)的不是更加先進(jìn)的人工智能技術(shù),而是結(jié)構(gòu)化程度更高的環(huán)境,真正能夠完成一些機(jī)器智能的目標(biāo)是人和結(jié)構(gòu)化環(huán)境互相作用的結(jié) 果。
馬克思曾說,人的本質(zhì)是一切社會關(guān)系的總和。當(dāng)今時代,人與機(jī)器的聯(lián)結(jié)越來越緊密,以致出現(xiàn)了人的機(jī)器化和機(jī)器的人化。人的機(jī)器化是指人的認(rèn)識訴諸理性、邏輯性以及確定性追求,通過計算和邏輯,使人類達(dá)到機(jī)器思維的準(zhǔn)確性和可控性。隨著身體的技術(shù)化,技術(shù)可以對人的身體進(jìn)行替代、延伸甚至是重組,我們的身體不只是自然生產(chǎn)的,還可能是技術(shù)制造出來的,人有機(jī)器化的趨勢,這對傳統(tǒng)的人的本質(zhì)理解構(gòu)成挑戰(zhàn)。機(jī)器的人化是指機(jī)器智能越來越多地在認(rèn)知、記憶等層面突飛猛進(jìn),機(jī)器越來越具有一些類人的屬性。人工智能將來是否會具有意識,是否會具有類人或者超人思維?這對我們傳統(tǒng)的關(guān)于物質(zhì)和意識關(guān)系的理解帶來沖 擊。
意識和自主性是理解人工智能與人類智能的鑰匙。許多觀察者認(rèn)為,意識是一種表現(xiàn)形式,是能夠理解自己的思想并對其進(jìn)行解釋的能力。梅洛—龐蒂認(rèn)為,意識是主觀體驗(yàn),是第一人稱的知覺,沒有體驗(yàn)就不會有意識,身體的感知能力是意識的先決條件。皮埃羅·斯加魯菲(Piero Scaruffi)曾對圖靈測試的意義提出質(zhì)疑。他說,“身體因素是我質(zhì)疑圖靈測試意義的原因所在?!彼O(shè)計了一個測試(他稱為“斯加魯菲測試”,Scaruffi Test),同時給機(jī)器人和人各一個足球,然后看哪一組運(yùn)球的能力更高,他指出,雖然智能機(jī)器人可以靈巧地攔截足球,然后用絕對精準(zhǔn)的腳法射門,但卻無法像梅西一樣帶球越過防守隊員。在圖靈測試中,身體因素被排除在外,這一定程度上也摒棄了人類的基本特 征。
而提到機(jī)器的思維和意識,不能不提美國哲學(xué)家希拉里·普特南(Hilary Putnam)設(shè)計的“缸中之腦”思想實(shí)驗(yàn)。在斯加魯菲看來,“缸中之腦”并不能代表真正的人,體驗(yàn)才是意識的前提。庫茲韋爾在《如何創(chuàng)造思維》一書中明確提出了機(jī)器意識的問題,他認(rèn)為意識是復(fù)雜物理系統(tǒng)的有限特性,可以在計算機(jī)中復(fù)制,一臺成功模擬人腦復(fù)雜性的計算機(jī)也將擁有與人類相同的涌現(xiàn)意識。并且,他通過“弱涌現(xiàn)”和“強(qiáng)涌現(xiàn)”來解釋機(jī)器各部分之間的相互作用。庫茲韋爾認(rèn)為,當(dāng)機(jī)器“說出”他們的感受和感知經(jīng)驗(yàn),而我們相信他們所說的是真的,他們就相當(dāng)于有意識的人了。庫茲韋爾將意識理解為“思考自己的思想的能力”,我們能夠通過測試來評估這種能力,但是庫茲韋爾也指出,“在討論意識時,人們很容易陷入對意識的可觀察性和可衡量性這一問題的思考中,而這種方法忽略了意識的本質(zhì)”。
人工智能倫理的研究伴隨著人工智能的發(fā)展。伴隨狹義人工智能(主要被設(shè)計用于執(zhí)行特定的任務(wù),如駕駛汽車、護(hù)理老人等)和通用人工智能(能夠完成人類可以完成的任何任務(wù))的發(fā)展,目前的人工智能倫理研究主要聚焦兩類問題:一個問題是我們是否可以將機(jī)器道德化,使得機(jī)器可以自主地做人類認(rèn)為正確的事;另一個問題涉及人工智能對人類的影響,如我們能否控制人工智能,使其更好地為人類服務(wù)?有學(xué)者提出把機(jī)器人倫理學(xué)分為兩個分支學(xué)科,分別是“機(jī)器倫理學(xué)”(Machine Ethics)和“機(jī)器人倫理學(xué)”(Robot Ethics)。其中,機(jī)器倫理學(xué)的一些討論建立在這樣的預(yù)設(shè)基礎(chǔ)上:機(jī)器在某種意義上可以成為對其行為負(fù)責(zé)的道德主體,或“自主的道德主體”?!皺C(jī)器倫理學(xué)”主要關(guān)注機(jī)器如何對人類表現(xiàn)出符合倫理道德的行為。機(jī)器倫理是“有道德的機(jī)器”的倫理,是機(jī)器作為道德主體的倫理,而不僅僅是人類將機(jī)器作為客體使用的倫理?!霸擃I(lǐng)域的一個核心張力是創(chuàng)建人工主體的主體與人工主體本身之間的關(guān)系,以及誰對使用這些系統(tǒng)的行為和后果負(fù)責(zé)、受罰和承擔(dān)義務(wù)?!薄皺C(jī)器人倫理學(xué)”主要關(guān)注人類如何在設(shè)計和使用階段與這些機(jī)器交互,包括機(jī)器運(yùn)作過程中的倫理問題及人類因?yàn)闄C(jī)器人的介入而產(chǎn)生的倫理問題,如軍事機(jī)器人、社交機(jī)器人、醫(yī)療機(jī)器人、性愛機(jī)器人等等所帶來的一些道德風(fēng)險和挑戰(zhàn)?!皺C(jī)器人倫理學(xué)的關(guān)鍵問題在于人們對機(jī)器人的感覺與信念問題”,關(guān)乎人們?nèi)绾巫R別和對待機(jī)器人(將其視作機(jī)器還是動物)及其涉及的一系列心理、行為和方法。迄今為止,這一領(lǐng)域主要由哲學(xué)家和社會理論家主 導(dǎo)。
簡而言之,“機(jī)器人倫理學(xué)”與“機(jī)器倫理學(xué)”都試圖為人機(jī)關(guān)系提供道德支持。機(jī)器倫理主要是關(guān)于人工智能是不是可以成為一種道德主體,而機(jī)器人倫理主要是關(guān)于如何善用人工智能進(jìn)行負(fù)責(zé)任的創(chuàng)新和應(yīng)用。某種程度上,“機(jī)器人倫理”主要是回應(yīng)“機(jī)器倫理”在面對機(jī)器高度智能化、人機(jī)交互不斷深度化與廣泛化時所提出的問題。而通用人工智能(AGI)的倫理問題既包括機(jī)器倫理,也包括機(jī)器人倫理?!癆GI 提出了兩個截然不同的倫理挑戰(zhàn):第一個是如何打造一個行為合乎倫理的人工智能……第二個倫理挑戰(zhàn)是如何在倫理層面使用它?!钡谝粋€層面涉及到機(jī)器倫理,第二個層面涉及機(jī)器人倫 理。
在以上這些討論中,蘊(yùn)含兩個核心問題:(1)道德是有邏輯的嗎?人工智能是否可能具有意識和自主性?這將是一個事關(guān)機(jī)器倫理能否編碼,能否創(chuàng)造具有道德的機(jī)器人的核心問題。(2)機(jī)器可以成為道德主體嗎?人工智能如果能夠像人類一樣進(jìn)行學(xué)習(xí)、接受信息并作出判斷和決策,我們能否將其視為平等的人呢?意識和自主性常常被視作道德主體的必要能力,盡管這對于智能機(jī)器人的創(chuàng)造來說仍是前途未卜的,可是依然有很多人開始從理論上探討人工智能倫理設(shè)計的可能性。溫德爾·沃勒克(Wendell Wallach)和科林·艾倫(Colin Allen)提出了機(jī)器人倫理設(shè)計的三種進(jìn)路,分別是自上而下的進(jìn)路,自下而上的進(jìn)路以及混合的進(jìn)路。荷蘭學(xué)者馬克·科爾伯格(Mark Coeckelbergh)則從人與機(jī)器人互動關(guān)系的角度來考察機(jī)器人倫理,認(rèn)為可以從人與動物的關(guān)系擴(kuò)展到人機(jī)關(guān)系,更加關(guān)注機(jī)器人在不同時間、不同環(huán)境下對人類的表現(xiàn),以此來推動機(jī)器的設(shè)計和研究。杜嚴(yán)勇指出,“可以更具體地把人與機(jī)器人的關(guān)系分為四種:觀察關(guān)系、干預(yù)關(guān)系、互動關(guān)系和建議關(guān)系”。還有學(xué)者提出了“價值敏感設(shè)計”,在實(shí)踐中考慮到技術(shù)設(shè)計過程中的所有利益相關(guān)者,把機(jī)器人的使用語境與設(shè)計語境緊密聯(lián)系起來。這些研究中已經(jīng)有了“關(guān)系轉(zhuǎn)向”的跡象,只是還沒有清晰和明確地表達(dá)出 來。
概括起來,關(guān)于人工智能對人類的作用,有三種主要的觀點(diǎn),即樂觀主義、悲觀主義和現(xiàn)實(shí)主 義。
樂觀主義的觀點(diǎn)認(rèn)為,人工智能的發(fā)展并非壞事,人類將受益于人工智能。比如庫茲韋爾指出在不久的將來,人工智能將可能通過物理手段制造出媲美人腦的非生物型智能機(jī)器,并且可能會超過人腦,人類與機(jī)器會結(jié)合成為全新的物種。他反復(fù)強(qiáng)調(diào)了加速循環(huán)規(guī)則,認(rèn)為信息科技的發(fā)展會導(dǎo)致存儲能力、計算能力、芯片規(guī)模等暴漲,從而引起指數(shù)規(guī)模的變化。“我的核心論點(diǎn),也就是我所稱的加速回報定律,是信息科技中的基本理論,它遵循可預(yù)見的指數(shù)級增長規(guī)律,反對傳統(tǒng)的認(rèn)為‘你無法預(yù)知未來’的觀念。”他認(rèn)為正是通過這樣的技術(shù),我們才有能力解決人類所面臨的重大挑 戰(zhàn)。
悲觀主義的觀點(diǎn)認(rèn)為,隨著人工智能的發(fā)展,可能會出現(xiàn)奇點(diǎn),進(jìn)而人工智能會控制和操縱人類,使人成為機(jī)器的附庸。有些學(xué)者認(rèn)為超級人工智能系統(tǒng)只是一個理性的終極理想,機(jī)器無法取代人類,“人類希望通過邏輯工具來建立冷靜客觀的知識體系,這個知識體系不應(yīng)該有任何主觀的知識和情緒夾雜在其中,但問題是一旦有了的體系,并且這樣的體系可以自動去包羅萬象而形成所謂的人工智能的時候,人本身的作用就不大了?!倍绲聽柌煌陚涠ɡ碚故玖思词箶?shù)學(xué)系統(tǒng)的理性也會受到限制,科學(xué)也無法發(fā)現(xiàn)所有真理,認(rèn)知總是會有邊界的。況且,人之所以為人,除了那些理性的部分之外,還有一些感性的部分是無法被理性取代的,而這些感性的、直覺的、情感的、體驗(yàn)的部分才使得人成為人,并與機(jī)器區(qū)別 開。
現(xiàn)實(shí)主義的觀點(diǎn)認(rèn)為,人工智能的發(fā)展有大量的機(jī)遇,要善用人工智能更好地為人類服務(wù)。在這方面,又有兩種觀點(diǎn):一種觀點(diǎn)認(rèn)為,我們不怕人工智能發(fā)展太快,怕的是越界,要充分思考人工智能和人之間的界限是什么?一種觀點(diǎn)是人工智能應(yīng)該進(jìn)行倫理,法律和社會的參與。其中,社會和法律主要是現(xiàn)實(shí)層面的舉措,體現(xiàn)的是與人工智能發(fā)展的實(shí)然關(guān)系,而倫理層面更多具有前瞻性,體現(xiàn)的是與人工智能發(fā)展的應(yīng)然關(guān) 系。
如今,人工智能已經(jīng)在挑戰(zhàn)我們數(shù)千年來進(jìn)行道德推理和道德判斷的方式。我們應(yīng)該如何以哲學(xué)的方式進(jìn)行人工智能倫理研究?需要注意的是,哲學(xué)家和倫理學(xué)家并不擅長預(yù)測技術(shù)的出現(xiàn),所以,哲學(xué)和倫理學(xué)研究更多地不是解決人工智能產(chǎn)生的特定技術(shù)和倫理問題,而是澄清問題的前提,并進(jìn)行批判性反思,進(jìn)而調(diào)整提問問題的方式。一直以來,在規(guī)范倫理學(xué)領(lǐng)域,義務(wù)論、功利主義、美德倫理學(xué)等理論和立場的膠著一直存在,對一些一般的道德選擇我們尚且無法達(dá)到共識,在人工智能領(lǐng)域這么復(fù)雜的充滿挑戰(zhàn)的技術(shù)實(shí)踐中,一致性、統(tǒng)一性的道德訴求能成功嗎?實(shí)際上,人工智能倫理的規(guī)范路徑研究面臨一些困難,概言之,主要有概念的模糊性、認(rèn)知的有限性、情境的復(fù)雜性與道德選擇的不確定 性。
人工智能倫理的研究涉及很多不同的范式,因此出現(xiàn)很多術(shù)語的歧義和爭論也就不足為奇了,其中也包括主體和主體性、智能體、自主性和意識等關(guān)鍵概念。對這些概念的梳理可能并不能從根本上消除歧義,但可以看出,當(dāng)今關(guān)于這些概念爭論的焦點(diǎn)和根源在哪 里。
在傳統(tǒng)哲學(xué)中,一般認(rèn)為只有人才是主體,人的意識和活動才具有主體性?!爸黧w性”一詞一般用來指主體作出決策、執(zhí)行行動并對行動負(fù)責(zé)的能力。這個概念意味著主體必須是具有理性的認(rèn)知、思考和行動能力的,并能根據(jù)復(fù)雜的環(huán)境變化自主地采取相應(yīng)的行動且為之負(fù)責(zé)。在人工智能哲學(xué)中,擁有意識和自主性的通用人工智能的設(shè)想對主體和主體性等概念提出挑 戰(zhàn)。
自20 世紀(jì)80 年代以來,“智能體”成為現(xiàn)代人工智能的核心主題,智能體與主體的關(guān)聯(lián)變得緊密起來。在人工智能的背景下,主體(agent)具有行為實(shí)體的特征,只要能有效控制并進(jìn)行一些操作活動就可以是主體。但是從哲學(xué)的觀點(diǎn)看,這些行為主體的意圖是從外部發(fā)出的,這意味著人工智能自身不會自主決定并開啟行動,也不具備自我理解和反思能力。另外,從對行為后果的態(tài)度看,哲學(xué)中的主體與人工智能、經(jīng)濟(jì)學(xué)和心理學(xué)中的主體也有顯著差異,前者可以對自己的行為有預(yù)期,并要對自己的行為負(fù)責(zé),而后者則不具備這種能力。機(jī)器或機(jī)器人如果具有自主道德意識并能為自身行為負(fù)責(zé),那固然是可以稱之為“道德主體”,但即便自動駕駛汽車的責(zé)任歸屬討論得熱火朝天,也依然很少有人認(rèn)為,自動駕駛汽車本身應(yīng)該承擔(dān)什么責(zé)任后果。這意味著,主體與自主性在人工智能領(lǐng)域還遠(yuǎn)未成為共 識。
隨著人工智能不斷發(fā)展,相應(yīng)成果的科學(xué)解釋也面臨挑戰(zhàn)。盡管人工智能可能會產(chǎn)生大量的數(shù)據(jù)科學(xué)知識,但是卻并沒有因此增加對身心關(guān)系等問題的本質(zhì)理解,甚至,認(rèn)知危機(jī)還會演變?yōu)榈赖挛C(jī)。在人工智能和大數(shù)據(jù)時代,數(shù)據(jù)增長的速度和幅度以及數(shù)據(jù)處理的程度都遠(yuǎn)超原來最優(yōu)秀的科學(xué)家的計算能力,這些對我們傳統(tǒng)的科學(xué)知識和因果關(guān)系提出挑戰(zhàn)。大數(shù)據(jù)思維關(guān)注事物的相關(guān)關(guān)系以及不確定性,也使得我們對原有的科學(xué)理解方式產(chǎn)生質(zhì)疑。雖然計算機(jī)在某些能力上已經(jīng)超過了我們,但是,我們對機(jī)器的功能卻無法充分解釋或理解。對在此科學(xué)基礎(chǔ)上發(fā)展起來的人工智能倫理,則更需要謹(jǐn) 慎。
認(rèn)知的有限性源于機(jī)器學(xué)習(xí)與人類思維的有限性與脆弱性,并可能帶來一些倫理問題。這些有限性表現(xiàn)在以下幾個方面:(1)機(jī)器學(xué)習(xí)會造成信息冗余,引發(fā)道德風(fēng)險。機(jī)器學(xué)習(xí)在數(shù)據(jù)采集和數(shù)據(jù)挖掘的過程中,會造成個人信息遺漏,從而侵犯個人隱私權(quán)。比如,面部識別技術(shù)可能會大大提高分辨人群的效率,但是可能也會帶來數(shù)據(jù)歧視的風(fēng)險。機(jī)器學(xué)習(xí)還會產(chǎn)生垃圾數(shù)據(jù)、錯誤數(shù)據(jù)以及信息冗余,造成模式識別的“過度匹配”或者“不適配”的問題。(2)合乎道德的機(jī)器設(shè)計存在很大爭議。當(dāng)前的機(jī)器學(xué)習(xí)系統(tǒng)更多是弱人工智能,沒有自我意識。雖然“機(jī)器倫理”致力于解決“道德編碼”和“道德嵌入”的問題,從而設(shè)計出行為合乎道德的機(jī)器,但是難點(diǎn)在于,很難知道是否以及何時應(yīng)用了這些道德原則。(3)人類自身無法克服的脆弱性也造成認(rèn)知的局限和對自身的傷害。比如,利用生成性對抗網(wǎng)絡(luò),可以從現(xiàn)有數(shù)據(jù)集中生成新類型的數(shù)據(jù),制作逼真的視頻。這些所謂的“深度偽造”(如AI 換臉)很可能會發(fā)展到我們很難辨別真?zhèn)蔚牡夭?,由此帶來的新型犯罪會給當(dāng)前的倫理和法律體系帶來嚴(yán)峻挑戰(zhàn)。另外,機(jī)器人的自動化將在不久的將來取代人類勞動力的很大一部分。我們應(yīng)該如何對待未來的超級人工智能,如何確保人工智能不會對我們不利,這些問題都值得進(jìn)一步探 討。
無論使用何種規(guī)范性框架來模擬機(jī)器的道德判斷,其前提都要取決于道德決策所依據(jù)的道德規(guī)范,但是,道德規(guī)范的原則和路徑從來不是統(tǒng)一的范式,而是與長期的社會和文化傳統(tǒng)有關(guān)。理論上的規(guī)范性與實(shí)踐情境中的差異性導(dǎo)致了道德判斷和選擇的復(fù)雜性,倫理原則的相對性與實(shí)踐的有效性之間,也一直存在一種張力。這也使得倫理學(xué)家提供的道德困境解決方案可能不但不會被人工智能專家接受,甚至也會被公眾拒絕,畢竟對一些人來說是有價值的道德選擇,對另外一些人可能是無效 的。
在人工智能技術(shù)的具體實(shí)踐和應(yīng)用中,因?yàn)榈赖虑榫车膹?fù)雜性,也使得人工智能的倫理設(shè)計變得復(fù)雜。宏觀地講,經(jīng)常會出現(xiàn)過于高估或者低估人工智能的情況。高估人工智能風(fēng)險可能有兩個向度的表現(xiàn):一方面認(rèn)為人工智能可能會威脅到人類生存,另一方面,又認(rèn)為人工智能可以用來拯救人類于危亡之中。由埃隆·馬斯克創(chuàng)建的Neuralink 公司,目標(biāo)就是在我們的頭骨中植入芯片,以提高我們的認(rèn)知能力和記憶力,從而“拯救人類”對抗人工智能。然而,從倫理學(xué)的角度看,如果這些技術(shù)可行,那么這些技術(shù)的擁有者就有可能將他們想要的信息附加在大腦中,并因此控制大腦的思維。這到底是對人類生存的威脅還是拯救?另外,還有些人出于“善意”的目的,想通過人類增強(qiáng)技術(shù)延長人的壽命,但是這也會導(dǎo)致出現(xiàn)“數(shù)字分身”或者“智能增強(qiáng)”后的新物種。如此一來,技術(shù)進(jìn)步的加速定律將不可逆轉(zhuǎn)地改變知識生產(chǎn)的體制,并創(chuàng)造出誰都控制不了的技術(shù)物,對于這樣的結(jié)局,人類顯然沒有做好充足的準(zhǔn) 備。
而低估人工智能的風(fēng)險,主要是認(rèn)為人工智能威脅論是一種不切實(shí)際的夸大,人工智能充其量只是機(jī)器模擬,不可能具有意識和情感,不能跟人相提并論。問題是,一般的技術(shù)物尚且具有結(jié)構(gòu)意向和功能意向,起到類似主體的調(diào)節(jié)作用,何況經(jīng)過深度學(xué)習(xí)后能產(chǎn)生新類型的智能機(jī)器呢?比如在護(hù)理機(jī)器人和性機(jī)器人中,即便用戶理智上知道這是機(jī)器人,但是從情感上,依然“愿意”把它當(dāng)作真實(shí)的“伙伴”或者“家人”,或者寧愿選擇機(jī)器人而不是人作為伴侶,更多地依賴于自己的體驗(yàn)和感受而不是思維來決策,這又該如何面對機(jī)器人的道德主體性呢?推而廣之,對機(jī)器人地位和作用的界定不在機(jī)器本身,而在人與機(jī)器的關(guān)系之中,這又會對我們的道德和法律體系以及社會秩序帶來怎樣的挑戰(zhàn) 呢?
這些問題構(gòu)成了關(guān)于人工智能的責(zé)任鴻溝。人工智能并未真的達(dá)到主體需要的關(guān)鍵能力,但是,人類還是把一些任務(wù)外包給了機(jī)器人(諸如駕駛汽車、陪護(hù)病人等)。在這些情境中,誰應(yīng)該對某事負(fù)責(zé)卻并不清晰。另外,除了不同類型的責(zé)任鴻溝之外,機(jī)器人和人工智能還可能導(dǎo)致人們所謂的“義務(wù)鴻溝”。不管機(jī)器再智能化、自動化,義務(wù)通常還是歸因于人類主體,機(jī)器人本身沒有義務(wù)。比如人類在駕駛汽車時造成傷害或者事故會受到處罰,但是,汽車本身卻不會因此受罰。能動性和自主性是理性主體的屬性,想象一下,假如存在一種哲學(xué)意義上真正具有自主性的軍事武器,它會自行選擇目標(biāo),那不僅對平民來說是一場噩夢,對軍事人員來說也難以接受,因?yàn)樗麄円残枰軌蛲耆刂坪托湃蔚奈淦飨到y(tǒng)。在人工智能中,使用道德主體這樣的概念并不意味著機(jī)器具有責(zé)任和義務(wù),所以將機(jī)器道德化只能是一個半截子工 程。
科幻作家艾薩克·阿西莫夫提出了著名的機(jī)器人三定律,其他學(xué)者也建議,我們應(yīng)該確保超級人工智能的價值觀和目標(biāo)與人類的一致。但是實(shí)際操作中,機(jī)器應(yīng)該具有什么樣的道德?如何將機(jī)器道德化?這些難題不僅僅是實(shí)踐難題,也是理論難題。義務(wù)論、功利主義和美德倫理學(xué)等倫理理論一直存在著分歧,這意味著將這些理論直接編程到機(jī)器中并不可 行。
讓—弗朗索瓦·邦內(nèi)豐(Jean-Fran?ois Bonnefon)、阿齊姆·謝里夫(Azim Shariff)等學(xué)者認(rèn)為,即使倫理學(xué)家贊成應(yīng)該用哪種道德原則指導(dǎo)道德算法,但如果外行強(qiáng)烈反對他們并決定不使用該算法,則對他們的工作也不會產(chǎn)生什么影響。安德里亞·洛雷吉亞(Andrea Loreggia)、尼古拉斯·馬蒂(Nicholas Mattei)等學(xué)者從計算機(jī)科學(xué)的角度介紹了如何構(gòu)建具有道德行為的智能系統(tǒng)。斯蒂芬·沃爾夫拉姆(Stephen Wolfram)致力于從計算機(jī)科學(xué)角度闡述如何構(gòu)建合乎道德的人工智能,定義了人工智能要遵循的道德規(guī)范,以在人類目標(biāo)和計算能力之間架起一座橋 梁。
毫無疑問,在機(jī)器中引入人類價值觀是很有誘惑力的,這意味著讓機(jī)器按照人類的道德行為的標(biāo)準(zhǔn)來行動。然而,由于機(jī)器并不理解人類的意圖,只能根據(jù)外部指令來行動,從這一點(diǎn)上看,機(jī)器延續(xù)了人類道德選擇的情境性、復(fù)雜性和不確定性,且是在有限的范圍內(nèi)行動,不能對自己的行為負(fù)責(zé),也無法反思行動的意義,所以并不能構(gòu)成真正的自主 性。
從前面的論證可以看出,人機(jī)關(guān)系是機(jī)器倫理和機(jī)器人倫理的核心問題。當(dāng)前的討論方式總體還是偏實(shí)在論的,且都離不開人類中心主義的立場。雖然有時機(jī)器被賦予了道德主體的地位,卻還是回到為人類服務(wù)的“客體”的立場,尚未得到平等的對待和尊重。對這些問題的提問方式進(jìn)行前提反思,打破慣性思維和傳統(tǒng),才是哲學(xué)討論的題中應(yīng)有之 義。
從哲學(xué)和倫理學(xué)的視角看,結(jié)合人工智能的發(fā)展,我們需要一種新的方法論,那就是人工智能的“關(guān)系轉(zhuǎn)向”:這種路徑更多是現(xiàn)象學(xué)的、經(jīng)驗(yàn)主義的視角,它基于身體主體而不是我思主體來看待人和機(jī)器的本質(zhì),從情境化視角來看待人工智能和大數(shù)據(jù)的知識生產(chǎn)以及倫理學(xué)和認(rèn)識論,從開放的理性和復(fù)雜的范式出發(fā)進(jìn)行負(fù)責(zé)任創(chuàng)新,從人機(jī)共存和人類命運(yùn)共同體的關(guān)系來看待人工智能的發(fā)展。關(guān)系轉(zhuǎn)向在哲學(xué)上并非新生事物,但是將其應(yīng)用于人工智能倫理研究,或許能通過改變提問問題的方式,進(jìn)而推動相關(guān)研究。在此基礎(chǔ)上,不難發(fā)現(xiàn),人工智能倫理中的“關(guān)系轉(zhuǎn)向”是一種可能的競爭性策略,重要的不是通過控制和約束為人工智能的發(fā)展制定統(tǒng)一的倫理規(guī)則,而是重新認(rèn)識到,人工智能倫理問題是人與機(jī)器、人與技術(shù)、人與人以及人與社會的共同創(chuàng)造。我們需要反轉(zhuǎn)我們的認(rèn)識和理解,把人工智能當(dāng)成伙伴,在關(guān)系思維中謀劃更好的人類未 來。
在人工智能的討論中,一個非常重要的問題是人與機(jī)器的界限。機(jī)器是否/應(yīng)該具有主體性,或者是人工智能體是否/應(yīng)該具有主體地位,對馬克思主義哲學(xué)關(guān)于主體和客體的認(rèn)識帶來非常嚴(yán)峻的挑戰(zhàn)。在馬克思主義哲學(xué)看來,主體是從事認(rèn)識和實(shí)踐的人,客體就是被人所認(rèn)識和實(shí)踐的對象。但是隨著科技發(fā)展及科技哲學(xué)的展開,技術(shù)現(xiàn)象學(xué)的觀點(diǎn)越來越被廣為接受:人是通過技術(shù)棲居于世的,尤其人工智能的發(fā)展又將技術(shù)在人與世界之間的積極的調(diào)節(jié)作用推至前臺,甚至通過技術(shù)內(nèi)化于人與世界,由“人—技術(shù)—世界”過渡為“技術(shù)化的人—技術(shù)化的世 界”。
在人工智能高度發(fā)展的時代,如何更好地理解主體和客體需要一些新的探討。按照拉圖爾的“行動者網(wǎng)絡(luò)理論”,只要對一個事物的發(fā)展起決定性作用的因素都可以成為行動者(actor),這個行動者可以是人,也可以是物,是多元主體(multisubject)。按照荷蘭技術(shù)哲學(xué)家維貝克的觀點(diǎn),技術(shù)物可能會在某些情況下成為一種道德主體,起到類似主體的作用,也叫作技術(shù)的居間調(diào)節(jié)作用。唐娜·哈拉維描繪了“賽博格”這樣一種人、機(jī)器和動物的混合體,也有人把這個叫作后人類形象。隨著第四次科技革命的興起,技術(shù)改變的是人類自身,當(dāng)今的主體更多是一種技術(shù)化的主體,是身體主體,這是與我思主體相對而言的。我思主體是建立在主客二元對立的背景下的,身體與心靈是兩個不同的實(shí)體;而身體主體是建立在“涉身自我”的基礎(chǔ)上的,“身體已經(jīng)不僅僅是傳統(tǒng)的生物學(xué)意義上的事實(shí),不僅僅是一副由生理組織構(gòu)成的血肉之軀,而是呈現(xiàn)出確定性與不確定性、穩(wěn)定性與流動性、普遍性與差異性的統(tǒng)一”。這樣一種主體是現(xiàn)象學(xué)意義上的身體,是一種知覺的主體、體驗(yàn)的主體,也是一種多元開放的主體。身體主體是涉身的,我們對人性的理解都是建立在對身體的整體知覺之上的,體驗(yàn)恰恰是人與機(jī)器的本質(zhì)區(qū) 別。
從身體主體這一視角出發(fā),會發(fā)現(xiàn)技術(shù)和人是相互構(gòu)成的,機(jī)器人和人工智能并非是外在于我們的存在,而是關(guān)系之中的產(chǎn)物,它是主體還是客體,取決于我們與機(jī)器之間的關(guān)聯(lián)。關(guān)于人機(jī)關(guān)系,“工具論”認(rèn)為技術(shù)是為用戶服務(wù)的“工具”。但也有學(xué)者指出,計算機(jī)系統(tǒng)是由從事社會實(shí)踐和追求意義的人們生產(chǎn)和使用的,“無論未來的計算機(jī)系統(tǒng)如何獨(dú)立、自動和交互,它們都將(直接或間接)是人類行為、人類社會制度和人類決策的產(chǎn)物”??档略赋?,每個人的人性都是目的本身,而不僅僅是手段。當(dāng)我們談?wù)撊祟悤r,我們是指作為人類的整體,不僅有人類的思想,而且有人類的身體?!叭祟悺敝傅氖恰拔覀儶?dú)特的身體、大腦、思想以及生物和文化特征?!边@并不意味著人類不可以被機(jī)器改變,而是指機(jī)器人和人工智能可以幫助人類變得更好。若是人類將機(jī)器人作為主體,那么需要考慮的不僅僅是如何讓機(jī)器的行為更加合乎人類道德,而是人類對機(jī)器人本身是否給予了必要的尊重。相互性原則可以從人倫關(guān)系推廣到人機(jī)關(guān)系,對機(jī)器人的尊重也就是對人類的尊 重。
在人工智能和大數(shù)據(jù)的疊加效應(yīng)下,相關(guān)關(guān)系取代了因果關(guān)系成為理解知識的前提與依據(jù)。哈拉維曾經(jīng)提出“情境化知識”的概念,用來表示知識的強(qiáng)客觀性。“情境化知識”意味著“局部的視角”和“負(fù)責(zé)的科學(xué)”,意味著我們?yōu)榱烁玫亓私馐挛镏g的有機(jī)聯(lián)系,要認(rèn)識到每一個視角、立場、觀點(diǎn)的局限與價值,并進(jìn)行負(fù)責(zé)的有理有據(jù)地批判。針對機(jī)器是否具有道德地位的問題,現(xiàn)象學(xué)的關(guān)系思維給出了一種可選擇的方案,那就是要基于不同的道德立場看待問題的方式,向他人開放并能夠容納他人的道德差異。在存在論看來,人類的本質(zhì)是與生存境況相關(guān)聯(lián)的,是“在世之中”的存在,而構(gòu)成“生活世界”的因素,可以是人(包括他人)、動物、環(huán)境、組織和技術(shù)物(如人工智能)。由此出發(fā)看待人工智能的道德地位就轉(zhuǎn)移了問題的焦點(diǎn),變成:人工智能的道德地位到底是源于其內(nèi)在屬性,還是社會建構(gòu)?相應(yīng)的,問題就從“是不是”這樣一個本體論的事實(shí)層面的討論,變成“該不該”這樣一個倫理學(xué)的價值層面的討論?!叭斯ぶ悄苣艹蔀橐粋€道德主體嗎?”這樣一個本體論問題就轉(zhuǎn)換成“人工智能應(yīng)該是一個道德主體嗎?”這樣一個倫理學(xué)問題。而“該不該”這樣一個應(yīng)然層面的問題不是根據(jù)事物是什么來決定的,而是取決于事物在實(shí)際社會情境中與人的關(guān)聯(lián)。在這種情況下,社會關(guān)系的實(shí)踐特性優(yōu)先于個體或物質(zhì)實(shí)體的表象特征。這種視角的變化會帶來許多重要的創(chuàng)新,也會影響人工智能倫理和道德哲學(xué)的發(fā) 展。
從情境化的視角看,人與機(jī)器之間的關(guān)系是交互的。目前的人工智能倫理都默認(rèn)了這一前提:不管采取什么樣的倫理理論,都是為了通過調(diào)整機(jī)器人或者人工智能,使他們更好地滿足人的需求,也就是說,通常是以人類為中心去思考人與機(jī)器的關(guān)系的。如果機(jī)器人有朝一日能夠體驗(yàn)痛苦和其他情感狀態(tài),那么建立這樣的系統(tǒng)是否合乎道德?對此,斯文·尼霍爾姆(Sven Nyholm)指出了另外一個路徑,就是人類也可以朝著更好地適應(yīng)機(jī)器的方向發(fā)展?!皬牡赖碌慕嵌葋砜矗淹獗砗托袨槎枷袢祟惖臋C(jī)器人視為有尊嚴(yán)的機(jī)器人,而不僅僅是工具或儀器,這可能是一個好主意。”人類主動適應(yīng)機(jī)器或機(jī)器人并不是本末倒置,或者將人置于不人的境地,而是在關(guān)系中生存的智慧。比如,在自動駕駛汽車達(dá)到很高的水平的時候,帶有人工智能的汽車可能會變得比人類駕駛員更安全、更高效。人與機(jī)器的互動方式有個互相適應(yīng)的過程,他還論證了我們需要適應(yīng)機(jī)器人的條件:“ (1)對受影響的人類有一些明確的和可識別的好處(例如,人類更安全,我們的自然環(huán)境得到保護(hù));(2)我們適應(yīng)機(jī)器人的方式是非接觸的和/或無創(chuàng)的(例如,我們不需要將大腦刺激技術(shù)運(yùn)用到我們的大腦中,但我們可以使用許多非侵入性技術(shù)手段);(3)我們嘗試使自己適應(yīng)機(jī)器人和人工智能的方式僅在特定的領(lǐng)域(例如,交通領(lǐng)域),并且不會蔓延到生活的太多其他領(lǐng)域;(4)我們適應(yīng)機(jī)器人的方式總體是可逆的?!?/p>
在關(guān)系視域中,關(guān)系思維比實(shí)體思維更加根本。對人工智能這樣一個特殊類型的物來說,“關(guān)系優(yōu)先于實(shí)體”可以說是人工智能倫理的關(guān)系轉(zhuǎn)向。不僅人與機(jī)器的交互方式需要思考,即便對同一個人工智能體,從關(guān)系的角度看,理解也是不一樣的,“道德地位的決定和授予不是基于主觀或內(nèi)在的屬性,而是基于客觀可觀察的外在關(guān)系?!笨瓶瞬褚策M(jìn)行過類似的表述,“‘道德考慮’不再被視為實(shí)體的‘內(nèi)在’考慮,相反,它被視為‘外在’考慮:它被歸為社會關(guān)系和社會環(huán)境中的實(shí)體?!币虼?,人/事物的意義并不在于它有一個固定不變的本質(zhì),而是在于某人或某物對我們來說意味著什么以及我們在這個關(guān)系中的決定、行動和回應(yīng)。繼科克伯格之后,安妮·格德斯(Anne Gerdes)將類似“關(guān)系優(yōu)先于相關(guān)事物”的表述稱為倫理學(xué)中的“關(guān)系轉(zhuǎn)向”。以護(hù)理機(jī)器人為例。對一個與護(hù)理機(jī)器人建立了深刻的情感鏈接的用戶或者主人來說,護(hù)理機(jī)器人絕對不僅是工具,更是一個交流的對象或者感情的承載,這對他/她來說無疑就是具有道德地位的,可以視為道德主體;而對一個工程師或者機(jī)器人生產(chǎn)和銷售企業(yè)來說,護(hù)理機(jī)器人就是物,是一個產(chǎn)品或者一個商品,那護(hù)理機(jī)器人對他們來說就不具有道德主體的地位。拋開特定的情境去討論人工智能是不是具有意識和情感,是不是道德主體是沒有意義的。因此,不必非要爭辯出一個一致性的、統(tǒng)一性的答案,就像當(dāng)今的數(shù)碼藝術(shù),對于技術(shù)人員可能就是技術(shù)物,對于藝術(shù)家來說則是藝術(shù)品。將它看作是什么,既與物有關(guān)(是這個數(shù)碼藝術(shù)品而不是那個),更與主體和世界的關(guān)聯(lián)有關(guān)(是技術(shù)物還是藝術(shù)品),甚至某種程度上,后者更加具有優(yōu)先 性。
技術(shù)的發(fā)展與科學(xué)、文化與社會等因素密切相關(guān)。從技術(shù)的產(chǎn)生來看,技術(shù)與社會因素共同構(gòu)成一種無縫之網(wǎng)。從技術(shù)的功能來說,技術(shù)并不是價值中立的,而是價值負(fù)載的。就技術(shù)的本質(zhì)而言,技術(shù)可以是工具,也可以是目的。另外,技術(shù)與人相互構(gòu)成,按照斯蒂格勒的觀點(diǎn),技術(shù)是良藥也是毒藥,我們發(fā)明了技術(shù),技術(shù)又反過來構(gòu)成人本 身。
技術(shù)與非技術(shù)因素的交織決定了我們必須采取開放的理性,才能更好地面對和適應(yīng)新技術(shù)的發(fā)展和演化。開放的理性具有以下兩重含義:首先,開放的理性有能力包容不同的建議和批評,承認(rèn)批評是理性生活的前提。其次,開放的理性還意味著,為了解決問題而提出的建議亦須合乎理性,必須負(fù)責(zé)。負(fù)責(zé)意味著不管從哪種立場出發(fā),都要審慎地對待人工智能的發(fā)展。倫理學(xué)應(yīng)該為科學(xué)家提供倫理反思的工具,幫助科學(xué)家更全面地了解科技產(chǎn)品的社會影響,更清楚地認(rèn)識到自己的社會責(zé)任??萍紓惱硌芯坎皇且拗瓶茖W(xué)家的學(xué)術(shù)研究,而是為科技發(fā)展提供倫理支持和規(guī)約,使科學(xué)家和工程師研發(fā)出更安全、更人性的科技產(chǎn)品。同時,要促進(jìn)科學(xué)文化與人文文化的融通,使得負(fù)責(zé)任創(chuàng)新成為科技創(chuàng)新的重要組成部 分。
從關(guān)系出發(fā)對機(jī)器人進(jìn)行倫理設(shè)計,意味著要考慮到人類道德情境的多樣性、機(jī)器人技術(shù)創(chuàng)新的復(fù)雜性及人工智能應(yīng)用領(lǐng)域的廣泛性等。未來社會是一個各個學(xué)科相互協(xié)作的社會,計算機(jī)科學(xué)、認(rèn)知科學(xué)與技術(shù)哲學(xué)都需要深入探索負(fù)責(zé)任創(chuàng)新的理論和實(shí)踐。人工智能是極具綜合性、復(fù)雜性和前沿性的科學(xué)技術(shù),需要幾乎所有的理工與人文社會科學(xué)學(xué)科進(jìn)行交叉研究,也需要政府、行業(yè)等各個領(lǐng)域的人進(jìn)行對話和協(xié)作。近年來產(chǎn)業(yè)界開始豐富“倫理嵌入設(shè)計”的路徑,根據(jù)特定情境下的人機(jī)關(guān)系,對倫理設(shè)計的理念與路徑進(jìn)行動態(tài)調(diào)整與評估反饋,推動負(fù)責(zé)任創(chuàng) 新。
第四次科技革命對人類自身帶來嚴(yán)峻挑戰(zhàn)。在人類世時代,機(jī)器人將成為我們生存的一部分,自然與文化、技術(shù)與生物學(xué)之間的界限將被重新界定。類人機(jī)器人與我們在工業(yè)自動化中熟悉的機(jī)器人不同。工業(yè)機(jī)器人完全由人類控制,但類人機(jī)器人被釋放到人們的日常生活中時會發(fā)生什么,人文和社會科學(xué)領(lǐng)域的相關(guān)洞察和分析還非常有限?!叭祟惿鐣袡C(jī)器人生產(chǎn)和實(shí)施過程中潛在的人—機(jī)交互以及主客體關(guān)系的復(fù)雜協(xié)商的分析,是通過廣泛的切入點(diǎn)與人類存在集合在一起,并將社會機(jī)器人作為我們的新伙伴展開的。”因此,我們面臨一個選擇,要么我們什么都不做,面臨一些生存風(fēng)險,要么通過一些技術(shù)或者道德的手段改善人類,以便有更好的未 來。
人類已經(jīng)被置于各種不確定性和風(fēng)險當(dāng)中,如何更好地促進(jìn)人的解放和人的全面自由發(fā)展,需要我們更加全面、系統(tǒng)、深入地反思人和技術(shù)的關(guān)系。海德格爾提出,面對技術(shù)的風(fēng)險,希望用藝術(shù)的沉思來作為救贖;馬克思主義希望人能夠擺脫對物的依賴和對人的依賴,實(shí)現(xiàn)人的全面而自由的發(fā)展。當(dāng)今時代,被技術(shù)武裝和塑造的人類是人、機(jī)器和動物的混合體。人和機(jī)器之間不是非此即彼的封閉的關(guān)系,而是相互統(tǒng)一、相互塑造的。機(jī)器永遠(yuǎn)不能夠取代人類,但可以是身體主體的延伸和擴(kuò)展。我們不應(yīng)該在人工智能倫理中采取“一刀切”的方法。我們的目標(biāo)既不是讓機(jī)器成為自由的道德主體,也不是讓機(jī)器按照人類制定的道德規(guī)則行事。相反,人工智能存在的意義在于幫助人類變得更加明智,更加意識到自己行為的后果,從而在行動時更加負(fù)責(zé)。因此,我們需要從人類命運(yùn)共同體這個角度去思考人的發(fā)展與解放的問題。人類命運(yùn)共同體不只是人和人的關(guān)系,也不只是國與國的關(guān)系,它還包括人與機(jī)器、人與技術(shù)的關(guān)系。只有人和機(jī)器、人和技術(shù)和諧共處,我們才能贏得一個更加美好的人類未 來。