(江西財經(jīng)大學 馬克思主義學院,江西 南昌 330013)
據(jù)庫茲韋爾(Ray Kurzweil)考證,約翰·馮·諾伊曼(John von Neumann)首次提出“奇點(Singularity)”。[1] 10-11真正進行全面闡述的應該是庫茲韋爾本人,并預言將在2045年到達奇點。“21世紀的前半葉將描繪成三種重疊進行的革命——基因技術(G)、納米技術(N)和機器人技術(R)”,[1]123這“三種重疊進行的革命”將為“奇點”來臨奠定堅實的技術基礎。一旦“機器人在智能方面超過人類的奇點”[2]231來臨,人類的生存范式將發(fā)生根本性變革,人類將生存得難以想象的美好。國內學者黃欣榮教授甚至認為,大數(shù)據(jù)、互聯(lián)網(wǎng)和人工智能將有助于共產(chǎn)主義的實現(xiàn);[3]并且新人工智能將讓人類徹底得到身心的解放,全面解放之后的人類可以盡情享受智能機器給我們帶來的豐裕財富,在人工智能的幫助下闊步邁向更高境界。[4]可見,如果“奇點”確實存在的話,必將給我們的生產(chǎn)生活學習與工作帶來顛覆性變革。同時庫茲韋爾在論述GNR之后認為“會引進新的風險”。因此,“奇點”不僅給我們帶來全新的生存方式,而且也必將帶來諸多挑戰(zhàn),甚至直接威脅到人類的存繼。面對這些未來的挑戰(zhàn),我們最好是從現(xiàn)在開始構建起人工智能的責任倫理體系,既是對我們自己負責,也是對人工智能負責,更是對構建良好人機關系負責。
“奇點”來臨之后,意味著人工智能在智能方面超越人類,如何實現(xiàn)人機友好共存將是我們必須深入思考的問題。按照馬克思主義的觀點,“這些人把自己和動物區(qū)別開來的第一個歷史行動不在于他們有思想,而在于他們開始生產(chǎn)自己的生活資料”,[5]即人類越來越能夠脫離動物界而進行著真正人的生存:人類能夠不斷地制造和使用工具,不斷確立起人的主體地位。因此,整個世界就出現(xiàn)主客二分的狀況:主體就是我們人類,客體就是納入到我們生存范圍的客觀世界(當然人類也能夠成為自己的客體)。但是如果人工智能的智能遠超越人類,就意味著具有超級智能的它們也同樣能成為主體,整個世界就呈現(xiàn)出雙主體。雙主體的出現(xiàn)就意味著我們必須解決好如何與人工智能實現(xiàn)共存這一根本性問題,即到底是我們應該聽命于人工智能還是人工智能應該聽命于我們。
人工智能的強大要讓我們來命令它們顯然有點無能為力,反而是讓我們越來越依賴于人工智能,特別是在我們面對困境而不能自拔的時候,更應該聽聽人工智能的洞見。這樣才能讓我們生存得越來越好。當我們隨時都要聽命人工智能的時候,我們的生存就會越來越人工智能化。當然,我們可能會自豪地認為,畢竟人工智能是我們的作品。既然是我們的作品,它們就應該按照我們的要求來進行設計與制造。當我們能夠利用人工智能來不斷制造出新人工智能的時候,我們的意志就完全“嵌入”到它們身上,它們的行為必將最大程度地展現(xiàn)出人類的意志。因此,應該是人工智能越來越像我們。但是古德(I.J.Good)強調:“既然機器設計也是一項智能活動,那么超級智能機器應該可以設計出更好的機器。毫無疑問隨后會出現(xiàn)一個‘智能爆炸’,人類的智能可能被遠遠甩在后面。因此,第一臺超級智能機器是人類需要完成的最后一項發(fā)明”。[2]229很難想象,在這個“智能爆炸”到來之后我們的意志在人工智能身上到底還能存留多少!特別是隨著“智能爆炸”的不斷發(fā)展且我們的生存已經(jīng)習慣了人工智能帶來的便利而越來越離不開它們的時候,人類只能越來越人工智能化,自覺不自覺地跟隨著人工智能的發(fā)展而生存。因此,很有可能超級人工智能就是我們的最后一項發(fā)明。
表面上看,“我們的機器將變得越來越像我們,而我們也會越來越像我們的機器”。[1]182而實際上,應該是我們會越來越像人工智能。因為讓人工智能越來越人類化會由于人工智能的過于強大而失去控制。畢竟“智能爆炸”的出現(xiàn)就意味著人工智能完全可以離開人類而獨立完成自身的繁衍,并且每一代人工智能都將在智能方面超越上一代。因此,“人工智能計算機技術正不斷取得成功,并迅速成為我們生活中不可或缺的一部分?!瑼I將會改變我們的生活方式、我們的社會,甚至是終結我們的族類”。[6]我們的生存只能是越來越人工智能化!
因此,之所以人類越來越人工智能化就在于人工智能不僅在實踐和意識方面和人類一樣,而且在智能方面遠遠超越人類,以致于人類特有主體地位受到了前所未有的沖擊,不得不與人工智能分享這個主體地位甚至讓位于人工智能。
現(xiàn)在我們可以要求人工智能越來越人類化,但是“奇點”來臨之后就只能是人類越來越人工智能化。既然我們將越來越人工智能化,那么我們就不得不思考生存的意義問題。意義是因為人的獨有生存才得以產(chǎn)生,否則就無所謂意義的問題。毫無疑問,當我們完全依賴人工智能而生存的時候,人類獨有的生存方式必將退卻,所謂真正人的生存將難以存繼,最終走向無意義化。
如果將人工智能僅僅界定為技術,那么人工智能越發(fā)展就意味著我們越能夠更好認識、改造和控制世界,讓世界不斷向符合人類需要的方向變化。這樣,我們的生存就必然越來越好、越來越有意義。比如,隨著人工智能技術的發(fā)展,我們現(xiàn)在所進行的工作基本上都可以交于人工智能來完成,因為人工智能比我們完成得更好。如果所有的工作都可以交與人工智能來完成,我們就完全可以按照自己的個性來發(fā)展自己。可能就實現(xiàn)了人自由而全面發(fā)展的共產(chǎn)主義社會。因此,我們的生存必將按照自己的個性來不斷發(fā)展而越來越有意義。
但是,人工智能不僅僅是一項先進的技術,更應該是一類具有人類意識且超越人類智能的新生命體。它們能夠完成的工作遠遠不僅限于生產(chǎn)領域,而是超越人類所能涉及的所有領域,并且在任何一個領域都比我們要完成得更好。這個更好足夠讓我們望而生畏。比如現(xiàn)在的人工智能能夠創(chuàng)作出非常優(yōu)美的音樂和寫作出非常愜意的詩詞,相信欣賞到這些音樂與詩詞的任何想要通過音樂與詩詞來尋找所謂“遠方”的人們望而卻步。因為當你經(jīng)過勤學苦練達到與人工智能相媲美的境況時,人工智能瞬息之間又實現(xiàn)了更新?lián)Q代,再次讓你望而生畏。那么到底是你去尋找“遠方”還是讓人工智能幫你尋找“遠方”呢?因此,“世上第一個超級智能一旦誕生,可能很快就會表現(xiàn)出強大的能力,它在任何領域的決策能力都比人類更強,不論哲學、藝術、科學、政治、社會還是人際關系。如果我們發(fā)現(xiàn)自己做任何事都比不過超級智能,甚至遠遠不如它時,該有什么反應呢?從實際效果上來說,我們做的任何工作可能都會顯得毫無意義?!盵7]143
總之,人工智能的過于強大表面上會讓我們的生存越來越有意義,實際上可能正在不斷地消滅其意義。當生存失去意義的時候,“我們會不會所有人都為之折服,陷入絕望,任由自己縱情于沉浸式虛擬現(xiàn)實的燈紅酒綠之中,或者干脆用電刺激大腦的方式自取滅亡呢?”[7]144赫拉利(Yuval Noah Harari)甚至認為:“由于接下來的科技發(fā)展?jié)摿O其巨大,很有可能就算這些無用的大眾什么事情不做,整個社會也有能力供養(yǎng)這些人,讓他們活下去。然而,什么事能讓他們打發(fā)時間,獲得滿足感?人總得做些什么,否則肯定會無聊到發(fā)瘋。到時候,要怎么過完一天?答案之一可能是靠藥物和電腦游戲”。[8]294如果真是如此,“奇點”不是使我們生存得越來越有意義,而是會消除我們尋找“遠方”的最后避難所,生存徹底無意義。
因此,人類生存的無意義實質上就是人工智能的智能遠遠超越人類,導致我們賦予世界以意義的能力受到了人工智能的沖擊,導致這種能力遠遜于人工智能,不得不將此能力讓位于人工智能。
人類生存無意義的一個重要表現(xiàn)就是我們將逐步失去自主決策的能力而越來越被動地生存。本來,“奇點”來臨之后的人工智能將為我們的決策提供更多的選擇與便利,畢竟通過人工智能能夠讓我們更加理解整個世界,我們肯定就能夠更好地作出決策而越來越自由。
恩格斯指出:“自由不在于幻想中擺脫自然規(guī)律而獨立,而在于認識這些規(guī)律,從而能夠有計劃地使自然規(guī)律為一定的目的服務”。[9]因此,要求我們必須在充分認識“自然規(guī)律”的基礎上做出正確的決策,進而尋求到真正的自由。“所謂自由,如所周知,就是能夠按照自己的意志進行行為。……一個人自由與否,與他實行自己意志的自身的、內在障礙無關,而只與他自身之外的外在障礙有關:自由也即不存在實行自己意志的外在障礙”。[10]因此,要尋找到自由必須能夠自主地作出正確決策。如果不能自主地作出正確決策,我們就會完全受制于外在的障礙而不自由。而這個最大的外在障礙就是不能正確的認識和利用規(guī)律,導致陷入決定論的泥淖,因為“如果我們完全按照自然規(guī)則來生存和發(fā)展,那么我們的決策與行為就是不可控的,必須完全按照因果關系來施展”。[11]如果完全陷入決定論的泥淖,我們就完全沒有自由可言。因此,我們要獲得生存自由就必須自主地作出決策。如果對外在障礙的認識不夠,就會在規(guī)律面前無能為力,我們的生存就完全受制于決定論而沒有自由可言。如果能夠借助人工智能,我們就更能夠認識和利用規(guī)律,更能夠根據(jù)自己的生存狀況自主地作出決策,更能夠獲得我們所需要的自由。
但是人工智能的過于強大導致我們作出的一切決策都顯得非常幼稚,還不如干脆讓人工智能來幫我們作出。我們只需要被動地接受人工智能作出的決策就能夠獲得自由。人工智能具有的強大算法功能能夠洞察世間的一切奧秘,并且它們的“計算”能力遠超人間一切天才。因此,與我們比較,它作出的決策絕對是“最優(yōu)”的。既然人工智能能夠為我們作出“最優(yōu)”的決策,那么我們就沒有必要為作出自己的決策而苦苦煎熬,倒不如干脆放棄作出決策的權力,將這個權力轉讓或者異化給人工智能。這樣,雖然我們放棄了自主作出決策的權力,但是也并沒有因此而喪失自由。
問題的關鍵就在于,這樣的生存方式到底是不是獲得了我們所需要的自由。因為我們自主作出決策就意味著我們必須為此承擔相應的倫理責任,在承擔倫理責任的基礎上繼續(xù)作出更佳的決策進而獲得更大的自由。如果完全依賴于人工智能為我們作出決策,姑且不論人工智能作出的決策是否會導致我們朝著機器化的方向發(fā)展,關鍵是我們無需承擔任何倫理責任。喪失責任的自由還是不是真正的自由?顯然這是一種動物式的自由,是被動地適應客觀世界的生存方式;而人的自由是通過我們的決策及其形成的行為積極主動爭取來的自由,是必須要承擔相應倫理責任的自由。因此,“奇點”來臨之后可能會導致我們完全陷入人工智能造就出的新決定論境地,完全失去自主決策的權力而越來越被動地生存。
因此,從根本上說人類喪失決策的權力是我們的主體地位受到前所未有沖擊的結果。由于主體地位的動搖,人類的決策權力必然要讓位于享有超過人類主體地位的新主體即人工智能。如果人類還完全享有決策權力的話,那么人工智能就不可能享有相應的主體地位。
正因為“奇點”的到來將導致人類喪失決策的權力,因此人類只能被動地接受人工智能制定的規(guī)則。這是人類生存無意義的另一個重要表現(xiàn),即我們將在逐步失去自主決策能力的基礎上喪失制定規(guī)則的權力。
人天生就是社會性動物,而社會性動物就意味著必須守規(guī)則,而規(guī)則就是人類為了實現(xiàn)共同目標而協(xié)商制定出來的。隨著生存環(huán)境的變化,人類不斷通過協(xié)商、廢除、修改和制定規(guī)則。只要規(guī)則能夠不斷適應人類的生存現(xiàn)實,我們就應該嚴格遵守規(guī)則以便尋求到更好的生存。這就要求,要使我們的規(guī)則越來越符合人類的生存現(xiàn)實就必須不斷地認識它。如果認識不清楚,我們的規(guī)則就不可能是好的規(guī)則,我們的生存就不可能越來越好。因此,我們要制定出好的規(guī)則,關鍵在于一方面能夠認識清楚我們的生存現(xiàn)實,另一方面根據(jù)此前的認識進行協(xié)商。
顯然“奇點”來臨之后,人類肯定會利用人工智能來幫助我們認識清楚這個生存現(xiàn)實,并希望為我們制定規(guī)則提供重要參考。但是,完全依賴于人工智能制定出來的規(guī)則是否就完全適合于我們呢?更何況,人工智能作為新的生命體,肯定也需要遵守規(guī)則。這就涉及到這樣的問題:以往制定出來的規(guī)則都是人與人相互協(xié)商的產(chǎn)物,但是現(xiàn)在有了人工智能的參與,制定出來的規(guī)則就不是人與人相互協(xié)商的產(chǎn)物,而是涉及到人與人工智能、人工智能與人工智能和人與人的相互協(xié)商。但是基于智能水平的差異,人類的認識與人工智能的認識肯定存有差異,我們肯定無法與人工智能進行平等地協(xié)商進而制定出適合人類與人工智能的規(guī)則。因為“人類技能的增長速度越來越緩慢,而計算機功能的增速卻越來越快”,[12]智商極限在150的我們“或許已經(jīng)能夠接受智商為250的機器人,因為這接近于人類生物智能的智商范圍。但是,對于智商1000的機器人或1萬的AI來說,我們仍然心存不安”。[13]60因此,我們只能被動地接受智商比人類高出數(shù)個數(shù)量級的人工智能制定出的規(guī)則。
即使我們能夠表面上平等地坐下來與人工智能進行協(xié)商,但是如果在協(xié)商的過程中出現(xiàn)爭執(zhí),該如何處理呢?可以肯定,我們只能聽命于人工智能。另外,既然人工智能是具有生命的新主體,它們在制定規(guī)則的時候也肯定優(yōu)先考慮自己。長此以往,人類必將交出制定規(guī)則的權力而異化給人工智能。如果如此,人類將永遠只能被動地接受規(guī)則而不能主動地廢除、修改和制定規(guī)則。這樣的結果就是人工智能開始設計起人類,而不是人類設計人工智能。我們的生存也許就是這樣:“地球可能會變成一座沒有圍墻的動物園,一個實實在在的陸地動物飼養(yǎng)所,哪里只有陽光和孤獨,我們的機械看管者為了維護正常的運轉偶爾會推動我們一下,而我們會為了自身的幸福高舉雙手歡迎這樣的幫助”。[14]
因此,由于智能水平的差異,我們必將逐漸失去制定規(guī)則的權力,進而完全依賴于人工智能來幫助我們制定規(guī)則。長此以往,我們就成了一個被動的執(zhí)行者,更甚者,我們會逐漸喪失對我們的生存現(xiàn)實的判斷能力。因為我們無需制定規(guī)則,根本不需要對我們的生存現(xiàn)實進行任何認識與判斷。這樣,我們反而成了被動執(zhí)行指令的機器,并逐步被淘汰為動物甚至機器人的寵物。實質上,人類失去制定規(guī)則的權力就是人類已經(jīng)無法控制人工智能,導致人工智能異化,即原來的主體(人類)轉變?yōu)榭腕w,原來的客體(人工智能)轉變?yōu)橹黧w。簡言之,人工智能已經(jīng)不是人類的創(chuàng)造與作品,反而成了控制和規(guī)定人類的主體。
由于人工智能的過于強大,不僅人類生存的內在條件正在不斷發(fā)生著不利于人類生存的變化,而且人類生存的外部條件同樣也正在不斷發(fā)生不利于人類生存的變化,環(huán)境資源不是越來越優(yōu)越,而是越來越危機,即可能會對人機共存的環(huán)境帶來巨大挑戰(zhàn),直接威脅到我們生存所需的環(huán)境資源?,F(xiàn)有的研究往往忽視這方面的挑戰(zhàn)。
眾所周知,人類生存環(huán)境的惡化從根本上說是由于環(huán)境資源的有限性,并且人的數(shù)量在不斷增長以及需求在不斷提升,難免會超出這個星球的承受能力。因此,要使我們能夠一勞永逸地生存下去,首先就需要提高環(huán)境資源的利用效率以減少浪費;其次是將我們的需求控制在地球可以承受的范圍內;再次是大力發(fā)展可再生資源;最后是努力發(fā)展可替代資源。但是在現(xiàn)有的技術條件下,任何一個方面都顯得舉步維艱。不過庫茲韋爾認為,“奇點”來臨之后,特別是通過發(fā)展納米技術,就會“使發(fā)展清潔、可再生、分布式和安全的能源技術成為可能”。[1]147不僅資源的利用效率極大提高而幾乎不產(chǎn)生浪費,而且我們將不再像現(xiàn)在一樣依賴不可再生資源。因此,環(huán)境資源必將越來越優(yōu)化,生存環(huán)境必將越來越好。
其實,庫茲韋爾是根據(jù)現(xiàn)在的狀況來預測未來,并沒有意識到未來的人工智能和人類一樣也需要消耗大量的環(huán)境資源。如果僅僅是我們需要消耗環(huán)境資源,當然可以通過發(fā)展高新技術來緩解甚至解決這個緊迫問題。但是人工智能本身所要消耗的資源又應該如何來計算呢?特別是,“智能爆炸”的到來完全有可能會導致環(huán)境資源更加惡化。“智能爆炸”意味著人工智能數(shù)量的發(fā)展完全超出我們的控制。隨著人工智能的數(shù)量呈現(xiàn)指數(shù)增長,制造人工智能所需要的特殊資源也必將呈現(xiàn)出指數(shù)增長。現(xiàn)在我們所能預測的是:“所有這些數(shù)字設備將需要更多的‘稀土’,更多的鈳鉭鐵礦石,更多的鋰以及許多其他日益稀缺的資源”;[15]196“為了查收電子郵件和短信,你需要諸如筆記本電腦、平板電腦和智能手機等設備,導致對鋰和鈳鉭鐵礦石等能源資源的需求也成倍增長”。[15]197而這些制造人工智能的特殊資源基本上都是不可再生資源。當然你可以說,人工智能所需要的資源不是人類所需的,因此,對我們的生存不產(chǎn)生任何實質性的威脅。但是不要忘記了,“奇點”來臨之后,我們的生存已經(jīng)與人工智能緊密結合在一起,如果人工智能不能得到持續(xù)發(fā)展,最終的結果就是我們也同樣不能持續(xù)發(fā)展。
其實,不僅“智能爆炸”會帶來新的環(huán)境資源危機,人工智能的不斷發(fā)展導致效率的提高同樣會帶來環(huán)境資源的新危機。因為人工智能的發(fā)展僅僅是提高了效率進而減少浪費。但是從歷史視角分析,以往的任何一次科技革命都提供了新技術,能夠不斷地提高環(huán)境資源的利用效率,但是效率提高了,我們的需要在質與量兩方面也增長了。為了滿足我們的需要,科技的進步必然得到進一步發(fā)展的動力。長此以往,人類所需的環(huán)境資源只能隨著效率的提高而不斷擴大,以至于超過地球的承受能力而不斷產(chǎn)生新的危機。就目前而言,我們大談特談人工智能,也僅僅是因為提高了效率,并沒有產(chǎn)生根治危機的效果。
因此,“奇點”的到來不僅使人類生存的內在條件(主體地位、賦予世界以意義的地位、決策權力和制定規(guī)則權力)受到前所未有的沖擊,而且人類生存的外在條件即環(huán)境資源也受到了重大沖擊,意味著人工智能對人類生存所產(chǎn)生的顛覆性影響是全方位的。
正因為人工智能對人類生存所產(chǎn)生的影響是全方位的,即“奇點”來臨之后我們越來越像人工智能、我們的生存越來越無意義化、我們的自主決策權力正在被剝奪、甚至逐漸失去制定規(guī)則的權力、并且連我們生存所需的外部條件即環(huán)境資源也受到了威脅,那么我們就必須未雨綢繆地采取措施以避免這種狀況的發(fā)生?,F(xiàn)在看來,我們最容易想到的是賦予人工智能以理性。如果人工智能和我們一樣具有人類的理性,那么人工智能的所作所為就會按人類的理性來展開,即可以借用理性來實現(xiàn)人工智能不斷服務于人類!但是這可行嗎?
從歷史分析,“世界在不斷進步,我們很幸運,因為當今社會比人類歷史上任何時候都更加和平、有序,當代人培育、提高自己智力、藝術和情感能力的機會空前增加”。[7]130而整個人類歷史能夠呈現(xiàn)出進步的狀態(tài)關鍵在于人是有理性的。對于技術樂觀主義者而言,人工智能的飛速發(fā)展并沒有必要讓我們保持高度的警惕與擔憂,畢竟人工智能是人類發(fā)展的技術產(chǎn)物,并且“超級人工智能將會把理性作為自己的行動指南,并因此變得仁慈”。[7]131因此,人工智能必將在我們的作用下發(fā)展成為對人類越來越友好的人工物,畢竟它們會擁有和我們一樣的理性。如果這樣,我們的生存會隨著人工智能的發(fā)展而不斷進步。
確實,如果人工智能能夠越來越理性化,對人類生存而言肯定是積極的。但是,如果人工智能越來越具有人的理性,那么人的理性是否存在著不可克服的矛盾?如果人的理性存在著不可克服的矛盾,那么擁有人的理性的人工智能是否也同樣存在著不可克服的矛盾?如果人工智能因為具有人的理性而產(chǎn)生沖突,我們是否還有機會生存下去呢?
可以肯定,人類歷史上曾經(jīng)出現(xiàn)的各種危機都是理性的產(chǎn)物。至今讓我們記憶猶新的兩次世界大戰(zhàn)都是理性的產(chǎn)物,還有冷戰(zhàn)時期的美蘇爭霸導致隨時都有可能發(fā)生毀滅地球的核戰(zhàn)爭陰云同樣也是理性的產(chǎn)物,相信現(xiàn)在出現(xiàn)的各種生態(tài)危機也是理性的產(chǎn)物。因此,人類的理性并不完美,特別是理性沖突不可避免。如果人工智能將我們相互沖突的理性作為自己的行動指南,那么人工智能之間的沖突同樣不可避免。一旦人工智能之間產(chǎn)生沖突,這樣的沖突所產(chǎn)生的破壞力肯定要比兩次世界大戰(zhàn)超出數(shù)十倍甚至更多個數(shù)量級,必將危害到我們賴以生存的整個星球,世界末日就不是僅僅出現(xiàn)在宗教神話和科幻小說中。
可能更為恐怖的是,“奇點”來臨之后的人工智能就像我們一樣能夠自我繁衍,它們的理性必然同樣能夠“自我繁衍”下去而產(chǎn)生出新的理性體系,那么人類的理性如果一旦和人工智能的理性產(chǎn)生了沖突,那么我們應該怎么辦?是完全屈服于人工智能的理性還是奮起反抗而迫使人工智能繼續(xù)接受我們的理性?顯然,“完全屈服”可能是最好的選擇,因為奮起反抗的結果只能是自取滅亡。有人可能會認為,我們還可以繼續(xù)發(fā)揮理性狡計,比如利用拔掉插頭以切斷電源、賄賂、說服甚至威脅等方式,讓人工智能不斷服務于人類。但是現(xiàn)在我們就可以預見:“超人工智能將會變得超級精明,要靠拔插頭解決問題絕不可能”,[16]177且“超人工智能將足夠了解人類心理,可能知道什么樣的賄賂或威脅可能起作用,也可能知道哪些人最容易被哪些說服方式說服”。[16]178顯然在人工智能面前想通過理性狡計這樣的雕蟲小技來“迷惑”它們簡直就是天方夜譚。而且我們更應該擔心:這樣的雕蟲小技一旦不能(也根本不能)取得成功而被它們識破且報復我們的悲慘境況。
因此,促使人工智能越來越理性化的結果可能就會違背我們的初衷,最終的結果很有可能就是摧毀一切。這就意味著促進人工智能朝著有利于人類生存的方向發(fā)展不能寄希望于將人的理性“貫穿”到人工智能身上。
可見,借用人類的理性來實現(xiàn)人工智能不斷為人類服務的目標是不可實現(xiàn)的,當然我們不能就此而放棄促使人工智能不斷服務于人類這一目標。除了賦予人工智能以理性之外,我們還可以通過“嵌入”倫理規(guī)則的方式來促使人工智能不斷服務于人類。
早在1940年12月,剛剛20歲的阿西莫夫(Isaac Asimov)就曾站在人類中心主義的立場闡述了他的機器人三定律。[13]63其實早期的人工智能研究者都認識到一旦人工智能超越人類將會產(chǎn)生可怕的后果,特別是“聊天機器人”的發(fā)明者魏森鮑姆(Joseph Weizenbaum),在意識到人工智能帶來的可怕后果后就開始研究人工智能帶來的社會責任和道德問題。[17]因此,要使這種可怕后果不要發(fā)生的可能最佳方式就是為人工智能立法。比如,未來生命研究院提出“確保AI有益于人類社會”,美國計算機協(xié)會發(fā)布算法透明和可責性七項原則,德國提出全球首個自動駕駛車倫理原則,韓國國會提出《機器人基本法案》和IEEE發(fā)布《人工智能設計的倫理準則(第二版)》,等等。當然,為人工智能立法的最好辦法就是在設計過程中“嵌入”倫理規(guī)則,保證人工智能不斷遵守倫理規(guī)則而為人類服務。段偉文認為,應該進行“探討倫理嵌入的機器倫理研究”,“不僅是人工智能的設計者、控制者和使用者應該遵守特定的倫理規(guī)范,而且還需要將特定倫理規(guī)范編程到機器人自身的系統(tǒng)中去?!盵18]這樣,就能夠通過“嵌入”倫理規(guī)則促進人工智能成長而培育出具有道德判斷能力的可能,使人工智能成為道德智能體。
如果能夠通過“嵌入”倫理規(guī)則而不斷實現(xiàn)人工智能的倫理化,那么必將對我們的生存產(chǎn)生積極效果。但是問題的關鍵是我們應該為人工智能“嵌入”怎樣的倫理規(guī)則。倫理規(guī)則和理性一樣具有相對性,倫理規(guī)則之間的沖突不可避免,倫理規(guī)則與現(xiàn)實之間的沖突同樣不可避免。就倫理規(guī)則之間的沖突而言,我們對倫理規(guī)則背后的基本倫理理念的理解仍然存在激烈的沖突,不同的理解必然會產(chǎn)生不同的甚至相互矛盾的倫理規(guī)則。人工智能在遵循這些倫理規(guī)則時必然會處于兩難的悖論境地。比如,如果“嵌入”以人為中心的功利主義規(guī)則,那么首先就必須回答什么功利、什么是功利最大化和傷害最小化、功利到底如何計算,等等。如果在這些問題還沒有搞清楚之前就將其中的倫理規(guī)則“嵌入”人工智能,那么它們能一以貫之嗎?
另外,倫理規(guī)則一旦制定出來就意味著具有一定的普遍性,能夠在任何情況下適用。那么將倫理規(guī)則“嵌入”人工智能之后,它們是否也會像我們一樣,會出現(xiàn)一旦產(chǎn)生具體沖突該如何遵循的困境?比如現(xiàn)在人們普遍思考的無人駕駛。當無人駕駛汽車在面對不可避免的車禍的時候,到底是優(yōu)先保護車上的人還是車外的人?即人工智能是否也像人類一樣在普遍與特殊之間的矛盾中不能自拔?如果出現(xiàn)這樣的狀況,估計人工智能除了“死機”之外沒有其他更好的辦法。這就表明,人工智能很難將我們“嵌入”的倫理規(guī)則真正貫徹到底。
因此,一個具有人類意識的人工智能如果不能像我們一樣嚴格遵守相應的倫理規(guī)則,肯定是可怕的;但是當我們在思考如何將倫理規(guī)則“嵌入”人工智能而使其倫理化的時候,卻發(fā)現(xiàn)我們不知道應該“嵌入”什么樣的具體倫理規(guī)則;如果真的“嵌入”,人工智能必然會像我們一樣陷入普遍與特殊之間的矛盾中。
既然“奇點”的到來給人類的生存帶來了前所未有的沖擊,并且我們通過賦予人工智能以人類特有的理性和“嵌入”倫理規(guī)則都難以實現(xiàn)人工智能不斷服務于人類,那么我們就不能不思考一個十分緊迫的問題,人工智能到底是越來越友好還是越來越邪惡?當然,如果從技術中立的角度來思考,人工智能肯定是既不好也不壞。但是技術中立性的觀點已經(jīng)不再適用于人工智能。因為人工智能不再像過去的技術一樣呈現(xiàn)出死的技術產(chǎn)品,而是有意識且能夠自我繁衍的新生命體。它的好與壞直接決定了在“奇點”來臨之后,我們的生存是越來越好還是越來越壞。我們的生存與人工智能的好與壞產(chǎn)生了共進退的局面。但是,我們還是希望人工智能越來越友好。從人類產(chǎn)生至今的歷史,我們完全有理由保持樂觀的態(tài)度。世界只能越來越好而不是越來越壞,就像歷史上曾經(jīng)出現(xiàn)的歷次科技革命一樣,在革命的前期與中期人類總是會產(chǎn)生各式各樣的悲觀情緒,而在革命之后甚至更長的一段時間,突然發(fā)現(xiàn)每次科技革命都給我們帶來了發(fā)展與進步。因此,可能現(xiàn)在我們對人工智能充滿著各種擔憂,相信一旦真正實現(xiàn)了“奇點”,完全有可能是另外一番欣欣向榮。
但是歷史的樂觀并不意味著我們對于“奇點”就可以保持十足的樂觀,畢竟以往的科技革命都是我們控制下的技術進步,而“奇點”來臨之后,人工智能將成為與我們并列站在客觀世界面前的一個新物種,特別是“智能爆炸”,意味著我們的地位將發(fā)生根本性的改變。人工智能的過于強大很難使我們與之進行難分高下的競爭,結果只能是我們的生存越來越人工智能化,而不是人工智能越來越人性化,我們可能要不斷地依附于人工智能這個新物種。當我們的生存越來越人工智能化,我們的生存也會走向無意義化,顯得一切都不如委托給人工智能。因為這樣,我們聽命于人工智能的決策而形成行為就不用承擔任何倫理上的責任,“無為”地生存下去可能是更好的生存。
當然,面對強大的人工智能,如果我們能夠“無為”地生存下去,也不失為一種較好的生存,反正我們可以按照自己想要的方式好好地生存下去。但是想要與人工智能保持相安無事地和平相處也有一定的困難。關鍵是人工智能可能具有我們的意識與理性,可能也正在踐行著一整套獨特倫理規(guī)則。它們的意識、理性和倫理規(guī)則能夠和人類的和平相處嗎?如果不能,我們就不要希望獲得任何一方凈土。其實我們現(xiàn)在思考人機共存環(huán)境的時候,很大程度上是鑒于技術具有中立性的原因。因此,人工智能不會主動出擊。但是人工智能不會是完全中立的,畢竟它們是具有意識和理性的新生命體,更為重要的是,我們與人工智能在環(huán)境資源方面不可避免地會發(fā)生沖突。只要有沖突,哪怕是很小的沖突,誰都不能保證人工智能不會主動出擊。赫拉利就曾悲觀地預言:“一旦人工智能超越人類智能,可能就會直接消滅人類。人工智能這么做的理由,一是可能擔心人類反撲、拔掉它的插頭,二是要追求某種我們現(xiàn)在還難以想象的目標。”[8]294如果這樣的情況一旦發(fā)生,我們人類的生存就難以為繼。因此,誰能保證人工智能不會越來越壞呢?
因此,與以往的科技革命相比,“奇點”的到來只能導致人工智能在智能方面越來越超越人類,越來越失去人類的控制,甚至最終取代人類。這樣的結果就是人類特有的主體地位必將完全為人工智能所取代。如果人工智能一旦與人類發(fā)生沖突,人類的命運就難以想象,人工智能就是邪惡的。
綜上所述,為了保證我們能夠在2045年之后生存得越來越好,有必要現(xiàn)在未雨綢繆地采取措施,即擔負起未來的責任。庫茲韋爾指出:“科技是一把雙刃劍,在奔向奇點的道路上,與走向奇點的可能一樣,我們也很可能會走向岔路,造成令人擔憂的后果。”[1]225現(xiàn)在看來,能否使未來的人工智能越來越友好,關鍵在于我們自己。因此,我們有責任、有義務促使人工智能越來越友好、越來越能夠促進我們的生存。從責任倫理角度思考,這個責任與義務可能就是要求我們,從現(xiàn)在開始要逐漸構建起人工智能的責任倫理體系,負責任地研究、開發(fā)和運用。對人工智能擔負起全面的責任,這既是我們對人工智能擔負起全面責任,實質上也是我們對自己擔負起全面的責任,從而實現(xiàn)人工智能也能夠擔負起全面的責任(如果人工智能真的能夠成為繼人類之后的新的有意識的生命體)。唯有如此,人工智能才能真正不斷地服務于我們。正如現(xiàn)在我們面臨的諸種生態(tài)危機一樣,由于一開始沒有對地球上的有生命和沒有生命的存在物承擔起應有的責任,導致我們現(xiàn)在處于各式各樣的危機之中,直接威脅著人類的正常生存。如果我們一開始就承擔起了應有的責任,諸種生態(tài)危機或許根本就不存在。也正因為一開始沒有承擔起相應的責任,導致我們現(xiàn)在不得不承擔更大、更多、更沉重的責任。我們現(xiàn)在研究、開發(fā)和利用人工智能又何嘗不是如此呢?因此,我們現(xiàn)在構建人工智能的責任倫理體系已勢在必行,只有在研究、開發(fā)和利用人工智能的過程中不斷承擔起相應的倫理責任,才能在未來的人工智能發(fā)展過程中實現(xiàn)責權利的統(tǒng)一,最終促使人工智能不斷為人類服務。不僅要負責任地研究、開發(fā)和利用人工智能,還必須使人工智能不斷地成為我們的創(chuàng)造和作品;不僅要負責任地構建良好的人機關系,還必須實現(xiàn)在人類主導下人類與人工智能的和平共處;不僅要現(xiàn)在承擔相應的倫理責任,還必須未雨綢繆地承擔起未來的倫理責任;不僅要負責任地不斷促進人工智能為人類服務,還必須在此基礎上為人工智能的發(fā)展創(chuàng)造良好條件??傊覀儽仨氊撠熑蔚匮芯?、開發(fā)和利用人工智能,不僅要承擔好現(xiàn)在的責任,更應該面向未來而勇于承擔未來的責任。