摘?要:雖然阿爾法狗等代表的人工智能的進(jìn)展遠(yuǎn)遠(yuǎn)超出了自動化時代我們對機(jī)器所能完成的任務(wù)的想象,但是當(dāng)今的人工智能還沒有任何智能,對強(qiáng)人工智能的擔(dān)憂是杞人憂天。不過,對強(qiáng)人工智能的反思,仍然可以促進(jìn)我們對一些人類根本問題——比如何為智能、何為人——的探討。從中國哲學(xué)的角度看,現(xiàn)在對強(qiáng)人工智能是否會替代和毀滅人類的擔(dān)心,可能帶有西方文化的偏見。但是以孟子對人之為人的理解來養(yǎng)育類人之存在,也有其問題。在應(yīng)對現(xiàn)有的人工智能的挑戰(zhàn)上,我們應(yīng)該加強(qiáng)的,恰恰不是創(chuàng)造性教育,而是以死記硬背、以習(xí)題和考試為訓(xùn)練方式的基礎(chǔ)和高等教育。人工智能的發(fā)展可能會強(qiáng)化經(jīng)濟(jì)不平等,對此的解決,可能也要通過加強(qiáng)精英的責(zé)任和賢能在政治中的決策角色來解決,而這恰恰是儒家政治哲學(xué)的一個可能貢獻(xiàn)。
關(guān)鍵詞:人工智能;強(qiáng)人工智能;儒家;創(chuàng)造性教育;經(jīng)濟(jì)不平等
中圖分類號:B222;TP18文獻(xiàn)標(biāo)識碼:A
文章編號:1003-0751(2019)09-0104-06
一、人工智能尚不是真正的智能
最近大數(shù)據(jù)和人工智能技術(shù)的令人目眩的發(fā)展,尤其是阿爾法狗(AlphaGo)讓人難以置信的成功,使得“人類是否會被人工智能控制、替代、甚至殺掉”這樣的問題一躍成為熱門話題。雖然有這樣驚人的技術(shù)發(fā)展,但是,筆者想說的第一點(diǎn)是人工智能還不夠智能,甚至一點(diǎn)智能都沒有。雖然阿爾法狗擊敗了世界上最好的圍棋選手,但是隨便一個人都可以贏了它——只要我們選擇和它玩中國象棋就可以。當(dāng)然,如果它開始學(xué)中國象棋,它可以很快擊敗我們,但是我們可以再一次擊敗它——只要我們選擇跟它比踢毽子。一般來講,人類智能的一個核心特點(diǎn)是它可以做那些不是事先設(shè)計(jì)好的任務(wù),而阿爾法狗和其他現(xiàn)有的人工智能產(chǎn)品還只能做它們被事先設(shè)計(jì)好的工作(雖然它們可以做得很好,甚至超過人類)。因此,我們可以說,現(xiàn)有的人工智能還沒達(dá)到真正的智能。
在美國加州伯克利分校執(zhí)教的哲學(xué)家阿瓦·諾伊(Alva Noё)對此有很好的說法。鐘表并不真的知道時間,而是我們?nèi)祟愑盟鼇肀鎰e時間。與此類似,迄今為止的人工智能只是被我們?nèi)祟愑脕砀赡切ㄒ玫剑┲悄艿氖虑?。阿瓦·諾伊指出:“即使最簡單的生命形式,比如阿米巴蟲,也展示了某種智能、自主性(autonomy)、創(chuàng)造性,這甚至超越了最強(qiáng)大的電腦?!雹俑鶕?jù)他的說法,阿米巴蟲之所以更智能,是因?yàn)樗梢詾樽约焊淖兒蛣?chuàng)造自己的生存環(huán)境。也許有人會說,當(dāng)今的人工智能也可以做到這一點(diǎn)。筆者認(rèn)為,更準(zhǔn)確的說法是,阿米巴蟲的獨(dú)特之處,在于它并沒有一個人格意義上的設(shè)計(jì)者,或者即使它有,這個設(shè)計(jì)者也沒有給它一個具體的任務(wù),而僅僅是“尋求生存”這樣一個模糊的指令。人類沿著這種獨(dú)特性走得更遠(yuǎn)??梢哉f,即便我們是被設(shè)計(jì)出來的,我們也被設(shè)計(jì)成要超越任何(固定或特定的)設(shè)計(jì)。
筆者這里無意否認(rèn)阿爾法狗和其他人工智能進(jìn)步之神奇。很多人原本以為機(jī)器(包括人工智能)只擅長機(jī)械性的事情,即那些有著清楚規(guī)則和特定程序的工作,也就是所謂的自動化。而如圍棋這樣只能通過經(jīng)驗(yàn)、天分、不可言說的知識(tacit knowledge)等才能掌握的任務(wù),機(jī)器是無法完成的。阿爾法狗證明,我們這個信念有著巨大的漏洞。但是,圍棋畢竟還是一個特定的任務(wù),有清晰的規(guī)則和一些基本的策略,并且最重要的是,它的輸贏是明確定義了的,不需要人類的外來判斷和干預(yù)(這樣機(jī)器可以快速和高效地自我學(xué)習(xí))。因此,阿爾法狗的成功讓我們不得不承認(rèn),機(jī)器(包括人工智能)可以做絕大部分特定的、結(jié)果明確的工作,哪怕是沒有機(jī)械性的步驟可以遵循來完成這項(xiàng)工作。但是,究其根本,阿爾法狗仍然沒有人類意義上的智能:它沒有選擇掌握圍棋,是我們?nèi)祟愄嫠x定的。
當(dāng)然,有人會說,我們還是應(yīng)該為人工智能真的獲得智能——即人工智能(AI)變成了所謂強(qiáng)人工智能(Artificial General Intelligence/AGI)——的那天做好準(zhǔn)備。誠然,人類在預(yù)測未來上表現(xiàn)很糟糕。在20世紀(jì)50年代,人工智能就已經(jīng)開始發(fā)展,但突破性的進(jìn)展最近才發(fā)生。十年前,多數(shù)人認(rèn)為納米和生物科技才是將來科技發(fā)展的方向,很少有人意識到人工智能的巨大進(jìn)展。但不幸的是,我們?nèi)祟愔荒芾梦覀儯ń?jīng)常具有誤導(dǎo)性的)過往經(jīng)驗(yàn)和非常有限的智能去為未來做準(zhǔn)備?,F(xiàn)在看起來,對人類更清晰和緊迫的挑戰(zhàn)來自基因編輯、氣候暖化這樣的問題,而不是強(qiáng)人工智能。與前者明顯的迫切性相比,反思強(qiáng)人工智能對人類的挑戰(zhàn)簡直就是杞人憂天。
但是,這不等于說,反思強(qiáng)人工智能的問題沒有任何意義。在英美哲學(xué)界有兩個很熱門的話題是關(guān)于僵尸和時間旅行的。如果我們知道,僵尸電影和《回歸未來》(Back to the Future)系列電影在20世紀(jì)80年代很流行的話,我們可以嘲笑說,這些哲學(xué)家似乎是從流行電影中找到他們的研究話題。精神正常的人不會覺得真的會遇到僵尸,而時間旅行只存在于科幻電影之中,只是一個數(shù)學(xué)上的可能性,幾乎沒有物理學(xué)家認(rèn)為在較近的甚至是很遠(yuǎn)的未來里面,時間旅行有任何成為現(xiàn)實(shí)的可能性。但是,同情地講,反思這些看起來是閑極無聊甚至是荒誕的話題,可能還是有哲學(xué)意義的,因?yàn)樗梢哉宫F(xiàn)一些被隱藏起來的問題。類似的,即使真正有智能的強(qiáng)人工智能還遠(yuǎn)在天外,我們還是可以反思,對它的思考是否可以讓我們發(fā)現(xiàn)一些重要和有趣的話題。實(shí)際上,我們前面“當(dāng)今的人工智能還沒有任何智能”的說法,就可能是這樣一種反思的結(jié)果,即對(其實(shí)還很遙遠(yuǎn)的)強(qiáng)人工智能的憧憬或者恐懼,讓我們不得不回應(yīng)人類的智能為何的問題。
二、強(qiáng)人工智能與中國哲學(xué):制造超級人類?
對強(qiáng)人工智能與人工智能的各種挑戰(zhàn)的哲學(xué)反思,已經(jīng)有很多。在這篇文章中,筆者會集中于從中國哲學(xué)與思想相關(guān)的角度出發(fā),來反思其挑戰(zhàn)。在對強(qiáng)人工智能的態(tài)度上,在美國,公眾對強(qiáng)人工智能和其他科技進(jìn)步常常是充滿恐懼的,但在東亞,公眾對科技發(fā)展似乎更持一種歡迎態(tài)度。如果這種觀察確實(shí)是事實(shí),那么一個可能的解釋是,現(xiàn)代科學(xué)首先在西方得以發(fā)展,而在追趕過程中,東亞就很可能產(chǎn)生對科學(xué)的(非科學(xué)、非理性的)崇拜。在東亞,“科學(xué)”和“好的”成為同義語。另一個可能的原因,是基督教有創(chuàng)生的神話(creation myth),根據(jù)這一神話,只有上帝才能造人。但在東亞傳統(tǒng)里面并沒有這樣的創(chuàng)生神話,不同的神,甚至是人都可以參與到創(chuàng)造和成就人類的過程中。人類會創(chuàng)造類人的存在,東亞人比西方人更易接受這種可能性,因?yàn)槟呐率鞘浪椎奈鞣饺丝傔€是在成長中可能受到基督教的潛移默化的影響。同時,伴隨著這種創(chuàng)生神話,還有世界大毀滅的神話②,為西方人對科技進(jìn)步帶來世界毀滅提供了思想上的“藍(lán)圖”,這又與東亞的文化傳統(tǒng)不同。因此,哲學(xué)和文化傳統(tǒng)的不同,直接影響到東西方人對人工智能的不同態(tài)度和心理反應(yīng)。
這里的另一個問題是,在什么意義上我們就造就了一種類似甚至超越人的存在?前面的關(guān)注集中在人的智能上。但是,按照孟子對人之為人的理解,我們會說,在這個問題上,只關(guān)注智能是錯誤的。因?yàn)閷γ献觼碇v,人之為人,或者人與禽獸的根本區(qū)別,不是智能,而是惻隱之心及建立于其上的仁。作為德性之一的智(能)是為仁服務(wù)的,即幫助我們實(shí)踐我們的惻隱之心,幫助他人。對惻隱之心(compassion)這種情感(passion)的首要性的強(qiáng)調(diào),在西方哲學(xué)里面是非常罕見的。正如哲學(xué)家休謨(David Hume)指出的:“談?wù)撉楦校╬assion)和理性(reason)之爭、給予理性以優(yōu)先地位,并斷言人有多少道德只與在多大程度上遵從理性之命令(dictates)相關(guān),在[西方]哲學(xué)乃至日常生活里面,沒有比這些說法再通常的了?!雹叟c之相對,休謨幾乎是獨(dú)樹一幟地論述,就產(chǎn)生行動或者促使我們行動而言,“理性是并且應(yīng)該只是情感的奴隸”④。當(dāng)代神經(jīng)科學(xué)家安東尼奧·達(dá)馬西奧(Antonio Damasio)引用了休謨的后一種說法,并且也為情感在人類行動中的首要性做出論證。⑤但是,如上所述,休謨關(guān)心的是人類行動的驅(qū)動因素,達(dá)馬西奧更是主要在經(jīng)驗(yàn)層面關(guān)心這個問題,并訴諸進(jìn)化論。用進(jìn)化論的語言來講,我們可以說,休謨和達(dá)馬西奧實(shí)際是在論述,由于其更長的演化歷史,人類中動物性的因素比我們的理性要強(qiáng)大得多。如達(dá)馬西奧指出的:“神經(jīng)系統(tǒng)只是在5億年前進(jìn)入了生命的舞臺。比起演化的時間尺度,比起地球上生命的40億年的歷史來講,這實(shí)在微不足道?!雹匏@里說的是神經(jīng)系統(tǒng),而人類乃至人類智能這種依賴于極其復(fù)雜的神經(jīng)系統(tǒng)的演變,當(dāng)然就更短了。
因此,雖然在西方傳統(tǒng)里面,休謨和達(dá)馬西奧已經(jīng)是少有的例外了,但是他們的立場還是與孟子有著根本不同。孟子所關(guān)注的是惻隱之心,而非任意一種情感,并且他對惻隱之心這種情感的強(qiáng)調(diào),不是出于它是與動物相通并且有著長久的演化積累,而是因?yàn)樗约敖ㄓ谒系娜适侨双F之別的根本。在《孟子·離婁下》中,孟子指出:“人之所以異于禽獸者幾希?!雹咚@里雖然沒有明確指出區(qū)分人類與禽獸的這一點(diǎn)點(diǎn)東西(“幾”)是什么,但是從其他地方看,這種區(qū)分應(yīng)該是從惻隱之心發(fā)展出來的仁。在《孟子·公孫丑上》中,孟子指出“不忍人之心”(惻隱之心或者同情心)是人類所共同的(“皆有”)。人類需要培養(yǎng)人皆有之的惻隱之心,這樣才能配得上人的名聲。因此,孟子并不認(rèn)可情感是人類行動之主宰這一立場(休謨和達(dá)馬西奧的立場),而是要求人類的理智和其他自然情感都要被惻隱之心所規(guī)管。也就是說,孟子以及追隨孟子的儒家的立場與休謨和達(dá)馬西奧等西方思想家中這樣強(qiáng)調(diào)情感重要的少數(shù)派仍然有著根本不同,其對惻隱之心的強(qiáng)調(diào)有其獨(dú)特性。
當(dāng)然,西方道德學(xué)說的主流學(xué)說之一的功利主義的核心,在于根據(jù)是否提高最大多數(shù)人的最大幸福的理性計(jì)算,而另一主流學(xué)說的義務(wù)論,也強(qiáng)調(diào)對理性的道德原則的服從。與此相對,休謨一支的思想家更為強(qiáng)調(diào)情感的指導(dǎo)。孟子式的儒家強(qiáng)調(diào)對惻隱之心這種道德情感的培養(yǎng),讓其成為我們行動的推動者。在情感的指導(dǎo)功能上,孟子式的儒家與休謨式的思想家有相通之處,可以互相借鑒。
從孟子的立場出發(fā)去回答我們是否在創(chuàng)造類人的存在,我們要關(guān)注的是我們是否創(chuàng)造了“人工道德情感”,而不是“人工智能”。對強(qiáng)人工智能的擔(dān)心,從孟子的角度看,不是對類人但強(qiáng)于人的存在的擔(dān)心,而是對(具有超人智能的)禽獸的擔(dān)心。著名的圖靈測試,在對機(jī)器與人的區(qū)別上,關(guān)注的是語言和理性。但按照孟子對人的理解,我們應(yīng)該關(guān)注的是被試者是否展示出惻隱之心。并且,即使我們創(chuàng)造了具有內(nèi)在的善的存在,即使這個存在通過了孟子式的圖靈機(jī)測試,這并不意味著我們制造類人存在的使命就完成了。雖然根據(jù)孟子,惻隱之心是人獸之別的關(guān)鍵,但是成人是一個過程,不是一個固定的點(diǎn)。生物意義上的人仍然需要學(xué)習(xí)成為孟子的道德與規(guī)范意義上的人。正如惻隱之心可以變得越來越強(qiáng),我們也可以成長得越來越是人,或者成長為越來越大的人(道德意義上的大小)。如果一個生物意義上的人不好好撫育人的天生的善性,他可能會退化得近于禽獸。這對孟子而言沒什么好奇怪的。比如,《孟子·滕文公上》指出:“飽食、暖衣、逸居而無教,則近于禽獸?!奔热簧镆饬x上的人可以退化成禽獸,那么,一個被制造出來的存在可以通過培養(yǎng)道德情感而變成人,也沒有什么好奇怪的了。
孟子的道德培養(yǎng)是我們成人之關(guān)鍵性的觀點(diǎn)也可能會幫助回應(yīng)另一個對強(qiáng)人工智能的擔(dān)憂。強(qiáng)人工智能可以在智能和體格上強(qiáng)于人,如果它們被設(shè)計(jì)成或者自己選擇(強(qiáng)人工智能的重要特征就是可以自主決定)去消滅人類,誰也攔不住它們。因此,讓它們的行為得以規(guī)管就變得很重要了。但是如果我們希望通過編碼或者律令來規(guī)管其行動,比如阿西莫夫的機(jī)器人三定律(Issac Asimov's Three Laws of Robotics),它們很可能最終無法處理復(fù)雜的生活所帶來的挑戰(zhàn)。其實(shí)我們只要看看揭示倫理兩難的電車問題可以膨脹成一個研究領(lǐng)域,甚至有了所謂“電車學(xué)”(trolleyology)這樣的事實(shí),我們就不難想象任何一套原則都會導(dǎo)致各種難題——當(dāng)然,這會是那些需要發(fā)文章的哲學(xué)教授和博士生所喜聞樂見的。??怂估≒eter Eckersley)論證,將效用函數(shù)(utility functions)或者與其等價的函數(shù)應(yīng)用到任何一種機(jī)器學(xué)習(xí)里面,都不可能在不違背人類的很強(qiáng)的倫理直覺的情況下,保證其結(jié)果對某個人群是好的。⑧中國的人工智能專家曾毅則斷言:“把人類社會的一些規(guī)則灌輸給人工智能系統(tǒng),但這絕對不是一個好的解決的方法。”⑨
與此相對,儒家的道德養(yǎng)成不是簡單的一套原則、一本行動手冊,我們不是通過摩西十誡或者理性的絕對命令來愛我們的家人,而是強(qiáng)調(diào)在不同處境下的具體應(yīng)對。在前面引用的對曾毅博士的采訪中,他進(jìn)一步指出:“只有人工智能系統(tǒng),與人類交互的過程當(dāng)中自主地去獲取人類價值觀、做事的規(guī)則和準(zhǔn)則,以一種基于自我模型的自主學(xué)習(xí)的方式,它才真正地實(shí)現(xiàn)可理解,才真正能達(dá)到人工智能模型和人類社會價值觀校準(zhǔn)(alignment)的這樣一個過程?!雹庠谌顒P的一篇文章里面,他指出,“通過以滿意和道德捷思法為關(guān)鍵詞的有限理性觀對功利主義的改良,一種以功利主義為內(nèi)核的機(jī)器倫理模型可以被構(gòu)想和實(shí)現(xiàn)”B11。這里的有限理性,如果是可行的,應(yīng)該也是上面曾毅指出的自主學(xué)習(xí)的過程。
但是,從儒家的角度,這種情境中的學(xué)習(xí),仍然不夠。在具體情境中,我們不但要獲取應(yīng)對各種倫理困境的方法,更要通過與家人、外人在一起,理解他們的特點(diǎn)和需要,在交往中發(fā)育我們相互的關(guān)切來學(xué)會愛我們的家人,然后推己及人。在這一過程中,我們會遇到不同道德責(zé)任之間的矛盾(比如忠與孝),而我們通過生活本身來學(xué)會面對它們。我們要做到的,是仁愛與理智——這里理智應(yīng)該理解為亞里士多德意義上的實(shí)踐智慧(phronesis)——的結(jié)合。前面提到的曾毅和阮凱的說法,依然是過多地強(qiáng)調(diào)理智方面的解決。與功利主義或者康德式的義務(wù)論相比,這種人工智能中的亞里士多德主義可能更優(yōu)越。但是,從儒家的觀點(diǎn)看,它缺乏對情感培養(yǎng)的強(qiáng)調(diào)。博古睿研究所(Berggruen Institute)B12的主席博古睿(Nicolas Berggruen)在最近的一篇文章中指出,我們應(yīng)該把人工智能——“這個文明的最終之子”——當(dāng)成我們的孩子,并如儒家所言,我們在家庭的環(huán)境中,對它進(jìn)行道德培養(yǎng),特別是培養(yǎng)它對其他人的關(guān)愛。B13這一說法確實(shí)很好地展示了儒家對道德培養(yǎng)的理解。
但是,儒家的道德養(yǎng)成是否就能保證對強(qiáng)人工智能的關(guān)愛與審慎權(quán)衡?糟糕的家庭環(huán)境會對孩子有壞的影響,然而好的家庭也不能保證培養(yǎng)出來的孩子有多好。韓非子很早就批評過儒家的道德培養(yǎng)。他認(rèn)為,通過家庭中的道德培養(yǎng)來規(guī)范人類行為,不如通過建立在賞罰之上的法律制度來得有效。比如,《韓非子·顯學(xué)》很直觀地指出,“夫嚴(yán)家無悍虜,而慈母有敗子”B14。并且,我們也要問,為什么我們需要人造人呢?與其制造“文明之子”,不如我們直接生孩子。博古睿指出,這里的問題不應(yīng)該是人工智能還是人類才是主宰,而是我們?nèi)绾沃圃烊伺c人工智能的混合體。但就這些混合體而言,我們其實(shí)并不需要真正有智能或者真正有惻隱之心的人工體?,F(xiàn)在人工智能的成就已經(jīng)可以為這種混合體奠定基礎(chǔ)了。因此,我們又被帶回到現(xiàn)有的(弱)人工智能對人類構(gòu)成何種挑戰(zhàn)這個問題。這是一個更迫切的問題。
三、回應(yīng)(弱)人工智能的挑戰(zhàn):“東亞式”教育與儒家混合政體
(弱)人工智能給人類帶來了很多挑戰(zhàn)。但是,有時候我們對人工智能的擔(dān)憂,可能有偏激的風(fēng)險。比如,一個常見的抱怨是科技(包括人工智能)的發(fā)展讓我們的孩子遠(yuǎn)離同伴、遠(yuǎn)離自然。但是離開自然是人類一直致力的事情。我們甚至可以說,離開自然的過程是人類成為人類的過程。難道我們應(yīng)該重回叢林,撿草木之實(shí),徒手殺死禽獸并生吃其肉嗎(不要忘了,用火也是人類技術(shù)進(jìn)步的結(jié)果)?并且,電視、網(wǎng)絡(luò)以及其他技術(shù)發(fā)展也把我們很難接觸到的自然帶到了我們和我們的孩子們眼前;也就是說,技術(shù)對人類與自然接觸的影響并不僅僅是負(fù)面的。因此,我們需要問的問題是,與自然的哪一方面保持接觸對人類的幸福生活是有益的?抱怨科技發(fā)展讓我們遠(yuǎn)離自然的人需要回答這個問題;否則,他們的抱怨可能只不過是把他們與自然的那些接觸或者他們想象的與自然的那些接觸當(dāng)成不同群體、不同時代、不同地點(diǎn)都必須要有的,也就是說,他們的抱怨無非是出自個人偏見,把個人的偶然經(jīng)歷當(dāng)成人類的普遍必然而已。就以與其他同伴的接觸來說,兒童和青少年也通過電腦游戲接觸到了并不是他們?nèi)粘I钊ψ永锏娜?。也就是說,他們接觸的圈子還擴(kuò)大了,雖然可能在這個過程中,他們會失去一些如上一代人能接觸的周邊的同齡人。這就又引到了什么樣的人際交流才是根本的這個問題。在回答這個問題時,我們也要注意避免將我們自己成長經(jīng)歷構(gòu)成的偏見當(dāng)成普世真理。當(dāng)然,筆者不是對進(jìn)步充滿樂觀的人,也并不相信進(jìn)步帶來的惡果都會被平衡掉。這里只是想說,我們很多對新變化的擔(dān)心可能是出自我們舊有之偏見,是單方面的、被夸大的。
那么,讓我們來以一種全面與平和的態(tài)度,從廣義的中國傳統(tǒng)與中國哲學(xué)的視角,來處理人工智能已經(jīng)構(gòu)成的挑戰(zhàn)中的兩種。第一是對教育的挑戰(zhàn)。自動化已經(jīng)搶走了很多藍(lán)領(lǐng)工人的工作,而類似阿爾法狗的人工智能的發(fā)展則意味著,如醫(yī)生、股票交易人、律師等白領(lǐng)工作也有被機(jī)器替代的危險。如在第一節(jié)里論述的,當(dāng)今的人工智能還不具有人類的智能,因?yàn)槿祟愔悄艿年P(guān)鍵特點(diǎn)在于它的創(chuàng)造性。由此得出的結(jié)論似乎是:為了回應(yīng)(并不真的有人類智能的)人工智能的挑戰(zhàn),我們應(yīng)該重視人類智能獨(dú)有的創(chuàng)造性。在教育上,這意味著我們要重視創(chuàng)造性教育B15,而不是死記硬背和應(yīng)試教育。前者常被歸于西式或美式教育,而后者常被歸于儒家、中式或者東亞式的教育,雖然至少后面這一說法是有很大問題的。B16但是,就筆者看來,人工智能的發(fā)展可能恰恰支持了死記硬背乃至廣義上非創(chuàng)造性教育的重要。死記硬背的對象是基本技能的培訓(xùn),比如寫作與算術(shù)。并且,哪怕是基礎(chǔ)科學(xué),如科學(xué)哲學(xué)家?guī)於鳎═homas Kuhn)指出的,在常規(guī)科學(xué)(normal science)時代,對科學(xué)的學(xué)習(xí)是通過以共通的教科書(textbook)為基礎(chǔ)的嚴(yán)格訓(xùn)練實(shí)現(xiàn)的。其目的,是讓學(xué)生掌握一套共用的科學(xué)范式(paradigm),其所訓(xùn)練的,是這種匯聚的(convergent)思維模式,而非發(fā)散的(divergent)或是強(qiáng)調(diào)創(chuàng)造性的思維模式。B17在這種訓(xùn)練中,不斷通過習(xí)題和考試來讓學(xué)生掌握既有范式是至關(guān)重要的。人工智能的發(fā)展讓我們看到,可能任何一種具有確定性的工作(有清晰的規(guī)則和一些基本的策略,任務(wù)成功與否有相對明確的判斷,并且最好不依賴人類的外來判斷和干預(yù)),人工智能可能都可以最終掌握,并比人類做得更好,或者至少可以替代人類。這意味著我們需要不斷重新創(chuàng)造自我以適應(yīng)不斷變化的就業(yè)市場。我們掌握的那些“先進(jìn)的”的技能可能最終都被證明是可替代的和沒有用的,而我們必須回到我們擁有的基本技能(比如在中小學(xué)學(xué)的識字和算術(shù)、在大學(xué)里學(xué)的現(xiàn)代物理科學(xué))來再造自我。既然這些基本技能變得至關(guān)重要,那么我們就應(yīng)該保證這種教育的成功,而如前面提到的庫恩的論點(diǎn)所指出的,后者恰恰是依賴于死記硬背和應(yīng)試教育等非創(chuàng)造性的教育模式?,F(xiàn)實(shí)的挑戰(zhàn)將承擔(dān)創(chuàng)造性教育的任務(wù):我們要相信人類(中的一些)在現(xiàn)實(shí)挑戰(zhàn)下自發(fā)的創(chuàng)造力。
不幸的是,不是每一個人都可以再造自我。自動化對發(fā)達(dá)國家工資上漲的停滯和不斷上漲的經(jīng)濟(jì)不平等起到了重大作用,而人工智能的發(fā)展很可能將這種情形惡化。越來越多的人會被落在后面。對此,一個國家可以為其所有國民提供基本工資(universal basic salaries),但是,即使少數(shù)發(fā)達(dá)國家可以做到這一點(diǎn),有工資但沒有工作不能給人以生命的目的和價值,這就意味著這些被拋在后面的國民仍然會生活在無聊、抑郁甚至悲苦之中。美國的類鴉片藥物危機(jī)(the opioid crisis)佐證了這一點(diǎn)。B18馬克思主義者可能會說,既然這些人沒有工作,但有基本生活保障,他們就可以真正地?fù)碛虚e暇,做自己愿意做的事情。但是,很不巧的是,這些被落下的人恰恰是那些缺乏自覺和自主的人。而那些善于利用自主機(jī)會的人恰恰是那些不太可能被社會拋下的人。在西方,這些被技術(shù)進(jìn)步丟下的人已經(jīng)成為民粹主義崛起的重要動力來源,而多數(shù)政治學(xué)者認(rèn)為,民粹主義并不能真正地解決其支持者所面對的問題。因此,寄希望于那些被落在后面的人可以自覺地享受其自由,或者在不滿現(xiàn)狀的情況下通過選票來尋求政治改變,都是不現(xiàn)實(shí)的。我們應(yīng)該做的,是創(chuàng)造政治與社會機(jī)制,讓那些能夠不斷創(chuàng)新自我引領(lǐng)潮流的精英負(fù)起責(zé)任,為那些落在潮流后面的人謀福利。近幾年來,依據(jù)先秦儒家(特別是孟子)的思想,筆者探討了儒家的結(jié)合民眾聲音和賢能之士決策權(quán)的混合政體。B19在這種混合政體中,一方面,承認(rèn)民主政治中的民有與民享的原則——這與儒家的民本觀念是一致的,并且接受通過一人一票讓民眾表達(dá)是否自己享有自己所期望的意見;但另一方面,先秦儒家對大眾的政治決策能力是有保留的,因此他們部分拒絕民主政治中的民治的觀點(diǎn),希望將一定的選賢舉能的辦法引入各種政治與社會機(jī)制,培養(yǎng)精英的責(zé)任意識,并把有道德有理性能力的精英選拔出來,讓他們?yōu)榇蟊娭\福利。這樣一種混合政體,比最終只依賴于一人一票的民主政體,可能可以更好地回應(yīng)人工智能的發(fā)展所加劇的經(jīng)濟(jì)不平等問題。
注釋
①Alva Noё, Artificial Intelligence, Really, Is Pseudo-Intelligence, http://www.npr.org/sections/13.7/2014/11/21/365753466/artificial-intelligence-really-is-pseudo-intelligence, 2014-11-21.
②感謝貝淡寧(Daniel Bell)向筆者指出這一點(diǎn)的相關(guān)性。
③④Hume, David, A Treatise of Human Nature, ?Edited by L. A. Selby-Bigge. Oxford: Oxford University Press, 1888, p.413, p.415.
⑤⑥Gardels, Nathan, ?The Biological Origins of Culture, The Washington Post, https://www.washingtonpost.com/news/theworldpost/wp/2018/02/28/culture/, 2018-02-28.
⑦本文所引《孟子》分段和文本根據(jù)的是楊伯峻:《孟子譯注》,中華書局,1960年。
⑧Eckersley, Peter, Impossibility and Uncertainty Theorems in AI Value Alignment (or why your AGI should not have a utility function), https://arxiv.org/pdf/1901.00064.pdf. 感謝Brian Green讓筆者注意到了這篇文章。
⑨⑩曾毅:《規(guī)則灌輸絕對不是使人工智能獲得人類價值觀與社會規(guī)則的正確途徑》,https://mp.weixin.qq.com/s?__biz=MzU2NDg2OTU0Mg==&mid=2247485017&idx=1&sn=20da4985fbf0267f326dfdcd95b13fba&source=41#wechat_redirect, 2019年5月31日。
B11阮凱:《機(jī)器倫理何以可能:現(xiàn)有方案及其改良》,《自然辯證法研究》2018年第11期。
B12博古睿研究所是一個支持對大問題的跨文化研究的一個機(jī)構(gòu),其關(guān)心的一大問題就是人工智能。
B13Berggruen, Nicolas, How Do You Plan to Raise Your Super-Intelligent Child?, The Washington Post, https://www.washingtonpost.com/news/theworldpost/wp/2018/02/27/ai/, 2018-02-27.
B14本文引用的《韓非子》根據(jù)的是陳奇猷:《韓非子新校注》,上海古籍出版社,2000年。不過,這里需要指出的是,韓非子的辦法好像也不管用。韓非子認(rèn)為只有賞罰二柄是最有效的控制工具,任何原則、法律、機(jī)構(gòu)都要建筑在其上。但是,這樣的一個架構(gòu)會遇到我們前面提到用原則來規(guī)管機(jī)器人所面對的問題。一般來講,強(qiáng)人工智能的強(qiáng)就在于它可以超越任何給定的規(guī)則。也就是說,強(qiáng)人工智能注定會讓建立在規(guī)則上的規(guī)管失敗。
B15當(dāng)然,所謂西式的“創(chuàng)造性”教育,確實(shí)與民主思想發(fā)展有關(guān)系。下面我們會看到,儒家對民主政治有所保留。因此,在批評創(chuàng)造性教育上,儒家也是有潛在的角色的。
B16白彤東:《反對民主式的教育》,蘇曉冰譯,《思想與文化》第12輯,2012年;Bai Tongdong, ?Against democratic education, Journal of Curriculum Studies, 2011, 43(5).
B17Kuhn, Thomas, ?The Essential Tension, from The Third University of Utah Research Conference on the Identification of Scientific Talent, ed. C. W. Taylor, Salt Lake City: University of Utah Press, 1959, pp.162-174.
B18參見Eberstadt, Nicholas, ?Our Miserable 21st Century, The Commentary. https://www.commentarymagazine.com/articles/saving-conservative-judaism/, 2017-02-15。他對這一危機(jī)有深入細(xì)致的討論。
B19白彤東:《主權(quán)在民,治權(quán)在賢:儒家之混合政體及其優(yōu)越性》,《文史哲》2013年第3期。
責(zé)任編輯:涵?含