沃爾夫?qū)せ舴蚧<{著, 鄔天啟譯
(1.奧地利全球可持續(xù)信息社會研究所,奧地利 維也納 151220; 2.西安交通大學(xué) 人文社會科學(xué)學(xué)院,陜西 西安 710049)
1967年,美國作家理查德·布勞提根在任職于加州理工學(xué)院時(shí),出版了《一切都被慈愛的機(jī)器注視著》的詩集。在他的想象中:“在一個(gè)被控制的生態(tài)環(huán)境下……一個(gè)人類不用勞動的世界……一個(gè)回歸自然的狀態(tài)……回歸到我們的動物本性……每一個(gè)人類的兄弟姐妹……都時(shí)刻被慈愛的機(jī)器所注視著?!盵1]這是一種技術(shù)烏托邦式的未來幻想,一種仁慈的技術(shù)統(tǒng)治維護(hù)著全面的和諧。
1973年,在嬉皮士運(yùn)動和學(xué)生起義(1)20世紀(jì)60年代末歐美國家學(xué)生運(yùn)動。的余波下,奧地利出生的作家伊凡·伊里奇出版了《交際的工具》一書。他當(dāng)時(shí)身兼教區(qū)神父、大學(xué)校長和自然科學(xué)、技術(shù)及社會科學(xué)領(lǐng)域教授(賓夕法尼亞州立大學(xué)),并且經(jīng)常往返于墨西哥、美國和德國之間。在該書中他提出:“人類生活的多維平衡概念,可以作為評價(jià)人與其工具關(guān)系的框架。在這種平衡的每一個(gè)維度中,都有可能確定一種自然尺度?!盵2]ⅹ“一旦認(rèn)識到這些限制,就有可能明確人、工具和一個(gè)新的集體之間的三元關(guān)系。在這樣一個(gè)社會里,現(xiàn)代技術(shù)只是服務(wù)于政治上相互關(guān)聯(lián)的個(gè)人,而不能是管理者,我稱之為‘convivial’(交際的)……我選擇交際作為一個(gè)技術(shù)術(shù)語,是用來定義一個(gè)負(fù)責(zé)任地、有限地使用工具的現(xiàn)代社會。”[2]ⅹⅱ“交際”一詞源于拉丁語,旨在描述一種在日常宴會中主人和客人共同用餐、共同生活的有質(zhì)量的相處方式,其意思并非“tipsy jollyness”(醉酒后的幽默),而類似于“eutrapelia (or graceful playfulness)”(交談中的愉悅或優(yōu)雅的嬉鬧)——這里可以追溯到托馬斯·阿奎那所闡述的亞里士多德倫理學(xué)中的美德之一:“friendship or joyfulness”(友誼或快樂)[2]ⅹⅲ。這種對未來的想象也勾勒出了一個(gè)平衡的社會,但它顛倒了(前一種設(shè)想)影響的順序:一個(gè)交際性的社會為交際行為提供了相關(guān)的技術(shù)。
這兩種選擇都對文化和文明的未來發(fā)展持樂觀態(tài)度。這里要討論的問題是:在這兩種假想中,哪一種更傾向于描述未來社會中令人滿意的人工智能應(yīng)用——慈愛的機(jī)器還是交際的工具?哪一個(gè)更現(xiàn)實(shí),哪一個(gè)更理想?
德國文學(xué)和媒體研究專家羅伯特·西曼諾夫斯基支持第一種選擇。2018年,他出版了兩部文集,經(jīng)過大幅擴(kuò)展和修訂后,構(gòu)成了2020年出版的德文著作——《死亡算法和其他數(shù)字難題》的前兩章。死亡算法是在即將發(fā)生事故的情況下引導(dǎo)自動駕駛汽車進(jìn)入選擇目標(biāo)的程序。西曼諾夫斯基嚴(yán)謹(jǐn)?shù)卣故玖嗽诟鶕?jù)功利主義、結(jié)果主義或義務(wù)論倫理的編程工具的基礎(chǔ)上無法解決的一些難點(diǎn)和悖論,因?yàn)闆]有任何一個(gè)程序能夠滿足一個(gè)為所有人都能夠接受的普遍規(guī)則。
在這種情況下,西曼諾夫斯基引用了另一個(gè)例子——德國作家費(fèi)迪南德·馮·施拉奇所創(chuàng)作的戲劇《恐怖》。在這出戲劇中,劇院中或坐在電視機(jī)前的觀眾需要對一個(gè)虛構(gòu)的德國軍事少校進(jìn)行審判,該少校為了拯救慕尼黑一運(yùn)動場中7萬人的生命,在未經(jīng)授權(quán)的情況下,擊落了一架被恐怖分子控制的載有164名乘客的民用飛機(jī)。大多數(shù)觀眾都投票贊成被告梅杰(Major虛擬主人公)少校應(yīng)該被無罪釋放。從2015年10月到2020年1月,在2 472名現(xiàn)場觀眾中有63%投贊成票,2016年10月18日,在德國、奧地利和瑞士電視臺的電視觀眾中有87%投贊成票[3]19-20。但這違反了德意志聯(lián)邦共和國的憲法,該憲法禁止用一個(gè)傷亡數(shù)字抵消另一個(gè)傷亡數(shù)字。此外,在不同的文化環(huán)境中有不同的多數(shù)派,亞洲人的價(jià)值觀又有所不同。在同一時(shí)期,《恐怖》在中國大陸地區(qū)的21場演出中,有11場判梅杰少校有罪,在日本的23場演出中,有15場被判有罪,而在中國臺灣地區(qū)的8場演出中,則全部被判無罪[3]40。這種投票差異也適用于其他例子(如電車?yán)Ь?,這可能與個(gè)人主義和集體主義文化之間的差異有關(guān)[3]129[4]。
西曼諾夫斯基明白,全球自動駕駛汽車的出現(xiàn)與當(dāng)前的道德狀況并不相容,它需要一個(gè)能夠普遍適用的解決方案,但是對于西曼諾夫斯基來說,這樣的解決方案必須不同于他所能考慮到的普遍倫理。因此,他認(rèn)為人工智能(AI)是一種解決方案——不是弱人工智能,而是強(qiáng)人工智能。他認(rèn)為,深度學(xué)習(xí)可能使強(qiáng)大的人工智能不僅能遵循人類智能的決定,還能獨(dú)立于人類智能所作出的決定。因此,強(qiáng)人工智能可能會作出人類智能在既得利益相互沖突之下無法作出的決定,強(qiáng)人工智能可能對特殊主義不感興趣,并能中立地監(jiān)督人類履行它所作出的決定。通過這樣的機(jī)制——這是西曼諾夫斯基所希望的——強(qiáng)人工智能甚至能夠幫助到人類自身的生存。
然而,西曼諾夫斯基并不明白,強(qiáng)人工智能捍衛(wèi)者的愿望并沒有得到證實(shí),也不會得到實(shí)現(xiàn),而什么是能夠?qū)崿F(xiàn)的——不管這些愿望是什么——只會危及我們?nèi)祟愒诘厍蛏系倪M(jìn)一步發(fā)展。為什么呢?這不是因?yàn)槿祟愋枰獡?dān)心人工智能會變成一個(gè)邪惡的而不是仁慈的東西,而是因?yàn)槿斯ぶ悄芗夹g(shù)原則上不具備邪惡和仁慈的能力。人工智能可以侵入人類的自主性,以致達(dá)到一種無法容忍的程度。
在工業(yè)化過程中,工具得到了改進(jìn),從而會生產(chǎn)出不再依賴于風(fēng)、水或動物能量的、介于工作對象和工作者之間的機(jī)器。在信息化的過程中,機(jī)器被電腦化,機(jī)器人與工作者之間產(chǎn)生的差距更大了,因?yàn)樗鼈儽毁x予人類思維的某些功能。正如卡爾·馬克思所預(yù)見的那樣,自動化可以導(dǎo)致一種“我們不需要勞動”的社會狀態(tài),但自動化不一定會帶來自主性。自主性是一種從人類和社會領(lǐng)域借鑒來的術(shù)語,并強(qiáng)加于機(jī)器,就好像機(jī)器也和人一樣。用工程師的話說,機(jī)器人的自主性意味著機(jī)器人也能做出決定。如果這是真的,則意味著人類的思維功能將被機(jī)器人接管,而人類的某些思維功能將會被剝奪:要么是機(jī)器人做出決定,要么是人類做出決定。但按照這樣的邏輯,事實(shí)情況便不同了:沒有機(jī)器人能夠真正做出決定。決定是一種判決,是對理由進(jìn)行深思熟慮的結(jié)果,而這些理由并不妨礙判決。判決是一種基于必要前提的行為,但它并不像從前提中得出結(jié)論那樣是從邏輯上推導(dǎo)而來的。還有更多的判斷屬于涌現(xiàn)行為。涌現(xiàn)是指與它所涌現(xiàn)出來的事物相比,涌現(xiàn)出的事物具有另一種(一種新的)品質(zhì)。沒有機(jī)器、自動機(jī)或所謂的自主技術(shù)系統(tǒng)能夠產(chǎn)生涌現(xiàn),因?yàn)樗袧撛诘男畔⑦^程最終都是確定性機(jī)制。所以,工程師們在機(jī)器的狀態(tài)下所聲稱的決策,實(shí)際上是機(jī)械確定性的產(chǎn)物,而不是類似于自我思考的產(chǎn)物。此外,考慮到現(xiàn)代機(jī)器的復(fù)雜性,它們運(yùn)算的產(chǎn)物(過程、邏輯和結(jié)果)已經(jīng)變得不可預(yù)測,甚至是無法解釋(可追溯)的,因此被工程師錯(cuò)誤地稱為涌現(xiàn),盡管算法過程的每一步都遵循一個(gè)確定的規(guī)則。
這就是為什么西曼諾夫斯基對強(qiáng)人工智能拯救人類的信念注定要落空的原因。所謂強(qiáng)人工智能的決策將是隨機(jī)且不恰當(dāng)?shù)摹H斯ぶ悄軣o法處理個(gè)人自身的問題,它不能作為施控者,而更像個(gè)受控者[5];它不是一個(gè)自組織的系統(tǒng),而是異性組織和外部組織的系統(tǒng)。IEEE自主與智能系統(tǒng)(A/IS)倫理全球倡議發(fā)布了一份關(guān)于倫理一致設(shè)計(jì)的全面文件,參考了卡普羅和霍夫基希納(作者本人)兩篇論文的意見[5]。文件中提道:“在理解人與自主智能系統(tǒng)之間的關(guān)系時(shí),特別值得關(guān)注的是對自主智能系統(tǒng)不加批判地采用擬人化的方法,許多行業(yè)和政策制定者現(xiàn)在都在使用這種方法。這種方法錯(cuò)誤地模糊了道德施控者和道德受控者之間的區(qū)別,或者理解為‘自然的’自組織系統(tǒng)和人工的非自組織設(shè)備之間的區(qū)別。如上所述,從定義上看,自主智能系統(tǒng)不能像人類或生物一樣自主。也就是說,當(dāng)嚴(yán)格定義時(shí),機(jī)器的自主指的是機(jī)器如何通過對由法律和規(guī)則產(chǎn)生的執(zhí)行秩序的考慮,在特定的環(huán)境中獨(dú)立地行動和操作。從這個(gè)意義上說,自主智能系統(tǒng)可以被定義為自主的,特別是在遺傳算法和進(jìn)化策略的情況下。然而,試圖在自主智能系統(tǒng)中植入真正的道德和情感,從而承擔(dān)責(zé)任,自主便會模糊施控者和受控者之間的區(qū)別,并可能鼓勵(lì)人類在設(shè)計(jì)自主智能系統(tǒng)和與自主智能系統(tǒng)互動時(shí)對機(jī)器的擬人化期望?!盵6]因?yàn)槿斯ぶ悄軣o論是弱還是強(qiáng),都不會涌現(xiàn)信息,它不能以一種仁慈的方式行事,無法完全復(fù)制人類本身,且與人類當(dāng)下處理的問題完全脫離。
總之,人工智能不可能是西曼諾夫斯基所尋找的普遍解決方案,因?yàn)樗荒軓氐捉y(tǒng)一多樣性,而多樣性正是作為嘗試解決進(jìn)化過程中的內(nèi)在問題而出現(xiàn)的一個(gè)元層次。這里共出現(xiàn)了三個(gè)層次,元層次作為第三個(gè)層次,代表了個(gè)體劃分和嵌套之間的利益沖突,超越了其下代表個(gè)體的第二層次與代表個(gè)體中各部分的第一層次。只有這樣一個(gè)“第三層次”的出現(xiàn),才會是一個(gè)普遍的(雖然不是絕對的)解決方案。第三層次是技術(shù)本身所無法預(yù)料的。正是因?yàn)檫@個(gè)原因,人工智能的規(guī)則將退化為技術(shù)官僚獨(dú)裁的規(guī)則,其中一個(gè)武斷的情況被另一個(gè)武斷的情況所取代——機(jī)器的自動化將導(dǎo)致人類的去自主化。
在奧地利哲學(xué)家君特·安德斯看來,這是繼哥白尼、達(dá)爾文和弗洛伊德之后的又一個(gè)“普羅米修斯的恥辱”,是對人類自我意識的第四次打擊。安德斯在1956年發(fā)表的文集《關(guān)于普羅米修斯的恥辱》中首次描寫了一個(gè)歷史上的事例[7]29-95,美國將軍道格拉斯·麥克阿瑟聲稱:“在應(yīng)對朝鮮戰(zhàn)爭開始時(shí)所提出的措施可能會引發(fā)第三次世界大戰(zhàn)?!欢绹P(guān)于是否應(yīng)該冒這樣一個(gè)風(fēng)險(xiǎn)而做出決定的責(zé)任被轉(zhuǎn)移了……轉(zhuǎn)移了美國的決定權(quán)……把決定權(quán)移交給了機(jī)器”,“交給了一個(gè)‘電子大腦’”[7]58。“電子大腦”最終選擇了反對麥克阿瑟的決定,但安德斯強(qiáng)調(diào)的事實(shí)是:“如果真的做出了這一決定,那么做出這一決定的過程同時(shí)也是人類給自己造成的最具有劃時(shí)代意義的失敗。因?yàn)槿祟悘膩頉]有把自己貶低到這樣的程度,以至于把關(guān)于人類歷史進(jìn)程的決定,甚至是關(guān)于這個(gè)歷史進(jìn)程是否可能會存在的決定權(quán)交給一件非人的東西。”[7]60-61安德斯稱這種發(fā)展為“所有可能的非人化的極致”[7]44、“傲慢的自暴自棄”和“狂妄的謙卑”[7]49,傲慢是因?yàn)槿祟愊嘈抛约河心芰ㄔ斐说臋C(jī)器,恥辱是因?yàn)闉榱顺蔀橹魅?,人類必須把自己變成奴隸。
“慈愛的機(jī)器”這一表面上和諧的圖景不僅遭到了破壞,而且與第二種說法——“交際的工具”形成了鮮明對比。正因?yàn)閺?qiáng)人工智能永遠(yuǎn)不會拋棄其反復(fù)鼓吹的認(rèn)知能力,反而會限制人類的自主性,所以人工智能需要被設(shè)計(jì)得有意義且謹(jǐn)慎,并且需要負(fù)責(zé)任地加以限制。伊里奇所著《交際的工具》一書的德文名稱正是“Selbstbegrenzung”,意思就是“自我限制”。
現(xiàn)在自我限制已經(jīng)無可反駁地被置于人類議程的首位。地質(zhì)學(xué)家曾提出過一個(gè)術(shù)語:“人類世”(Anthropocene),來描述我們現(xiàn)在所處的時(shí)代。而正如普雷希特所說,我們現(xiàn)在所處的時(shí)代更像是一個(gè)“貨幣世”(Monetocene)或者是一個(gè)“資本世”(Capitalocene)。物理學(xué)家哈拉爾德·萊施也說:“實(shí)現(xiàn)利潤的利益已經(jīng)成為了改變我們星球的驅(qū)動力,而它卻使我們的星球變得更糟。但現(xiàn)在最基本的問題是人類是否能夠被拯救?!盵8]普雷西特還認(rèn)為:“要么資本主義將被戰(zhàn)勝,要么現(xiàn)代人將自我毀滅?!?/p>
自我限制意義上的交際性是社會系統(tǒng)涌現(xiàn)性的特征,可以確定為公共的歷史——具體形態(tài)的社會關(guān)系,即這種關(guān)系能夠幫助并限制社會行動者通過聯(lián)合產(chǎn)能共同貢獻(xiàn)社會利益,并當(dāng)消費(fèi)這種利益時(shí),通過聯(lián)合產(chǎn)能的努力成為共同的受益者。這種利益是公共利益,作為一種關(guān)系利益,它是屬于公共的。這是第三層面的探求,從共同行動、互動和行動者的行動中涌現(xiàn)。這種第三層面將行動者相互聯(lián)系在了一起,讓他們同時(shí)承擔(dān)第二層面(改變)和第一層面(自我)的角色。交際性表達(dá)了在社會系統(tǒng)下作為公共品對于任何參與者的開放程度,行動者越是限制自私,公共利益就越開放,也包括對他們自己開放。交際性是一個(gè)需要實(shí)現(xiàn)的愿景,它將“通過公開那些被封閉的公共利益,使社會系統(tǒng)更具有包容性,通過這樣做……讓民眾幸福地生活在一個(gè)良好的社會,蓬勃和幸福的個(gè)人生活在交際性的社會關(guān)系之中”[9]。
盡管數(shù)學(xué)或生物學(xué)等學(xué)科已經(jīng)證明了現(xiàn)代人可能成為一個(gè)優(yōu)秀的超級合作者的種族,但現(xiàn)代人肯定需要進(jìn)一步的實(shí)質(zhì)性發(fā)展:為公共利益而進(jìn)行的合作仍然是碎片化的。從人類到現(xiàn)代社會的進(jìn)化史來看,展現(xiàn)出了兩個(gè)決定性的步驟。第一步,我們的祖先從動物單元體進(jìn)入社會二元體。在共同覓食的背景下,這些祖先采用了“更復(fù)雜的社會合作模式”,這保證了公共商品屬于所有行動者。第二步,他們開始了一種齒輪效應(yīng),產(chǎn)生了更高層次的復(fù)雜合作,直到社會因素在進(jìn)化中超過了生物因素,社會三元體補(bǔ)充了社會二元體。三元社會建立了第三層面——共同的文化、集體的意向性和客觀的道德,從那時(shí)起,所有這些都是“個(gè)人與他人關(guān)于公共利益的關(guān)系,即公共利益的具體內(nèi)容成為了爭議和沖突的問題”[10-11]。公共合作模式有兩種類型:部落主義與專獨(dú)主義。
部落主義是在人類社會進(jìn)化的黎明階段時(shí)所出現(xiàn)的原始變種,形成了相當(dāng)于集體主義中的“我們”,傳統(tǒng)以神話作為基礎(chǔ),社會生活的手段和目的就不會受到質(zhì)疑。另一種變種起源于部落社會的“我們”轉(zhuǎn)變?yōu)樗缮鐣12]23-91:行動者成為以自我為中心的人,他們變得目光短淺,并沒有考慮到自己的行為會對社會系統(tǒng)其他部分產(chǎn)生有害影響,社會系統(tǒng)的結(jié)構(gòu)一直將競爭優(yōu)先于社會的更高層次,而合作則停留于較低的層次;私有被認(rèn)為是最高的利益;手段和目的是脫鉤的,手段是明智的、靈活的,而最終目的仍然是既定的。這個(gè)相當(dāng)個(gè)人主義的階段一直持續(xù)到今天,它應(yīng)該被稱為“專獨(dú)主義”。詞源學(xué)顯示,在古希臘,“Idios”的意思是“個(gè)人的領(lǐng)域,私人的,一個(gè)人自己的”[13]。在尼爾·柯蒂斯看來,“Idios”也帶有“被封閉”的印記。他表達(dá)了通過圈取公共或共同擁有的資源來創(chuàng)造私有,在歷史上一直是獲得私有財(cái)產(chǎn)的主要手段的想法[13],所以,用專獨(dú)這個(gè)詞來表示一個(gè)人只關(guān)心個(gè)人領(lǐng)域,而不關(guān)心公共事務(wù)。如今,新自由主義把專獨(dú)主義帶到了極端的地步,交際性越來越受到這種排他的共性的挑戰(zhàn)。
然而,“人類社會發(fā)展的第三步是可以假設(shè)的??赡軙幸粋€(gè)從集體意向到普遍共享的轉(zhuǎn)變,也就是說,在全球范圍內(nèi)。這將是向另一個(gè)交際性的社會制度的過渡——將三個(gè)步驟合一并延伸到整個(gè)人類”[10]。這一步不僅完成了人類社會發(fā)展的前兩個(gè)步驟,而且還升華了“部落主義”和“專獨(dú)主義”。它可以整合個(gè)人而不需要強(qiáng)迫他們包容。作為全球的公民,他們將有能力從整個(gè)社會制度的角度體現(xiàn)出自己和他人的地位。沒有任何片面的意識形態(tài)或神話能夠掩蓋基于現(xiàn)實(shí)的、科學(xué)且實(shí)際的對不同社會發(fā)展道路的評估。不僅手段是可變的,而且目的也不再是常量。除非達(dá)成共同的一致,否則任何一項(xiàng)決策都不應(yīng)生效[12]84-85。
人工智能是一種技術(shù),是達(dá)到某些目的的一種特殊手段。與任何技術(shù)一樣——即方法、程序、機(jī)制,人工智能的設(shè)計(jì)也是為了實(shí)現(xiàn)社會功能的協(xié)調(diào)。由于功能化被作為一種達(dá)到目的的手段,所以在技術(shù)設(shè)計(jì)時(shí),它需要承擔(dān)兩個(gè)方面的責(zé)任。首先,對設(shè)計(jì)的功能性負(fù)責(zé):機(jī)制是否有效、高效地實(shí)現(xiàn)了技術(shù)設(shè)計(jì)的最終目的,即它是否具有功能性?這個(gè)問題的關(guān)鍵是事實(shí)。其次,也要對設(shè)計(jì)的意義和社會效用負(fù)責(zé):最后做出的機(jī)制設(shè)計(jì)必須是有意義的,也就是說,它是否會促進(jìn)社會價(jià)值進(jìn)步,是否值得推廣,是否符合社會規(guī)范,是否與社會規(guī)范價(jià)值一致,這些都屬于道德問題。技術(shù)的功能和意義都需要負(fù)責(zé)任地反映出來。在這個(gè)全球性挑戰(zhàn)的時(shí)代,這一反映意味著任何技術(shù)都應(yīng)支持社會向全球可持續(xù)信息社會轉(zhuǎn)型,遵循美好社會的愿景,讓人們過上美好的生活,建設(shè)共同的利益[10]。根據(jù)這一觀點(diǎn),人工智能必須是一種支持人類智能的技術(shù),專注于確保社會進(jìn)化,免于自我造成的崩潰。總體目標(biāo)必須由人類決策制定,人工智能可以幫助找尋實(shí)施方法、監(jiān)測目標(biāo)的實(shí)現(xiàn),并為測量適應(yīng)性提供理由。因此,人工智能與任何嵌入社交的技術(shù)一樣,都是技術(shù)-社會系統(tǒng)的一部分。“既然人工智能是一種承擔(dān)行動者智能行為的工具,就不應(yīng)該給它限制行動者自主性的空間。”[14]正如鄔焜所說:“人類應(yīng)該理性地選擇自己進(jìn)化的方式。”[15]
智能反映了手段與目的的關(guān)系,特別是反映了手段的功能。然而,為了能夠捕捉到目的的意義,僅有狹義上的人類智能是不夠的。全球問題是人為的,需要人類給出解決的辦法,而要做到這一點(diǎn),就需要智慧。因此,社會不僅需要成為一個(gè)智能社會,還需要成為一個(gè)“智慧社會”,這是西班牙社會學(xué)家曼紐爾·卡斯特和其他學(xué)者在1997年與歐洲委員會高級別專家組就“人人享有歐洲信息社會”的專題合作時(shí)提出的一個(gè)術(shù)語[16]。他們將智慧定義為“從生活經(jīng)驗(yàn)、自然科學(xué)、倫理和哲學(xué)中‘提煉’出來的知識”。雖然新的信息通信技術(shù)為經(jīng)濟(jì)注入了活力,但“這些新技術(shù)對知識的產(chǎn)生或獲取并沒有產(chǎn)生根本的影響,更不用說對智慧的影響了”。當(dāng)然,人們希望社會越來越向“智慧社會”轉(zhuǎn)變,科學(xué)支持的數(shù)據(jù)、信息和知識將越來越多地被用來作出明智的決定,以提高人們的生活質(zhì)量。這種智慧將有助于形成一個(gè)可持續(xù)發(fā)展的社會,考慮到其所有成員的福祉,如同重視物質(zhì)和經(jīng)濟(jì)方面一樣,重視生活的社會和文化方面。我們希望,新興的信息社會將以這樣一種方式發(fā)展,以推進(jìn)這種智慧愿景的實(shí)現(xiàn)。
到目前為止,這些希望還沒有實(shí)現(xiàn),而人工智能似乎也遇到了類似的情況。正如朱利安和娜塔莉在《數(shù)字人文主義》一文中所預(yù)期的那樣,一種新的“數(shù)字人文主義”可以為人性化的數(shù)字化提供新的動力。數(shù)字人文主義可以限制人工智能成為一種交際的工具,機(jī)器監(jiān)視人類的幻想則可以歸結(jié)為反人道主義。人文主義指的是在交際性的人工智能幫助下達(dá)到人類生存和繁榮的目的。