魏屹東
關(guān)鍵詞人工智能 莫拉維克悖論 具身人工智能 類人智能
人工智能的發(fā)展使我們無法回避這樣一個問題,即人類是否能夠創(chuàng)造出像自身一樣有身體意識的機器人或具身人工智能系統(tǒng)。這里的“身體”是生物意義上的,不是形態(tài)意義上的如人形機器人,也不是人機交互意義上的,而是人機集成或整合意義上的。也就是說,具身機器人既不是我們?nèi)祟?,也不是人工智能體,而是二者的合體,就像科幻中的類人機器人,我們從外表上和行為表現(xiàn)上區(qū)分不出是人類還是類人。進(jìn)一步說,這種類人機器人擁有像人一樣的感受、意識、智能和情感,甚至擁有道德感和人格。這是強人工智能倡導(dǎo)者雄心勃勃的目標(biāo),“奇點論”①支持者認(rèn)為這是不遠(yuǎn)的將來可實現(xiàn)的理想,即產(chǎn)生超人的智能。作為一種科學(xué)技術(shù)目標(biāo)去追求,這本身并無不妥,就像人類要去探月、探火星。然而,要實現(xiàn)這個“野心”,人們必然會問:制造類人機器人在理論和技術(shù)上是否可能,莫拉維克悖論可以在技術(shù)上得以消除嗎?如果可能,類人機器人實現(xiàn)的機制是什么?假如實現(xiàn)了,這種機器人有何優(yōu)勢,會帶來何種后果?創(chuàng)造這種類人智能真的有必要嗎?在探討并回答這些問題前,我們先回顧1979年美國數(shù)學(xué)家和哲學(xué)家侯世達(dá)對人工智能發(fā)展可能產(chǎn)生的問題及其預(yù)測。
侯世達(dá)在其名著《哥德爾、艾舍爾、巴赫———集異壁之大成》中曾經(jīng)對人工智能的發(fā)展提出十個具有預(yù)見性的重要問題,并對其做出部分回答和推測。②在這十個問題中,有些現(xiàn)在看來不成問題,有些問題的推測并不準(zhǔn)確,有些問題依然存在而且很重要。接下來我們逐一進(jìn)行分析。
問題1:是否計算機程序①終將譜寫出優(yōu)美的樂曲?關(guān)于這個問題,侯世達(dá)的推測是“會的”,但近期不會,因為音樂是情感語言,讓計算機程序會哭或笑,尚為時過早。顯然,他并沒有否認(rèn)程序作曲的可能性,比如中央電視臺的《機智過人》就播出過機器人寫詩、譜曲、給歌手打分等節(jié)目。不過,他認(rèn)為計算機作曲程序不會產(chǎn)生新的美感,也就是說,計算機程序不能體驗美感、幽默感、韻律感和驚訝感。這些都是與情感相關(guān)的感受性??梢哉f,侯世達(dá)預(yù)測了未來人工智能的情感化問題,也就是具身人工智能問題。
問題2:情感是否能明顯地在一臺機器中被程序化?這是問題1的自然推論。他的推測是“不能”,而且認(rèn)為是“荒唐的”。理由是,計算機的模擬不可能達(dá)到人類情感的復(fù)雜性。因為人類情感直接源于心智組織,而程序只能以它們組織起來的方式間接模擬自己的情感,而不是直接程序化的結(jié)果,如計算機程序員編寫不出“墜入愛河”的程序。在筆者看來,問題2與問題1相關(guān),但侯世達(dá)對這兩個問題的回答似乎前后矛盾。既然計算機不能使情感程序化,它就不能編寫出帶有情感的程序,也就不會譜寫出動聽的樂曲,盡管可編寫出有序的音符,且聽起來還悅耳。
問題3:智能計算機能否更快地做加法?他的推測是“可能不會”。理由是,計算機不能讓程序干預(yù)其正在進(jìn)行著的計算活動的電路,如同我們不能將數(shù)字裝入我們的神經(jīng)元中。意思是,我們不能往程序里注入“智能”。這個問題現(xiàn)在來看已不是問題,深度學(xué)習(xí)、深度強化學(xué)習(xí)等新算法的出現(xiàn),讓計算加減乘除甚至更復(fù)雜的解方程、函數(shù)運算等易如反掌,且速度極快。當(dāng)然,這些算法中并沒有所謂的“智能”,更沒有“心靈”,它僅僅是按照程序執(zhí)行而已。所以,侯世達(dá)沒有給出確定的結(jié)論。
問題4:是否會出現(xiàn)能擊敗任何人的下棋程序?他的推測是“不會”。這里的下棋程序是指一種“通用智能”程序,即一個能縱覽全局、大致達(dá)到人類水平的智能機器人。現(xiàn)在看來,侯世達(dá)的推測似乎錯了,因為谷歌開發(fā)的阿爾法狗和大師下棋程序(圍棋)已經(jīng)所向披靡了。不過,侯世達(dá)強調(diào)的是“通用智能”,一種能同時下各種棋的通用機器人,這種機器人迄今還沒有出現(xiàn),而阿爾法狗和大師是特定智能機(專門下圍棋),而且沒有“跳出系統(tǒng)外”的能力,即在下棋之外它們無法與人類匹敵。在這個意義上,侯世達(dá)的預(yù)測是對的。
問題5:你是否能在較低的層次擺弄程序一下就可以對它進(jìn)行調(diào)整?更具體地說,在存儲器中是否有一個特定位置被用來存控程序行為的參數(shù),這樣,如果找到并修改了它們,你能使得程序再靈一點或再笨一點或更有創(chuàng)造力或更喜歡足球?他的推測是“不能”。理由是,存儲器中不存在“有魔力”的位置用以存儲像程序的“智商”之類的東西,這如同我們的身體每天會死掉幾千個神經(jīng)元而我們沒有感覺一樣。這意味著,程序可以被修改,但不會通過修改產(chǎn)生智能。這隱含了一個原理:作為程序的軟件可以改變,但硬件不變。比如我們的思想可以改變,但身體結(jié)構(gòu)不能改變,一臺計算機的軟件可以更新,但硬件基本不變,雖然可更換某些部件。這個問題意味著硬件對智能很重要。
問題6:你是否可能把一個人工智能程序的行為調(diào)整得像我或像你———或恰好介于我們兩個之間?該問題是問題5的深化,他的推測是“不能”。理由是,人工智能程序依賴于其工作記憶的穩(wěn)定性,它們與人一樣不是變色龍,不能在不同人格之間變來變?nèi)?。這一推測是正確的,計算機程序應(yīng)該是相對穩(wěn)定的,盡管可以通過升級補漏,但不能因此改變其結(jié)構(gòu)而失去穩(wěn)定性。一個程序的穩(wěn)定性是保持其能夠穩(wěn)定運行的前提。
問題7:一個人工智能程序是否有個“心臟”?還是說它只不過包含了一堆“無意義的循環(huán)和平凡操作的序列”?這也是計算機專家明斯基的問題,侯世達(dá)認(rèn)為沒有這樣的“心臟”(引擎),即使有也看不見(隱藏的)。這里的“心臟”是一個隱喻表達(dá),意思是,程序是否有一個像我們心臟的東西。人工智能領(lǐng)域關(guān)于這個問題有兩種觀點:一是主張“心靈無法程序化”;另一種認(rèn)為可通過“啟發(fā)式裝置”如多重優(yōu)化器、模式識別、遞歸處理等獲得智能。侯世達(dá)處于兩種觀點之間,即認(rèn)為人工智能程序就像很深的“水潭”,無法一眼看到底,但若造出了能夠通過圖靈測試的程序,我們知道其中有一個“心臟”(隱藏的),盡管它并不實際上存在。事實上,這是一種模棱兩可的說法。
問題8:人工智能程序能否具有“超智能”?他的推測是“不知道”。在他看來,“超智能”這個概念本身就令人費解,它是什么意思呢?是指超人類智能還是某種非人類智能如外星人智能?盡管人工智能可能達(dá)到人類智能,下一個目標(biāo)可能就是超智能,他仍然認(rèn)為超智能不是人工智能的研究目標(biāo)。在筆者看來,超智能其實沒有必要,人類智能已經(jīng)給世界帶來了夠多的麻煩!
問題9:人工智能程序?qū)嶋H上和人完全一樣嗎?這其實是問人工智能能否具身化的問題,即人工智能能否有一個像我們一樣的軀體(生物意義上)。在侯世達(dá)看來,兩者之間的差異大得幾乎無法想象。假如機器人有了和我們?nèi)祟愐粯拥纳眢w,它們能夠和我們一樣思維,說同樣的語言嗎?就如同獅子會說話,我們無法理解一樣嗎?即使我們造出了與我們完全一樣的復(fù)制品(類人機器人),它們也和我們的心智有很大不同,只是同它們打交道時不知道是真正的人類還是類人機器人。這意味著,人類心智與機器人心智無論在硬件還是軟件上都會不同。
問題10:一旦我們造出了一個智能程序,我們是否就能理解什么是智能、意識、自由意志和“我”了?這個問題將人工智能與意識、自由意志和自我意識聯(lián)系起來。侯世達(dá)認(rèn)為在某種程度上是這樣的,這完全取決于這里所說的“理解”是什么意思。比如聽音樂,不同的人對其理解不盡相同,“一千個讀者會有一千個哈姆雷特”。即使我們把每個音符都拆分了,也不一定理解一首樂曲。這不僅涉及人類智能與人工智能的關(guān)系問題,也涉及接下來討論的類人智能是否具有創(chuàng)造力的問題。
根據(jù)生物自然主義,意識是生物現(xiàn)象,心智是基于意識的,由此推知創(chuàng)造力也是基于意識的。也就是說,沒有意識的實體,就不會有創(chuàng)造力。人類擁有意識也有創(chuàng)造力這是不爭的事實,人工智能由于沒有意識,當(dāng)然不會有創(chuàng)造力。正如著名計算機科學(xué)家多明戈斯指出的“不像人類,計算機本身并沒有自己的意志。它們是工程師生產(chǎn)的產(chǎn)品,而不是進(jìn)化體。即使無限強大的計算機,也僅僅是我們意志的延伸,沒有什么可怕的。”①這意味著,即使人工智能有創(chuàng)造力,那也是其背后人類設(shè)計者的創(chuàng)造力。這里的問題在于:人工智能體不借助人類智能自己能夠進(jìn)行創(chuàng)造活動嗎?這的確是一個不好回答甚至沒有答案的問題。
更具體地說,計算機程序或算法本身是否有創(chuàng)造性,何時有?這個問題排除了設(shè)計者參與的人工智能的創(chuàng)造性。對人類設(shè)計者而言,恐怕他們也未想到一個程序或算法在何時在何處具有了創(chuàng)造性。比如像數(shù)學(xué)定理的證明、樂曲的創(chuàng)作、對弈中的新走法,計算機自己就能夠“想”出來?大多數(shù)人會認(rèn)為程序或算法本身不會產(chǎn)生創(chuàng)造力,正如塞爾的“中文屋論證”所揭示的,符號操作本身不是思維,更不會產(chǎn)生理解,當(dāng)然不會有創(chuàng)造力。創(chuàng)造力應(yīng)該是與意識、心智相關(guān)的能力,非意識和非心智的東西怎么會擁有創(chuàng)造力呢?
然而,問題沒有那么簡單,我們沒有觀測到或進(jìn)入計算機程序怎么就能斷定它沒有創(chuàng)造性呢?你可能會說,我們也沒有觀測或進(jìn)入人腦,但我們知道人類有創(chuàng)造力。這個類比在這里不一定合適。一個著名的例子是為初等幾何證明尋找證明的程序。根據(jù)侯世達(dá)的描述,由計算機專家明斯基構(gòu)想,IBM公司的設(shè)計者吉倫特設(shè)計了一個被稱為“驢橋”的程序,它能得出普通人絕對想不出的證明方法。任務(wù)目標(biāo)是證明等腰三角形的兩個底角相等。學(xué)過初等幾何的人都知道,標(biāo)準(zhǔn)的證明是通過作輔助線把這個三角形分為對稱的兩半。而設(shè)計的程序發(fā)現(xiàn)了不作輔助線的高明方法,即把等腰三角形與其鏡像看作兩個不同的三角形,只要證明它們?nèi)染涂梢粤?。?jù)說這個“新想法”是從程序得出的,不是設(shè)計者給出的。這個絕妙的證明方法讓設(shè)計者和許多人大為驚訝,這是否可看作是程序具有創(chuàng)造性的證據(jù)呢?證明的功勞應(yīng)歸于誰呢?是設(shè)計者還是程序本身?持計算機無意識的人會認(rèn)為,程序本身沒有創(chuàng)造力,這種表面的創(chuàng)造性可能是通過兩種方式產(chǎn)生的:一種是程序通過不同符號或符號串的組合意外得出了驚人的結(jié)果;另一種是隱藏在設(shè)計者心中的想法只不過被計算機程序呈現(xiàn)出來而已。侯世達(dá)認(rèn)為,后一種看法才是問題的關(guān)鍵,即認(rèn)為計算機程序只是將設(shè)計者的創(chuàng)造性浮現(xiàn)出來。這是生物自然主義者的看法,也是大多數(shù)人的看法。在我看來,如果設(shè)計者確實沒有預(yù)先給這種證明程序賦予“創(chuàng)造性”,我們不能排除是計算機程序通過符號或符號串的組合或它們的相互作用涌現(xiàn)了創(chuàng)造力的可能性,如通過控制—反饋循環(huán)機制產(chǎn)生的。如果我們不能說明這個例子中的新證明法是人類設(shè)計者的還是程序涌現(xiàn)的,那么我們最好還是將設(shè)計者的大腦與程序的“心智”區(qū)分開來。程序的設(shè)計歸于人類,但程序產(chǎn)生的“新想法”卻不能完全歸于設(shè)計者。按照侯世達(dá)的說法,在這種情況下,設(shè)計者可被看作是“元作者”,而程序被看作“作者”。這里引入了元認(rèn)知的思想,即關(guān)于認(rèn)知的認(rèn)知,如作者的作者。
我們設(shè)想,如果這個幾何證明程序不是特例,比如它一而再、再而三地給出些不同于標(biāo)準(zhǔn)證明的新證明方法,那么我們就不得不承認(rèn)計算機程序是一個有思想的“智能體”。然而,這種情形目前并沒有出現(xiàn)。但是,我們并不敢斷言這種情形一定不會出現(xiàn)。比如侯世達(dá)所說的“元作者”的情形在音樂創(chuàng)作方面特別突出。有人將兩首不同的進(jìn)行曲輸入計算機,結(jié)果產(chǎn)生了組合的新曲調(diào),盡管聽起來有點奇異之感甚至有點別扭,但的確不同于已有的曲子。這個過程沒有涉及復(fù)雜的和難以理解的計算,沒有使用學(xué)習(xí)算法,也沒有出現(xiàn)隨機過程,計算機只是機械地運行,但出現(xiàn)了令作曲家驚訝的曲調(diào)。這是計算機程序在作曲嗎?顯然不是,計算機只是機械地組合音符。正如侯世達(dá)正確指出的,“這個程序中沒有任何結(jié)構(gòu)類似于人腦中的‘符號,在任何意義下也不能說它在‘思考它所做的事。把這樣一段音樂的創(chuàng)作歸于計算機,就像把本書的操作歸功于產(chǎn)生它的計算機編輯照排系統(tǒng)一樣?!雹龠@意味著,計算機不管有多么智能,它只不過是人用來進(jìn)行創(chuàng)造和實現(xiàn)想法的工具,盡管其中不排除有一些意外的新東西出現(xiàn),如編輯修改了某個句子。因為說到底,計算機程序缺乏自我意識,沒有靈性,不知道自己在做什么。即使有一天人類真的創(chuàng)造了能夠作曲的智能機,我們也不能說完全是智能機創(chuàng)作了樂曲,其中一大部分功勞應(yīng)歸于程序設(shè)計者,其余部分歸功于程序本身。在侯世達(dá)看來,這種能創(chuàng)作的智能機只有其程序的內(nèi)部結(jié)構(gòu)是基于某種類似于我們頭腦中的“符號”及其觸發(fā)模式,并以此來處理復(fù)雜的概念意義時,這種情形才會發(fā)生。
可以看出,侯世達(dá)是將計算機程序與人腦類比,只有計算機程序與人腦的運作模式類似時,它才能產(chǎn)生某種創(chuàng)造力。在我看來,侯世達(dá)還沒有跳出依賴人類或模擬人腦的思維模式。誠然,人工智能包括機器人的發(fā)展基本上還是模擬人腦的功能,但深度學(xué)習(xí)、強化學(xué)習(xí)及其結(jié)合,再加上大數(shù)據(jù)和5G技術(shù),跳出人腦模式的超人工智能是可能的,正如飛機模式超越了鳥的飛翔模式。所以,通過不斷挖掘新的物理規(guī)律,基于新的物理規(guī)律建構(gòu)新型的人工智能模式也不是不可能的。接下來我們探討這種類人智能的可能生成機制。
我們假設(shè)具身人工智能是可實現(xiàn)的,但其難度很大,因為其中的障礙幾乎難以逾越,比如如何讓生物體和硅基材料有機地結(jié)合,能否將心智注入機器,或?qū)⒁鈭D、目標(biāo)注入方程式或算法,也就是讓機器有了靈魂,使笛卡爾的“機器之幽靈”得以實現(xiàn),形成一種所謂的人機共存共生現(xiàn)象。當(dāng)然,我們不排除科學(xué)家可借助生物克隆技術(shù)(如果允許的話)實現(xiàn)人機融合的可能性。如果這種可能性成立,這種新型的具身機器人或人機一體的類人機器人就是可能的。筆者根據(jù)控制論的控制—反饋循環(huán)原理,結(jié)合哲學(xué)的意向性和自反性概念給出人工智能生成的意向—自反循環(huán)涌現(xiàn)機制。
從控制論的觀點看,意識和智能這些認(rèn)知行為是通過一個控制—反饋循環(huán)涌現(xiàn)的結(jié)果(見圖1)。主體(系統(tǒng))達(dá)到目標(biāo)或完成任務(wù)的控制行為是意向行為,其特性就是意向性;從目標(biāo)(任務(wù))到主體(系統(tǒng))的反饋是自我指涉的或自反的,其特征就是自反性(即指向或返回自身,如知道我是誰)。對于一個主體(人類或智能體)來說,如果他或它只有意向性,即指向他物的屬性,那只能算作刺激—反應(yīng),如低級生物;只有當(dāng)他或它同時也擁有了自我指涉性或自反性,他或它才會涌現(xiàn)出意識。自反性是“當(dāng)一個系統(tǒng)制造另一個系統(tǒng)時(不論是復(fù)制還是制造另一個產(chǎn)物),它都會變成它所制造的產(chǎn)物的一部分”。① 這個概念實質(zhì)上是控制論的反饋概念的拓展———因果循環(huán)和永不結(jié)束的自我指涉,它可能是生命的主要起因,如化學(xué)中的自我催化(反應(yīng)的產(chǎn)物同時又是催化劑)就體現(xiàn)了自反性。生物系統(tǒng)中的新陳代謝就是一種大規(guī)模的自我催化反應(yīng),構(gòu)成了生命形態(tài)得以維系的極為重要一環(huán)。在這個意義上,作為自反性的自我催化可能參與了生命的起源過程。
在我看來,意識的起源也很可能與自反性相關(guān)。我們常常會反思自己,這種反思就是自我指涉,我稱之為“反身性”,因為它是可被我們體驗的,比如“我是……”“我感覺……”“我認(rèn)為我……”等。按照扎卡達(dá)基斯的說法,當(dāng)人們反思時,“我”既是主體又是客體,心理學(xué)上將這種意識的遞歸稱為“元認(rèn)知”。在表征的意義上,這意味著被觀察的事物和觀察過程不是同時編碼的,即在不同自然系統(tǒng)和認(rèn)知系統(tǒng)中編碼。只有當(dāng)這種自我指涉性出現(xiàn)時,自我才能產(chǎn)生,有了自我,意識方能涌現(xiàn)。這可能是人工智能和機器人學(xué)制造有意識機器的關(guān)鍵,因為自我指涉或自反性導(dǎo)致了有序的形成。所以,我一直主張,意向性和自反性同時出現(xiàn)才能稱得上是有意識,如我們?nèi)祟?,不僅具有意圖(目的),也知道我們是誰,而其他脊椎動物如大猩猩可能不知道它們是大猩猩,如在鏡子面前它們會將自己的影像看作是其他動物。人類3歲兒童都知道鏡像是自己。
從適應(yīng)性表征的視角看,人類、動物以及人工智能體,在達(dá)到目標(biāo)的意義上,都有一個控制—反饋循環(huán)或一個意向—自反循環(huán),因此都是適應(yīng)性表征系統(tǒng)。說它們是適應(yīng)性表征系統(tǒng),不等于說它們之間沒有區(qū)別,區(qū)別在于這些不同主體(系統(tǒng))在自我指涉方面的表現(xiàn)。對于物理系統(tǒng),如汽車引擎,它只是通過控制—反饋循環(huán)進(jìn)行物質(zhì)和能量交換;對于低等生物系統(tǒng),如螞蟻,可通過控制—反饋循環(huán)進(jìn)行物質(zhì)、能量和信息(信息素)交換,較之物理系統(tǒng)有較強的適應(yīng)環(huán)境的能力;對于高等生物系統(tǒng),如我們?nèi)祟悾粌H通過控制—反饋循環(huán)進(jìn)行物質(zhì)、能量和信息交換,也同時進(jìn)行著攜帶語言表達(dá)的意向—自反循環(huán),這正是人類比其他生物更高級和更智慧的地方。正是有了意向—自反循環(huán)我們才有了意識,有了心智和智能。當(dāng)然,“一個系統(tǒng)必須同時具有自組織的能力,才能有適應(yīng)性行為涌現(xiàn)”。②而自組織并非復(fù)雜性的結(jié)果,而是系統(tǒng)的各組成部分以特定方式連接產(chǎn)生多層次的正反饋。這些反饋循環(huán)創(chuàng)造了更高層次的自組織復(fù)雜性,從而產(chǎn)生了新的行為,如自主行為。這種復(fù)雜的高級智能行為如自我意識是在自然系統(tǒng)的不斷演化中涌現(xiàn)出來的。人工系統(tǒng)如計算機互聯(lián)網(wǎng)中能否產(chǎn)生自我意識(假如計算機數(shù)量達(dá)到人類大腦神經(jīng)元的量級1011)我們還不得而知,至少目前的互聯(lián)網(wǎng)沒有涌現(xiàn)出意識(可能數(shù)量不夠不足以產(chǎn)生質(zhì)變)。根據(jù)生物自然主義,即使計算機數(shù)量達(dá)到1011的量級,互聯(lián)網(wǎng)產(chǎn)生意識的可能性也不大。原因在于,人工認(rèn)知系統(tǒng)與自然認(rèn)知系統(tǒng)不僅在硬件和軟件上不同,它們的組織結(jié)構(gòu)和連接方式也大為不同。
這里產(chǎn)生了一個非常深刻的問題,即自然系統(tǒng)先孕育出生命如生物體,再由生命系統(tǒng)涌現(xiàn)出意識和認(rèn)知行為如創(chuàng)造力,那么人工系統(tǒng)也遵循這樣的邏輯嗎?人工智能的發(fā)展業(yè)已表明,人工智能的產(chǎn)生不是以人工生命的存在為先決條件的。這有力地說明,人工智能的產(chǎn)生和自然智能的涌現(xiàn)有著不同的演化邏輯。比如,人工認(rèn)知系統(tǒng)不會自發(fā)產(chǎn)生語言,當(dāng)然也不會形成對行動或事件意義的理解?;蛘哒f,抽象符號的推理不會自己產(chǎn)生意義,只有將觀察到的事物與觀察者相結(jié)合才能從無意義的表征中涌現(xiàn)出意義。這意味著要產(chǎn)生意義和理解,語境的介入是必須的。這就是為什么人工智能和機器人學(xué)近年來都致力于語境覺知研究的原因。
然而,在我看來,兩種認(rèn)知系統(tǒng)都是適應(yīng)性表征系統(tǒng)。人類是完全的具身認(rèn)知系統(tǒng),計算機包括人工智能是完全的離身(無身)的認(rèn)知系統(tǒng),這兩種認(rèn)知系統(tǒng)在一定程度上的結(jié)合或融合,很可能會產(chǎn)生新型的具身認(rèn)知———人機一體的認(rèn)知系統(tǒng),這種新型具身認(rèn)知系統(tǒng)也一定是適應(yīng)性表征系統(tǒng)。到那時,人類和機器人的共存共生不僅是可能的,也是現(xiàn)實的,倫理問題、法律問題等會相應(yīng)出現(xiàn),我們必須未雨綢繆,迎接新型具身機器人可能帶來的一系列挑戰(zhàn)。這樣看來,三種認(rèn)知系統(tǒng)都是適應(yīng)性表征系統(tǒng),適應(yīng)性表征就是所有認(rèn)知系統(tǒng)的共性?;蛘哒f,一切認(rèn)知活動,其載體不論是生物的(血肉的),還是非生物的(機械的),擬合是生物—機械混合的,均是適應(yīng)其所處環(huán)境的,包括自然的、社會的、歷史的和文化的因素。因此,在適應(yīng)性表征的意義上,具身的人工智能不僅是可能的,而且實現(xiàn)的可能性極大,只是這種實現(xiàn)是混合的類人智能,而不是純粹的人類智能。
如果我們能夠?qū)⑦@兩種系統(tǒng)進(jìn)行耦合,通過適應(yīng)性表征這個橋梁有可能創(chuàng)造出一個人機融合的類人系統(tǒng)或具身人工智能系統(tǒng),如人工神經(jīng)網(wǎng)絡(luò)的模式識別、機器學(xué)習(xí)。在不考慮價值判斷或道德評估的情況下,這種類人系統(tǒng)有可能出現(xiàn),除非人類擔(dān)憂這種類人系統(tǒng)會給人類帶來危害而禁止研究和開發(fā)。前者依賴于計算機科學(xué)、人工智能、機器人學(xué)、生物學(xué)、化學(xué)和認(rèn)知神經(jīng)科學(xué)等學(xué)科的聯(lián)合與協(xié)作,后者還依賴哲學(xué)、倫理學(xué)、社會學(xué)、法律學(xué)等人文社會科學(xué)的介入。
如果這種類人機器人是可能的,這意味著,具有自我意識的心智系統(tǒng)必須是有身體的。神經(jīng)科學(xué)已經(jīng)揭示,脫離身體的心智是不存在的,或者說,心智依附于身體,二元論不成立。我們要創(chuàng)造人工意識或人工認(rèn)知,機器人必須有生物的身體,所以身體的存在是人工認(rèn)知系統(tǒng)發(fā)展的必要條件。如果是這樣,那我們離制造出這樣的類人機器人還遙遙無期,因為現(xiàn)在的技術(shù)還無法突破符號計算和意識認(rèn)知之間的鴻溝。如果從適應(yīng)性表征入手,不考慮兩種認(rèn)知系統(tǒng)之間的硬件差異,這種類人機器人是有可能實現(xiàn)的。這與我們制造會飛的飛機和會游泳的潛水艇是一個道理。只是這些人造物沒有自我意識,沒有情感。
在這里,我們應(yīng)該換一種思考方式,也就是說應(yīng)該重新定義什么是意識,什么是智能。在我看來,智能和意識不是一回事。根據(jù)適應(yīng)性表征,智能具有適應(yīng)性表征功能,意識也有,不同在于意識表現(xiàn)在體驗和感受方面,智能表現(xiàn)在解決問題和完成任務(wù)方面。計算機是在“適應(yīng)性表征”(根據(jù)邏輯算法處理數(shù)據(jù)或推理),不是在“思考”,思考是隱喻性表達(dá)。我們過度使用隱喻來表達(dá)計算機的計算能力,如著名的“計算機隱喻”。然而,為了理解和解釋,我們又離不開隱喻表達(dá)。這可能是我們?nèi)祟惖恼J(rèn)知局限性所致。因此,語言使用和意義理解始終困擾著人工智能研究者,正如塞爾的“中文屋論證”所表明的那樣,意義無法通過操作形式符號來獲得,計算機不能理解它處理的編程語言的意義。而且這種人工編程語言必須由人類程序員預(yù)先定義和設(shè)置,而我們?nèi)祟悇t無需事先定義和設(shè)置。從語境論的視角看,我們?nèi)祟愂钦Z境化的,計算機和人工智能則不是。這就是人類智能和人工智能的根本差異所在。要想讓人工智能更“智能”,語境化是必須的。這就是筆者一直主張的人工智能的語境化問題,即讓人工智能擁有語境化能力。同時,為了保證機器人不危害人類,我們必須讓機器人“人性化”,即創(chuàng)造“友好的人工智能”。
然而,機器人的具身化和人性化勢必會遇到所謂的莫拉維克悖論。這個悖論是說,“讓計算機在某些任務(wù)上表現(xiàn)出成人的智力水平是件很容易的事情,如智力測試或玩跳棋,但是讓其獲得哪怕是一歲兒童的某些能力,如感知和運動,卻是極其困難甚至是不可能的事情”,①如機器人不會做鬼臉,不會開玩笑。
莫拉維克悖論揭示了這樣一個基本事實:符號邏輯表征不是萬能的,一定存在某種類型的智慧如直覺、創(chuàng)造力是符號邏輯不能表達(dá)的。也就是說,人類智能更多依賴無意識的本能,而不是有意識的符號操作,所以無法通過形式化規(guī)則來獲得。這就是德雷福斯在《計算機不能做什么》中所表達(dá)的一種觀點。② 神經(jīng)科學(xué)的發(fā)現(xiàn)也表明,意識不是一個腦細(xì)胞執(zhí)行的邏輯算法,而是大量無意識的、混亂的心理過程在新皮層上整合的結(jié)果。但這種過程一定是適應(yīng)性的,這就是為什么筆者力求主張適應(yīng)性表征。
進(jìn)一步說,所謂莫拉維克悖論是說,對于人工認(rèn)知系統(tǒng),最難的問題最容易解決,而最簡單的問題反而難以解決。在我看來,這種看似矛盾的現(xiàn)象其實是一種錯覺,即表面上似乎是矛盾的,實質(zhì)上是不同層次的問題。比如機器人在下棋、進(jìn)行復(fù)雜計算這些按規(guī)則執(zhí)行的事上機器人比人類強很多,當(dāng)讓其做連兒童做起來都易如反掌的事情如爬樓梯時,機器人卻很難做到。這是因為人工智能所做的計算和人類所做的爬樓梯是兩個完全不同層次的問題。機器人是完全基于理性的,完全按照規(guī)則做事,如計算、對弈,而人類不完全是按理性規(guī)則做事的,很多時候是非理性地行事,而且非理性所占比例還不小,如爬樓梯的行為是無意識或本能行為;人的計算完全是有意識的認(rèn)知行為,計算機的計算是無意識操作規(guī)則。因此,這個悖論其實是沒有在有意識行為與無意識行為之間做區(qū)別造成的。這意味著意識造就了人的能動性和靈活性,無意識機器人缺乏能動性和靈活性,而缺乏能動性和靈活性是造成機器人爬樓梯困難的真正原因。
然而,簡單動物如蟑螂爬樓梯也很容易,但我們不能說它有意識,這說明意識并不是引起蟑螂爬樓梯容易的唯一原因,無意識的本能也是一個原因。另一個更深層的原因可能要通過自然進(jìn)化來解釋了。這就是構(gòu)成問題,即人類和機器人的組成成分完全不同,前者是生物的(碳基的),后者是物理的(硅基的),遵循的規(guī)律也不同。這就是認(rèn)知科學(xué)中的“硬件要緊不要緊問題”。也就是說,組成智能實體的“硬件”規(guī)則是決定因素,如我們的大腦是天生的硬件,心智、情感、意圖等均源于這種物理硬件。這就是侯世達(dá)所說的“硬件規(guī)則不變”原理,即“各個層次上的軟件都可以改變,而硬件規(guī)則不變———事實上,軟件的靈活性來自硬件的穩(wěn)固性!”③比如芯片的穩(wěn)定性決定智能機的水平。因此,對于像爬樓梯這樣的行為,硬件不僅是要緊的,而且是決定性的。這種人類可輕易完成而計算機難以執(zhí)行的任務(wù)狀態(tài),即所謂的莫拉維克悖論,在我看來,就是生物體和非生物體之間的鴻溝問題。說到底,這是兩種完全不同結(jié)構(gòu)和功能的實體:人類智能和類人智能。對于類人智能,如果它是可能的,人們自然會問:它具有何種優(yōu)勢,會產(chǎn)生什么后果?這是接下來要探討的問題。
從哲學(xué)上看,不論未來的機器人如何有智能,在多少個方面超過人類,其綜合能力如判斷力與人類是無法匹敵的,因為機器人沒有意識和情感,當(dāng)然更沒有心靈或自由意志。這是類人(機器)智能與人類智慧無法相比的根本原因。說到底,人不是機器,人若按照機器的方式去思維和行動,人就不如機器了,如計算機的存儲和搜索能力遠(yuǎn)勝過人,人類的存在就是多余的了。我們利用機器人的目的是克服人類軀體和智力上的局限性。所以,機器人不過是人類的有力助手。
在我看來,作為人類助手的未來機器人有六大優(yōu)勢:
第一,集成性,即在短時間內(nèi)能夠?qū)⑷祟愃兄R儲存到自己的知識庫中,如大型詞典、百科全書等,這是人腦無法做到的(人的生命有限)。
第二,搜索性,人工智能有強大的搜索能力,可以搜索到我們想知道的任何東西,這其中包括了數(shù)以億計的網(wǎng)友的智力貢獻(xiàn)。這意味著互聯(lián)網(wǎng)不僅是信息網(wǎng),也是人際網(wǎng)。
第三,無私利性,即機器人是無私欲的。人類骨子里是自私的(生存意義上),比如兒童天生不懂得分享(動物性),分享是后天教育的結(jié)果。機器人是無私無畏的,不知道恐懼為何物。
第四,再生性,即機器人可以再造,如給軟件備份、硬件更換,而人類是不可以再生的。這一點機器人就勝過人類。
第五,合作性,即機器人之間的協(xié)同工作。與人類相比,由于它們之間不存在私欲和利益之爭,也就不存在競爭,更不會“勾心斗角”,合作會十分融洽。
第六,整合性,即機器人能夠迅速地將物質(zhì)、能量和信息高效地整合起來,從而迅速地完成任務(wù),這一點比人類要強很多,因為人類要通過長期的學(xué)習(xí)才能獲得這種能力。
辯證地看,這些技術(shù)上的優(yōu)勢同時也會給人類帶來麻煩。我們知道,技術(shù)發(fā)明彰顯人類發(fā)明者聰明才智的同時,也使大多數(shù)人變得越來越“笨”,用戶習(xí)慣于依賴機器,如智能手機,原來沒有這種技術(shù)工具時形成的技能慢慢消失了,如我們的書寫能力隨著計算機的普及明顯下降了,駕駛技能隨著自動駕駛技術(shù)的出現(xiàn)也會逐漸降低(不用學(xué)開車了)。這意味著人的技能被機器人技術(shù)代替了。機器越是智能,用戶就越是省心,其心智能力也就會慢慢降低。這就是我們都知道的“用進(jìn)廢退”的道理,如心算能力是訓(xùn)練出來的,而不是天生的。這意味著,人工智能技術(shù)的大行其道,會使人們越來越依賴人工智能,大多數(shù)人類智能(除了少數(shù)人工智能的設(shè)計者)會出現(xiàn)倒退。所以,人工智能越智能,人類智能就會越弱智。
當(dāng)然,造成這種局面的責(zé)任不在技術(shù)本身,因為技術(shù)是中立的,而在制定技術(shù)程式的技術(shù)專家和政策制定者。比如現(xiàn)今普遍流行的微信、支付寶等電子支付方式,已經(jīng)流程化、規(guī)范化、普遍化,不采取這種支付方式,到飯店吃飯都成了問題(不收現(xiàn)金),再比如為預(yù)防新冠肺炎,不使用智能手機注冊健康碼,出行都寸步難行。這意味著技術(shù)代替人的技能是大勢所趨,所以人人都必須“與時俱進(jìn)”,如老年人也不得不學(xué)會使用智能手機支付。在這個意義上,人類已經(jīng)淪為技術(shù)的“奴隸”,就像海德格爾所說的,人類已被技術(shù)“駕馭”。人工智能正讓人類變得“沒有腦子”,“不長腦的機器和不思考的人沒有什么兩樣,不是因為機器已經(jīng)變得和人類一樣善于思考,而是人類已經(jīng)變得像機器一樣沒有頭腦”。①
我們必須正視這個問題。我們不能讓少數(shù)技術(shù)專家的頭腦取代大多數(shù)人的頭腦。事實上,圖靈測試業(yè)已告訴我們,如果我們認(rèn)為通過這種測試的機器和人一樣聰明的話,那么同時也意味著人和機器一樣“笨”?;蛘哒f,我們在使機器有智能的同時,也在無意中使大多數(shù)人變笨。我們應(yīng)該有意識地避免這個問題,有意識地訓(xùn)練自己,如練字、做心算、玩智力游戲等。從適應(yīng)性表征的視角看,我們?nèi)祟愒谶M(jìn)行適應(yīng)性表征的同時,也要避免淪為只會適應(yīng)環(huán)境的動物(低級動物也本能地適應(yīng)性表征)。對人工認(rèn)知系統(tǒng)而言,它們具有適應(yīng)性表征能力就足夠了,不必有意識、情感和心智;人機融合只是強化適應(yīng)性表征能力,彌補人類生物體先天的缺陷,如記憶容量小、計算速度慢等。
還有一個問題不容小覷,那就是如果機器人成為勞動的主力軍,大多數(shù)工作都由機器人完成,那機器人的數(shù)量會非常龐大,消耗的能量和材料也會十分驚人。到那時,地球的資源就會加速被耗盡。一旦機器人代替了人力工作,人類除了高端人才(管理、設(shè)計制造機器人等)外,其余人將無所事事,這是更可怕的事情。大量無事可做的人會無事生非,制造麻煩,從而引起社會動蕩。而且不良政客會利用機器人打仗,如現(xiàn)在的無人機可能改變戰(zhàn)爭模式。筆者不是擔(dān)心機器人會超過人類智能,而是擔(dān)心有人利用機器人干壞事,畢竟機器人是人造的工具(況且人很多情況下也被當(dāng)作工具)。本質(zhì)上作為工具的機器人是不大可能把其主人作為工具役使的,除非人類自己太過信任和依賴機器人。
然而,不可否認(rèn)的事實是,從外部看機器人的確擁有智能,問題是我們不能輕信機器智能。比如,人們以為無人機會準(zhǔn)確定位并能夠“定點清除”恐怖分子,而事實是,它會誤殺平民甚至兒童,因為恐怖分子會假扮成平民,機器智能無法識別。所以,我不擔(dān)心人工智能技術(shù)會發(fā)展出高級機器智能,而是擔(dān)心人們過于相信和依賴機器智能。一旦機器出了差錯,如手術(shù)時機器失準(zhǔn),責(zé)任算誰的,醫(yī)生還是機器?這會引發(fā)一系列道德和法律問題。所以,機器人世界對人性的沖擊不可小視。假若有一天與我們打交道的全是機器人,餐廳服務(wù)員、銀行職員、學(xué)校的老師、醫(yī)院的醫(yī)護(hù)人員、公交系統(tǒng)、家政服務(wù),等等,我們與人打交道的機會幾乎沒有了,我們的“人性”會變?yōu)椤皺C性”。這樣一來,人之為人的性情和樂趣消失了,剩下的恐怕只是冷冰冰的機器。這就自然引出下一個問題———類人智能是否必要。
科技史告訴我們,任何一種技術(shù)發(fā)明的出現(xiàn)都是社會需要的推動,如蒸汽機、發(fā)電機、計算機,人工智能和機器人也不例外。這個問題可從如下兩方面來考慮。
從人類社會發(fā)展的角度看,智能機器人是我們需要的。首先,僅從發(fā)展智能這個角度,認(rèn)知科學(xué)和文化人類學(xué)的研究揭示,在進(jìn)化的基礎(chǔ)上是語言和文化塑造我們的心智。這意味著心智是借助某種中介形成的?,F(xiàn)代社會的互聯(lián)網(wǎng)這種中介,也會塑造我們的大腦,這是文化塑造心智的必然推論。因為互聯(lián)網(wǎng)就是一種文化,是人工認(rèn)知系統(tǒng)的一部分。當(dāng)然,這種文化中介現(xiàn)象也要從正反兩方面來看。一方面,互聯(lián)網(wǎng)這種中介使我們的認(rèn)知更便捷,如搜索需要的信息和答案;另一方面,互聯(lián)網(wǎng)也使得人們懶于去思考,從而造成思維惰性,久而久之我們的心智就會變得遲鈍。這就是互聯(lián)網(wǎng)帶來的積極與消極兩方面的后果。事實上,任何一項技術(shù)發(fā)明都有正反兩種功能,關(guān)鍵是人類如何看待和使用了。在我看來,任何技術(shù)發(fā)明包括智能機,如何利用關(guān)鍵在我們?nèi)祟愖约骸巧朴眠€是惡用,比如是造核武器(殺人)還是建造核電站(造福人類)。
其次,互聯(lián)網(wǎng)讓多智能體的協(xié)作成為可能,這極大地提高了機器人的工作效率,如固定機器人的自動化生產(chǎn)線,無人機的高空搜索和勘測。這種智能機器人的廣泛應(yīng)用,對社會的方方面面產(chǎn)生了積極影響,實現(xiàn)了以前靠人力做不到的事情。更為重要的是,在農(nóng)業(yè)、工業(yè)和國防等關(guān)乎民生和安全領(lǐng)域,智能機器人具有不可替代的作用。因此,發(fā)展類人機器人是人類社會發(fā)展的必然要求。
從消耗資源的角度看,我們的地球資源是有限的,存在著不可預(yù)知的各種風(fēng)險———氣候風(fēng)險、天文風(fēng)險(外星撞擊)、病毒風(fēng)險(如新冠病毒、艾滋?。?、資源枯竭、核威脅等。人工智能的發(fā)展與這些風(fēng)險相比會小得多,所以我們不必過于擔(dān)憂人工智能會威脅人類的生存。相比而言,倒是制造出數(shù)以億計的機器人而消耗的無法估量的能源,可能會加速地球資源的枯竭這一點更令人擔(dān)憂。正如斯加魯菲指出的“人類不斷創(chuàng)造智能機器,可能會加劇災(zāi)難臨近的風(fēng)險。災(zāi)害可能比超級智能機器找到避免災(zāi)難的方法來的更快。”①也就是說,還沒有等人類造出超級智能時,災(zāi)難已經(jīng)發(fā)生。這絕不是危言聳聽,我們?nèi)祟悜?yīng)該警覺清醒,應(yīng)該懂得有所收斂。
在我看來,在工具的意義上我們沒有必要制造這樣的類人物種,因為我們?nèi)祟愐呀?jīng)夠多了,何必自找麻煩制造類人的東西呢?人工智能無論多么智能,畢竟還是供人使用的工具,其目的不外是減輕人類認(rèn)知上的負(fù)荷而已。只要這個目的達(dá)到了,作為工具的機器人有無意識、有無感情、有無道德感、有無做人的資格等都不重要了。誰會在乎一件工具(無論多么精致和有智能)是什么呢?所以我認(rèn)為未來的機器人是否達(dá)到人類水平無關(guān)緊要。要緊的是我們不能讓這種機器人危害人類社會和人類自身的安全就可以了。我相信,既然我們?nèi)祟惸軌蛟斐鲞@樣的機器人,就一定能夠控制其行為是有利于人類的。工具本身并無好壞之分,關(guān)鍵是使用工具的人是好人還是壞人。這就要控制不能讓壞人掌握機器人技術(shù),這與讓核武器掌握在誰手中是一個道理。在這個意義上,我們不必?fù)?dān)心人工智能會超越人類智能,也不必?fù)?dān)心它會控制人類從而取代人類。這是因為,如果智能機器人只是代替我們做一些如掃地、排隊、作代理之類的事情,那么“它不需要有意識、自知或者總體上具有人類這樣的智能:它只需要能夠自立,頂多有能力適應(yīng)變化的環(huán)境就行了,就像今天簡單的病毒一樣。”①也就是說,人工智能僅僅有適應(yīng)性表征的能力就足夠了。
如果通過適應(yīng)性表征能夠讓人工智能像人那樣思維與行動,這是否意味著人工智能就會超越人類甚至控制人類呢?在我看來,人們用不著擔(dān)心,即使人工智能可以像人一樣思維和行動,但它們?nèi)匀皇菣C器,缺乏人類所擁有的意識、情感和靈性。這一點是硅基的機器人恐怕永遠(yuǎn)不會獲得的,除非人們發(fā)展出人機融合的智能體。這種人機融合的智能,既不是純粹的人類智能(生物的+文化的)也不是純粹機器智能(機械的+算法),而是生物—文化—機械的整合智能。這將是一種全新的智能形式———具身的人工智能,因此“人工智能是一種與眾不同的技術(shù)。不僅因為它能夠徹底地改變我們的社會、經(jīng)濟(jì)和我們居住的星球,也因為它關(guān)乎我們自身———我們是誰?我們?nèi)绾嗡伎肌贤??是什么讓我們成為人類?”②在這個意義上,有限地創(chuàng)造新型人工智能還是有必要的、有意義的,至少能有助于我們認(rèn)識我們自己。
人的“記憶”與計算機的“儲存”不是一回事。人類的“知道”與機器人的“感知”也不同。由此我們推知,人類智能與機器智能不同,就像鳥會飛與飛機能飛,魚會游泳和潛水艇能游泳不同一樣。這是兩種完全不同的實體,依據(jù)完全不同的理論。目前,人類的機械化(弱人工智能)事實上已經(jīng)實現(xiàn),機器的人化(強人工智能)能否實現(xiàn)還未知,至少還有遙遠(yuǎn)的路要走。在我看來,機器人無論多么聰明,只能是人類的助手而不是主人,也不會在綜合能力上特別是精神層次上超越人類成為人類的替代物。機器人僅僅是工具,不是有主體意識和人格的人類,因此沒有人的資格和權(quán)利。是人創(chuàng)造了機器人而不是相反。因此,自主制造機器人的機器(不受人類控制的機器)不會產(chǎn)生。目前,人們對人工智能的發(fā)展進(jìn)行反思、批判是必要的,擔(dān)憂也是可理解的,畢竟無人機造成的危害有目共睹,但不能因此就認(rèn)為應(yīng)該禁止其發(fā)展!人機共存的時代幾乎不可避免,我們應(yīng)該考慮如何與機器人和諧相處,如何制造為人類服務(wù)的機器人,如何防止機器人被壞人利用,而不是一味地反對。