趙小龍
(南京大學(xué) 哲學(xué)系,江蘇 南京 210023)
近年來,隨著人類在腦科學(xué)與人工智能等領(lǐng)域的不斷突破,一系列高新技術(shù)的相繼問世——如ChatGPT、大數(shù)據(jù)、腦機接口等——使機器意識(Machine Consciousness)逐漸成為學(xué)界、社會共同關(guān)注的熱點話題之一。所謂機器意識,又稱合成意識(Synthetic Consciousness)、人工意識(Artificial Consciousness),是指一種非生物實體,具有主觀體驗和自我意識的智能系統(tǒng)。涉及哲學(xué)、心理學(xué)、神經(jīng)科學(xué)、計算機科學(xué)等多個學(xué)科。其主要關(guān)注的問題是機器是否能夠擁有類似于人類的主觀體驗、自我意識、自由意志等心理現(xiàn)象,以及如何判斷和實現(xiàn)機器意識。然而,在哲學(xué)領(lǐng)域,機器意識是否可能是一個極具爭議的話題,不同哲學(xué)流派或?qū)W者對于機器是否能夠擁有意識持有相異觀點,主要的觀點和理論包括二元論(Dualism)、一元論(Monism)、泛心論(Pan-centrism)、功能主義(Functionalism)等,因此,機器意識仍屬一個開放性問題,需要更多學(xué)者進行研究和探索。
作為當(dāng)代最具影響力的哲學(xué)家之一,心靈哲學(xué)家大衛(wèi)·查爾莫斯(David Chalmers)很早開始關(guān)注“機器意識”問題。他在博士論文中圍繞“如何解釋主觀體驗的本質(zhì)和起源”進行研究,提出了意識的二元論,引起了學(xué)界廣泛的討論和爭議。他在心靈哲學(xué)、語言哲學(xué)、形而上學(xué)和認識論等領(lǐng)域都有重要的貢獻,同時也關(guān)注科技、人工智能和虛擬現(xiàn)實等前沿話題,探討它們對人類意識和社會的影響。目前,查爾莫斯是澳大利亞國立大學(xué)腦意識研究中心主任、哲學(xué)教授及紐約大學(xué)哲學(xué)教授。他曾入選由美國教育網(wǎng)站“The Best Schools”評選出的“全球50 位最具影響力的健在哲學(xué)家”,其主要代表作包括《有意識的心靈》《意識的特征》《建構(gòu)世界》等。
目前,關(guān)于查爾莫斯的機器意識觀的研究文獻已有不少,但據(jù)筆者檢索的資料,目前并沒有專門研究查爾莫斯機器意識觀演變歷程的文獻。因此,本研究以查爾莫斯公開發(fā)表的著作和論文作為研究對象,并根據(jù)這些文本資料將查爾莫斯機器意識觀的演變歷程劃分為三個階段:早期階段(1989-1994)、中期階段(1995-2003)以及后期階段(2010 至今),繼而按時間順序考察查爾莫斯各階段的文本內(nèi)容,系統(tǒng)闡述查爾莫斯不同階段的機器意識觀的基本特征。
查爾莫斯是研究機器意識問題的代表性學(xué)者之一,其早期關(guān)于機器意識的文獻并不多,其中代表性的著作是其于1996 年出版的博士論文《有意識的心靈》①和1994 年發(fā)表的《論實現(xiàn)計算》與《認知研究的計算基礎(chǔ)》兩篇論文。
在《有意識的心靈》中,查爾莫斯明確地問道:“機器是否可以擁有意識?一個經(jīng)適當(dāng)編程過的計算機真的能擁有思維(Mind)嗎?”[1]313對此,他分析道:
我們可以將抽象的大腦神經(jīng)描述轉(zhuǎn)換為組合狀態(tài)自動機(CSA)。②該CSA 對每一個神經(jīng)元都有一狀態(tài)矢量元素,對反應(yīng)每一神經(jīng)元的相關(guān)范圍的每一元素有一子狀態(tài)。CSA 的狀態(tài)轉(zhuǎn)換規(guī)則,反映了每一神經(jīng)元狀態(tài)以來其他神經(jīng)元狀態(tài)的方式,以及神經(jīng)元狀態(tài)聯(lián)系到輸入輸出的方式。若大腦的非神經(jīng)成分是相關(guān)聯(lián)的,我們也能夠?qū)⒛切┏煞职趦?nèi)。任何一個實施了這一CSA的物理系統(tǒng),將有一個細粒度的功能組織,該組織復(fù)制大腦的神經(jīng)元層次的功能組織。根據(jù)組織不變性原理,這個系統(tǒng)所具有的經(jīng)驗與聯(lián)系到大腦的那些經(jīng)驗并沒有什么區(qū)別。[1]300
由此可以得出,查爾莫斯贊同機器意識存在實現(xiàn)的可能。他說道:“人工智能理性的實現(xiàn)似乎并不存在原則上的障礙?!保?]309
在《論實現(xiàn)計算》中,查爾莫斯雖未直接使用“機器意識”這個詞,但他討論了計算(Computation)[2]是否可以解釋心靈的存在,以及是否存在一個計算使得實現(xiàn)了它的系統(tǒng)就等于具有了思維。他寫道:
如果一個物理系統(tǒng)的因果結(jié)構(gòu)反映了計算的形式結(jié)構(gòu),那么這個物理系統(tǒng)就實現(xiàn)了一個計算。這個描述是為組合狀態(tài)自動機的類而發(fā)展的,但它足夠一般化,可以涵蓋所有其他離散的計算形式。實施(Implementation)關(guān)系是非空洞的,所以塞爾(John Searle)和其他人的批評是失敗的。這個關(guān)于計算的描述可以擴展到證明計算在人工智能和認知科學(xué)中的基礎(chǔ)作用。[2]391
這就意味著,在查爾莫斯看來,“計算為描述因果組織提供了一種完美的語言。用計算術(shù)語對系統(tǒng)的描述實際上是對其因果組織的描述,因此恰恰是對與解釋其認知能力最相關(guān)的系統(tǒng)方面的描述?!保?]401這進一步說明,實現(xiàn)了某些類型的計算就足以擁有意識。
在《認知研究的計算基礎(chǔ)》中,查爾莫斯進一步明確了計算在機器意識中的地位。他提出,計算提供了一個描述和確定因果組織模式的一般框架,而思維則根植于這樣的模式,即思維的因果結(jié)構(gòu)能夠被計算所模擬。他寫道:
這個觀點(是指如果一個系統(tǒng)的因果結(jié)構(gòu)反映了計算的形式結(jié)構(gòu),那么該系統(tǒng)就實現(xiàn)了計算)可以用來證明人工智能和計算認知科學(xué)的核心承諾:計算充分性的論題(Computational Sufficiency),它認為正確類型的計算結(jié)構(gòu)就足以擁有思維。[3]
綜合以上文本可以得出,在1989 至1994 年間,查爾莫斯關(guān)于機器意識的核心觀點處于初級探索階段。整體而言,查爾莫斯認為機器意識存在實現(xiàn)的可能,其中計算為實現(xiàn)這一目標提供了最佳路徑。但“計算”作為實現(xiàn)機器意識的“最佳途徑”遭受到了一定反對聲音。例如瓜爾蒂羅·皮奇尼尼(Gualtiero Piccinini)就認為,查爾莫斯實際上并沒有給出一個明確和可操作的計算的定義,而只是用了一些模糊和直覺的概念,比如“形式結(jié)構(gòu)”“因果結(jié)構(gòu)”等。并且他也沒有提供任何證據(jù)或理由來支持他的實現(xiàn)標準,而只是基于一種不切實際的假設(shè)。因此他說:“計算主義——認為大腦是一種計算機制的觀點——是空洞的?!保?]
如果說查爾莫斯在其早期著作中傳遞出的機器意識觀內(nèi)含對實現(xiàn)這一目標的積極信心,那么其在1995 年發(fā)表的《正視意識問題》這篇論文則正式宣告了達成這一目標存在難以克服的困難。
隨著研究的深入,查爾莫斯開始關(guān)注意識的本質(zhì)問題。在《正視意識問題》中,他將意識問題劃分為兩類:易問題(Easy Problems)與難問題(Hard Problem)。其中,易問題是“那些似乎直接易受認知科學(xué)標準方法影響的問題,即用計算或神經(jīng)機制來解釋現(xiàn)象?!保?]200而難問題則直面經(jīng)驗(Experience)的問題,即主觀的意識體驗為什么以及如何從大腦的某些物理的或神經(jīng)的特殊構(gòu)型中產(chǎn)生出來。[6]他寫道:
意識的真正難題在于經(jīng)驗問題。當(dāng)我們思考和感知時,雖有一個“信息處理的雜亂”(Whir of Information-processing),但也有一個主觀方面。正如納格爾(E.Nagel)(1974)所說,作為一類有意識的生物,有一些東西就是這樣的。這個主觀方面就是經(jīng)驗。例如,當(dāng)我們看一些事物時,比如紅色的東西,我們會有視覺經(jīng)驗:紅色的感受質(zhì)地、黑暗與光明的體驗、視野深度的質(zhì)量等等。其他體驗與不同方式的感知相伴而生,比如單簧管的聲音、樟腦球的氣味等等。此外還有身體感覺,從疼痛到高潮;內(nèi)部幻化出的精神圖像;情感的感覺質(zhì)量,以及有意識的思想流的體驗。統(tǒng)一所有這些狀態(tài)的是存在于其中的某種東西。所有這些都是經(jīng)驗狀態(tài)。[5]201
鑒于“難問題的難點和獨特之處就在于它超越了功能表現(xiàn)(The Performance of Functions)的問題”[5]203從而導(dǎo)致了在討論機器意識相關(guān)論題時,根本無法回避意識的本質(zhì)問題,即主觀經(jīng)驗方面。因此,查爾莫斯認為,過去多年時間里,認知科學(xué)與神經(jīng)科學(xué)的相關(guān)研究仍然無法解釋為什么會產(chǎn)生主觀經(jīng)驗,它們的工作屬于“易問題”的范疇。查爾莫斯寫道:
在過去的幾年里,一些研究工作在認知科學(xué)和神經(jīng)科學(xué)的框架內(nèi)探討了意識的問題。這可能表明上面的分析(指的是意識的本質(zhì)具有主觀經(jīng)驗方面的內(nèi)容)是有問題的,但事實上,對相關(guān)工作的仔細檢查只會使分析得到進一步支持。當(dāng)我們調(diào)查這些研究只是針對意識的哪些方面,以及它們最終解釋了哪些方面時,我們發(fā)現(xiàn)解釋的最終目標總是“易問題”之一。[5]204
所以,從這個意義上來說,在查爾莫斯看來,即使我們可以制造出具有高度智能的機器,但這些機器仍然無法擁有真正的意識體驗,它們?nèi)詫佟罢軐W(xué)僵尸”(Philosophical Zombie)。于是,查爾莫斯提出,探索意識的本質(zhì)需要某種非物理的內(nèi)容參與。他寫道:
我建議,意識的理論應(yīng)該以經(jīng)驗為根本。我們知道意識的理論需要在我們的本體論中增加一些基本的東西,因為物理理論中的一切都與意識的缺乏相容。我們可能會添加一些全新的非物理特征,從這些特征中可以得到經(jīng)驗,但很難看出這種特征會是什么樣子。[5]210
從以上文本中不難得出,在查爾莫斯看來,意識的本質(zhì)在于主觀經(jīng)驗(Subjective Experience),即一個生物如果具有主觀經(jīng)驗,如看到、感受或思考的經(jīng)驗,那么它就是有意識的。當(dāng)然,查爾莫斯的上述觀點在1997 年發(fā)表的《在意識問題上向前邁進》和2003 年發(fā)表的《意識及其在自然中的地位》等多篇論文中也存在著類似的表述。
在《在意識問題上向前邁進》中,查爾莫斯寫道:“鑒于物理領(lǐng)域是一個封閉的因果網(wǎng)絡(luò),下一個選擇是將經(jīng)驗放在這個網(wǎng)絡(luò)之外,用心理物理定律(Psychophysical Laws)使經(jīng)驗成為副現(xiàn)象的(Epiphenomenal),或者將經(jīng)驗放在這個網(wǎng)絡(luò)之內(nèi),通過某種羅素一元主義,使物質(zhì)的內(nèi)在屬性具有原始的經(jīng)驗性?!保?]44這篇論文也是查爾莫斯對那些批評《正視意識問題》所含觀點的人的部分回應(yīng)。查爾莫斯認為,意識具有特殊性,不能簡單地用物理或功能性術(shù)語解釋。因此,解決意識問題更合適的方案應(yīng)當(dāng)是一種融合了多學(xué)科研究成果的方案,“通過這種方式,我們最終可能會得到一個真正令人滿意的意識經(jīng)驗理論?!保?]44
在《意識及其在自然中的地位》中,查爾莫斯將其意識觀與某種自然主義相聯(lián),他說:“在最常見的自然概念中,自然世界就是物理世界,但在最常見的意識概念中,很難看出它如何能成為物理世界中的一部分。因此,要在自然秩序中找到意識的位置,我們必須要么修正我們對意識的概念,要么修正我們對自然的概念?!保?]102
在1995 年到2003 年間,查爾莫斯弱化了早期階段所持的機器意識相對容易實現(xiàn)的觀點,認為“難問題”的存在使實現(xiàn)機器意識變得困難,需要引入一定非物理形式的解釋,即他所認為的意識屬性二元論(Property Dualism)觀念。查爾莫斯這一階段的觀點遭到諸多學(xué)者的反對,例如丹尼特(D.Dennett)、雷(G.Rey)等認為,“一旦人們解決了解釋各種認知、行為和環(huán)境功能的簡單問題,就不再存在解釋意識的‘難問題’?!保?]102因此,難問題在根本上應(yīng)該屬于一個虛假問題。布洛克(N.Block)、斯塔爾內(nèi)克(R.Stalnaker)等認為,“現(xiàn)象狀態(tài)可以等同于(Identified)某種物理的或功能性狀態(tài)?!保?]112在這些反對者看來,查爾莫斯將意識分解為“難問題”和“易問題”是沒有必要的,因為意識是一種可被還原為某種物理過程,并不需要進一步擴展其本體論范圍。而在查爾莫斯的支持者看來,查爾莫斯關(guān)于意識的“難易之分”是一種清晰且有力的分析,可以幫助我們理解意識問題的本質(zhì)和難度。例如,羅森博格(G.Rosenberg)認為,意識是一種不可還原為物理現(xiàn)象的現(xiàn)象,需要我們擴展或重構(gòu)物理本體論。他說“我通過論證一個純粹的物理世界不可能包含經(jīng)驗事實來說明物理主義(是指一種純物理主義的主張)是錯誤的?!保?]
在此,筆者認為,查爾莫斯在此階段關(guān)于意識本質(zhì)的研究為機器意識僅僅提供了某種功能性解釋,即機器意識或許只能是對人的思維能力或功能的模仿。而真正讓機器具備意識的必備條件是它們必須有“主觀經(jīng)驗”,也就是說,它們必須擁有特定的感覺和體驗??傊?,“難問題”的存在為實現(xiàn)真正意義上的機器意識筑起了一條難以逾越的鴻溝。當(dāng)然,查爾莫斯對意識屬性二元式厘定也為其后期持有的“機器意識需要漸進式上傳”(Gradual Uploading)③的主張?zhí)峁┝艘欢▌恿π曰A(chǔ)。
如前所述,由于查爾莫斯對意識問題不斷深入研究,“難問題”的發(fā)現(xiàn)使其關(guān)于意識本質(zhì)的立場逐漸轉(zhuǎn)向了二元主義,但這并不意味著查爾莫斯否認了機器意識的可能性。近些年來,隨著人工智能技術(shù)與腦科學(xué)的快速興起與發(fā)展,查爾莫斯關(guān)于機器意識的觀點逐步轉(zhuǎn)向了某種“強形式的非物理主義”,主張漸進式上傳是目前實現(xiàn)機器意識的最佳路徑。與此同時,查爾莫斯認為,應(yīng)當(dāng)謹慎對待機器意識可能引起的各種社會倫理問題。
2010 年,查爾莫斯公開發(fā)表了他的第一篇主題為“奇點”的論文,即《奇點:哲學(xué)分析》。在《奇點:哲學(xué)分析》中,查爾莫斯通過對“奇點(Singularity)④是否真的可能存在”這一問題的回答重新表明了“機器意識是可能的,但不是必然的”這一立場。他說:“奇點真的可能存在嗎?我認為這當(dāng)然不是不可能的,主要的障礙很可能是動機方面的障礙而不是能力方面的障礙。”[10]然而這一觀點遭到了諸多學(xué)者的反對,例如亞歷山大(I.Aleksander)提出,“第一,現(xiàn)有人工智能的知識表明我們距離奇點還很遙遠。第二,設(shè)計一個比人類智能更高的系統(tǒng)需要完整的‘自我知識’(Self-knowledge)和完整的認知心理學(xué)?!保?1]145因此,可以說奇點的出現(xiàn)是困難的,甚至不可能。但在查爾莫斯看來,亞歷山大的反駁是無力的,他寫道:
對于第一點,當(dāng)前的人工智能水平與人類智能的水平之間的差距可能會對幾年或幾十年內(nèi)達到人類水平的人工智能的說法產(chǎn)生懷疑,但它并沒有對我為幾個世紀內(nèi)出現(xiàn)人工智能的前提提出的論證產(chǎn)生太大的懷疑。對于第二點,真的需要完整的自我知識并不清楚?!ㄍ斯ぶ悄艿穆窂?,例如人工進化(Artificial Evolution)與機器學(xué)習(xí)(Machine Learning),有可能采取與人類智能完全不同的路線,因此再次說明不需要自我知識。[11]145
由此,可以看出,查爾莫斯關(guān)于機器意識的實現(xiàn)始終懷有積極態(tài)度。那么,此階段的查爾莫斯認為機器意識的實現(xiàn)路徑應(yīng)當(dāng)歸于何處呢?我們可以從其撰寫的《現(xiàn)實+:每個虛擬世界都是一個新的現(xiàn)實》《大型語言模型可以是有意識的嗎?》等著作中窺得一二。
在《現(xiàn)實+:每個虛擬世界都是一個新的現(xiàn)實》中,查爾莫斯關(guān)注一種特殊類型的機器,即“完美模擬大腦的機器”。即人的“每個神經(jīng)元都被完美地模擬了,就像大腦中的每個神經(jīng)膠質(zhì)細胞和其他細胞一樣。神經(jīng)元之間的相互作用也得到了完美模擬。所有的電化學(xué)活動都是模擬的,其他活動也是如此,例如血流。如果大腦中有一個物理過程對大腦的功能產(chǎn)生影響,那么它將被模擬?!保?2]265查爾莫斯說:“模擬大腦(Brain Simulation)是一個運行在計算機上的數(shù)字化系統(tǒng)。如果我們能夠確定一個數(shù)字化系統(tǒng)是有意識的,那么我們就知道沒有普遍的理由說明數(shù)字化系統(tǒng)不能有意識,閘門(指的是機器意識)就會打開?!保?2]265
那么,如何才能實現(xiàn)這種類型的模擬大腦呢?查爾莫斯認為“漸進式上傳”是最佳之選。他說,“成為模擬大腦最安全的方法是分階段進行。這個過程有時稱為漸進上傳。”[12]266該過程被查爾莫斯描述為:
對每一個細胞均進行模擬,并安排它通過受體和效應(yīng)器與鄰近的生物細胞相互作用。起初,只有少數(shù)原始細胞會被模擬細胞取代。一段時間后,許多細胞將被替換,相鄰細胞可以以完全模擬的方式相互作用。最終將模擬大腦的四分之一、一半、四分之三,直到結(jié)果是一個完全模擬的大腦。[12]266
查爾莫斯提醒到,在每個模擬階段,假如模擬足夠準確,都會通過向被模擬者詢問一些簡單問題以驗證其是否具有意識。例如有人會問:“你感覺怎么樣?”你可能會回答:“我感覺很好”,或者“我感到饑餓”,或者“我感到疼痛”等。最后,當(dāng)大腦完全被模擬所取代,在被詢問類似上述的問題時若依舊能獲得確定性回復(fù),那么,“對你來說,這是完全令人信服的證據(jù),表明機器可以有意識?!保?2]267也證明了漸進式上傳路徑的合理性。
在《大型語言模型可以是有意識的嗎?》中,查爾莫斯繼續(xù)圍繞機器意識問題進行了相關(guān)討論,他說:“在關(guān)于意識的主流假設(shè)中,認為目前典型的大型語言模型——比如GPT 系統(tǒng)——具有意識的可能性很低是合理的?!保?3]19但“在未來十年內(nèi),我們很有可能會擁有具備感知(Senses)、具身化(Embodiment)、世界模型(World Models)和自我模型(Self-models)、循環(huán)處理(Recurrent Processing)、全局工作空間(Global Workspace)和統(tǒng)一目標(Unified Goals)的強大系統(tǒng)。”[13]19其中,“通過‘神經(jīng)人工智能’(Neuro AI)挑戰(zhàn),即在虛擬具身系統(tǒng)(Virtually Embodied Systems)中與各種非人類動物的能力相匹配的方式來解決這個問題是一種方法。”[13]19也就是前面所述的“漸進式上傳”的方法。另外,查爾莫斯提醒到,人類應(yīng)當(dāng)認真對待大型語言模型在未來具有意識的可能性。因為“不經(jīng)意地和盲目地追求有意識的人工智能可能是一場災(zāi)難”[13]21。因此,“我們應(yīng)當(dāng)明確機器意識的可能路徑,并小心處理這些問題?!保?3]21
從上述的論述中可以得出,自2010 年至今,盡管因關(guān)于“意識”本質(zhì)的研究導(dǎo)致了機器意識的實現(xiàn)再度陷入困境,但查爾莫斯對其實現(xiàn)的信心仍未改變。他在提出漸進式上傳能夠成為實現(xiàn)機器意識的一種可能方法的同時,也提醒人們需要謹慎對待由機器意識引起的潛在社會倫理問題。
通過對查爾莫斯文本的考察,本文將其關(guān)于機器意識的思想嬗變歷程劃分為三個階段:早期(1989-1994)、中期(1995-2003)以及后期(2010 至今)。在每一個階段中,查爾莫斯均圍繞“機器意識何以可能”而展開了不同方面的思考。在早期階段,查爾莫斯認為機器意識存在實現(xiàn)的可能,其中計算是實現(xiàn)這一目標的核心基礎(chǔ);在中期,他認為“難問題”的存在使得實現(xiàn)機器意識變得困難,即主觀經(jīng)驗的產(chǎn)生不僅僅是物理和計算過程的結(jié)果,而且涉及更深層次的意識現(xiàn)象,因此需要一定非物理的方式進行解釋;在后期,查爾莫斯認為機器意識的最佳實現(xiàn)路徑是漸進式上傳,且應(yīng)當(dāng)謹慎對待機器意識的發(fā)展??傊?,查爾莫斯機器意識觀的演變歷程顯示了一個哲學(xué)家在面對新興領(lǐng)域問題時的逐步深化和創(chuàng)新。
注釋:
①查爾莫斯于1989 年開始攻讀博士學(xué)位,因而可以將1989 年看作其機器意識觀的開始。
②組合狀態(tài)自動機(Combinatorial-state automata)是查爾莫斯為解釋“一個物理系統(tǒng)如何實現(xiàn)一個計算”所提出的概念,是一種抽象的計算模型,主要由一組狀態(tài)和一組轉(zhuǎn)移規(guī)則組成。
③“漸進式上傳”是查爾莫斯針對“難問題”的存在而提出的一種技術(shù)主張,指的是將一個人的大腦逐步替換為人工神經(jīng)元或其他計算設(shè)備,從而實現(xiàn)人類意識的轉(zhuǎn)移和保存。
④在這里,查爾莫斯將“奇點”指代為智能爆炸,即每一代機器會依次創(chuàng)造出更智能的機器的過程。
佛山科學(xué)技術(shù)學(xué)院學(xué)報(社會科學(xué)版)2024年1期