楊冬
計算機能夠思考嗎?
在20世紀50年代,為了回答這個問題,計算機科學的先驅(qū)艾倫·圖靈提出了“圖靈測試”這一思想實驗。首先,請一個人與計算機進行對話,對話方式為打字,這個人只能看到屏幕上顯示的對方的回答。接下來,請另一個人(第三者)觀看他們的對話內(nèi)容,但是他并不知曉對話者是人還是計算機。此時,如果第三者無法分辨對話者中誰是人,那么這臺計算機就通過了“圖靈測試”。
在圖靈測試中,關(guān)鍵問題不是“計算機在對話中所提供的內(nèi)容是否正確”,而是“通過對話能否區(qū)分發(fā)言者是人還是計算機”。圖靈認為,“計算機是否可以思考”這個問題很難回答,因為首先要定義“什么是思考”。所以,他寧愿用“圖靈測試”來判斷計算機是否有能力模擬人的行為。
如果計算機可以完全模擬一個人的行為,使人無法判斷它究竟是人還是計算機,那么是否可以認為它具備了人的思考能力呢?圍繞著這一問題,數(shù)不清的科學家進行了反復討論、辯論,通過刊印論文、發(fā)表演說,各抒己見。不過,由于在“圖靈測試”公布后的幾十年內(nèi),并沒有一臺計算機具備通過“圖靈測試”的能力,這些爭議在很大程度上也僅有理論意義。直到本世紀初,依然有很多科學家認為,在有生之年根本不可能見到一臺對話能力可以通過“圖靈測試”的計算機。然而,隨著人工智能技術(shù)的突飛猛進,科學家們突然發(fā)現(xiàn),人類大大低估了計算機的能力。
2022年,OpenAI公司推出了一個人工智能聊天程序,名為ChatGPT。作為聊天程序,ChatGPT可以產(chǎn)生非常自然的對話內(nèi)容,僅通過對話,很難把它與人類區(qū)分開來。正如70年前圖靈所預(yù)測的,ChatGPT的先進之處并非它總是可以給出正確的答案(ChatGPT提供的答案有時也有錯誤),而是它的表達方式與人類非常接近,甚至可以以假亂真。因此,至少在某些情況下,ChatGPT有可能通過“圖靈測試”。
如果有一天ChatGPT真的通過了“圖靈測試”,那么它對人類社會的影響就會成為一個需要嚴肅對待的社會議題。
人類要面對圖靈當初試圖回避的問題,即如果一臺機器完全可以模擬人的行為(即通過了“圖靈測試”),那么它具有人的思維嗎?從圖靈當初的視角出發(fā),他其實是將人腦和計算機都看作黑箱,也就是說我們不清楚其內(nèi)部的機制,只觀察輸入和輸出。對計算機和人腦輸入相同的信息(如一個問題),如果計算機的輸出與人腦的輸出并無明顯差異,無法分辨哪個輸出屬于人腦,那么我們就認為這兩個黑箱(即計算機和人腦)的行為完全相同。
如果計算機和人腦行為相同,那么在解決具體問題時就可以互相取代。由此推理,通過“圖靈測試”的計算機已經(jīng)具備了取代人腦的潛力??上攵?,未來ChatGPT或者它后續(xù)更強大的版本可能取代很大一部分目前人類所從事的工作,對人類社會的影響無法估量。
在不久的將來,很多職業(yè)會被取代,然而,人工智能所帶來的更大的影響恐怕會出現(xiàn)在人際交流過程中—你將越來越難以確定與你交流的對象究竟是誰。
人們可能會把某些他們認為缺乏創(chuàng)造性的交流活動“托付”給計算機完成。未來,你的小孩參加在線課程學習,他/她面對的教師可能就是一臺安裝了強大聊天程序的計算機。再進一步,如果你知道教師其實是計算機,那么你是否會“委托”你的計算機與對方進行“家校交流”呢?
今天的社交軟件(如微信)已經(jīng)滲入了工作、生活的方方面面,我們每天在軟件上與形形色色的人聊天、交流。雖然你很可能從未見過對方,但是一般而言你會相信對方確實是一個“人”。然而,這個信念在未來還可以保持嗎?
我們還可以展開想象,當一位身體虛弱的老人失去認知能力和記憶力后,他的家人用一個計算機程序模擬他的口吻繼續(xù)發(fā)表言論,與親戚朋友聊天,這樣的做法是否符合倫理?如果老人去世后,家人們依然用計算機程序模擬他,與“他”聊天呢?當然,對于懷念逝者的人而言,這是一種安慰。不過,如果這種交流方式廣泛應(yīng)用于社會交往中,人類對于交流的認知將從根本上被動搖。
在人與人之間的交流日益依靠計算機輔助的背景下,人作為今天交流的主體將不可避免地被淹沒,這將成為人工智能對人類生存方式的最重大挑戰(zhàn)。
從長遠來看,ChatGPT及與其類似的人工智能軟件可能帶給人類不小的挑戰(zhàn);就近期而言,作為工具,ChatGPT將為我們的工作和生活提供大量助力。
以科研為例,人們可以利用人工智能工具搜索文獻并自動生成某個科研領(lǐng)域的綜述,這將大大縮減研究者在搜尋文獻上投入的時間和精力。同時,在提供已有科研數(shù)據(jù)的前提下,人工智能工具能快速形成規(guī)范的文本,幫助科學家完成科研報告或論文??茖W家可以把主要精力集中在準確解釋數(shù)據(jù)、歸納總結(jié)出新的理論模型等方面,而不必將大量時間花費在語言表述和文本格式、規(guī)范上。在目前的技術(shù)水平下,人工智能工具還沒有體現(xiàn)出創(chuàng)新能力。所以,面對實驗、調(diào)查產(chǎn)生的科研數(shù)據(jù),最終還是需要科學家做出正確的解釋,并且提出新的科研思路。
當然,從另一方面看,與ChatGPT類似的人工智能軟件的普及將導致任何人都可能快速炮制出規(guī)范、通順、富有邏輯、有理有據(jù)的文章。教師將很難對學生提交的論文形式的作業(yè)進行評估,因為無法判斷學生完成作業(yè)時是否使用了人工智能軟件。也許,在未來的課堂上,教師將要求學生參加口試,讓他們當面回答與所提交作品相關(guān)的問題。在科研工作中,此類軟件的普及也不可避免地增加了科研基金評審的難度。因為,在人工智能軟件大量普及的時代,科研人員在撰寫基金申請時都會依靠計算機的幫助。與前面提到的可能顛覆人類交流的終極挑戰(zhàn)相比,上述問題都是“小問題”,然而這些問題迫在眉睫,無法被忽略。
ChatGPT的底層技術(shù)是大型語言模型(LLM)。通過利用海量數(shù)據(jù)(如各種語言文本)進行訓練,計算機最終可以實現(xiàn)對自然語言的正確理解,并有效使用自然語言進行對話。然而,除了我們平日交流中使用的“自然語言”,是否還有其他的編碼某些信息的數(shù)據(jù)可以被當作語言來處理呢?如果LLM可以處理“特殊語言”,那么人工智能軟件的功能就不僅限于聊天和產(chǎn)生文本了。
我們知道,地球上一切生命的信息都由核酸(大部分生物是DNA,某些病毒是RNA)編碼。構(gòu)成DNA的基本單元是A、T、C、G四個堿基,它們的組合包含了一個生物體的全部遺傳信息。那么,DNA序列是不是一種語言呢?是否可以利用海量的基因組信息去訓練人工智能軟件,從而讓其通過“閱讀”一個生物體的基因組就能夠預(yù)測其基本性狀呢?或者,反過來,能否讓人工智能軟件通過設(shè)計基因組序列,按需創(chuàng)造出一個全新的生物體呢?今天,我們還不知道這些設(shè)想是否可行。不過,近期的科學發(fā)現(xiàn)表明,如果略微降低期待,僅僅把設(shè)計局限在蛋白質(zhì)序列上,那么也許成功離我們并不遙遠。
2022年,美國科學家在《自然·生物技術(shù)》雜志上發(fā)表了一篇文章,報道了一個基于LLM的蛋白質(zhì)設(shè)計軟件ProGen。蛋白質(zhì)是由氨基酸組成的,而其具體的氨基酸序列則是由編碼該蛋白質(zhì)的基因決定的。那么,對于任何一個已經(jīng)被測序和注釋的基因組而言,其編碼了多少蛋白質(zhì),每個蛋白質(zhì)的氨基酸序列(簡稱:蛋白質(zhì)序列)是什么,都是已知的。今天,科學家面對著海量的蛋白質(zhì)序列的信息,它們決定了蛋白質(zhì)的結(jié)構(gòu)、功能。如果將這些信息看作一種語言,那么能否利用LLM解讀和設(shè)計蛋白質(zhì)序列呢?
可以說,目前ProGen已經(jīng)做到了這一點。通過利用2.8億條蛋白質(zhì)序列進行訓練,ProGen的設(shè)計能力達到了相當高的水準。研究人員利用ProGen對溶菌酶進行了設(shè)計,然后組織實驗合成了其設(shè)計出的蛋白質(zhì)。通過實驗可以發(fā)現(xiàn), ProGen設(shè)計的蛋白質(zhì)中73%具有活性。其平均活性水平與天然蛋白質(zhì)大致屬于同一范圍,個別蛋白質(zhì)還具備比天然蛋白質(zhì)更強的活性。通過把蛋白質(zhì)的氨基酸序列作為“語言”對待,經(jīng)過海量數(shù)據(jù)的訓練,計算機似乎也可以讀懂這種“語言”,并能構(gòu)建自己的“文本”,即新的蛋白質(zhì)序列。
也許,未來計算機真的可以讀懂生命的“天書”,并寫下自己的“章節(jié)”—設(shè)計新的基因組。不過,即使科學家的進展僅停留在目前蛋白質(zhì)設(shè)計的層面上,他們也已經(jīng)可以對人類的生活造成重大影響。蛋白質(zhì)設(shè)計可以幫助研發(fā)人員開發(fā)新型藥物和疫苗,也可以為工業(yè)生產(chǎn)提供更加有效的生物催化劑。可見,基于LLM的人工智能技術(shù)對社會的影響才剛剛開始。
2023年,更多的普通人與一鳴驚人的ChatGPT邂逅,我們知道了人工智能的崛起始于聊天,始于理解自然語言,然而,面對廣闊的應(yīng)用領(lǐng)域,人工智能將終于何處,尚不可知,它的未來依然如謎,依然令人向往。