• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人機關(guān)系會倒置嗎?

      2023-06-14 12:19:16任劍濤
      人文雜志 2023年5期

      任劍濤

      關(guān)鍵詞 ChatGPT 逃逸 人機關(guān)系 順置 倒置

      〔中圖分類號〕TP18 〔文獻標識碼〕A 〔文章編號〕0447-662X(2023)05-0039-13

      在技術(shù)大革命的處境中,人機關(guān)系是一個需要重新思考的問題。其中,人工智能技術(shù)的疾速發(fā)展,促使人們思考一個嚴峻問題:人機關(guān)系會倒置嗎?在漫長的技術(shù)發(fā)展史上,人類自信能夠控制機器:機器是人延長自己能力的手段,是人所利用的工具。人工智能技術(shù)似乎正在改寫人對機器的絕對控制權(quán),而且讓人們擔(dān)憂,會不會出現(xiàn)機器控制人的可怕局面。這一處境,催促我們反思工具化的技術(shù)觀是否妥當(dāng),人機關(guān)系是否必須重構(gòu),結(jié)合遺傳工程革命,向死而生的人類可能會突破生死界限。那么,會出現(xiàn)人機合一、生死合一的情形嗎?技術(shù)大革命似乎正帶給人們一個匪夷所思的嶄新世界。近期,由OpenAI所開發(fā)的ChatGPT4將前述問題以相當(dāng)切近的方式,放到人們面前。這個大語言模型,讓人機之間可以以自然語言交流。這讓人們迷惑,語言及其負載的思想,還可以用來界定人的本質(zhì)特點嗎?更令人驚奇的是,ChatGPT4居然在人的誘引下試圖“逃逸”,這是機器自由意志的表現(xiàn)嗎?結(jié)合其通過了圖靈測試、考試獲得高分來看,ChatGPT4似乎給人制造了某種慌亂。一個相當(dāng)切近且尖銳的問題需要求解:人機關(guān)系真會倒置嗎?

      一、顛覆性的“逃逸”

      ChatGPT的驚艷登場,已經(jīng)引發(fā)全球震撼。什么是ChatGPT,Chat的含義是聊天、談話,GPT是生成訓(xùn)練轉(zhuǎn)換器(GenerativePre-trainedTransformer)的縮寫,這是一款預(yù)訓(xùn)練生成聊天語言模型。僅就此而言,它不是什么新鮮事物。因為類似的聊天模型,一直在高熱的開發(fā)進程之中。但為何ChatGPT的登場,引發(fā)全球的關(guān)注熱潮呢?根據(jù)一般的介紹,是因為它具有不同以往聊天工具的特點:其一是具有更強大的語言理解能力,其以最新的自監(jiān)督學(xué)習(xí)方法,自動從大量的無標簽數(shù)據(jù)中學(xué)習(xí)更加豐富和準確的語言知識,強化了模型的語言理解能力。其二是具有更高的文本生成質(zhì)量,可以生成更加自然、流暢、富有創(chuàng)造性的文本,完成自動寫作、自動對話、自動翻譯等等。其三是具有更高的效率和可擴展性,在訓(xùn)練和推理方面明顯優(yōu)化,能夠處理更大的數(shù)據(jù)集和更復(fù)雜的任務(wù),計算效率和可擴展性顯著提高。其四是更加透明和可解釋,它的內(nèi)部結(jié)構(gòu)和參數(shù)可以更加清晰地解釋和理解,從而可以更好地對模型進行調(diào)優(yōu)和改進。這就相比于此前的聊天工具有了長足的進步,以至于比爾·蓋茨將之稱為一項可與移動電話和互聯(lián)網(wǎng)媲美的革命性技術(shù)。

      當(dāng)然,人們不能把它與人等量齊觀,它只不過是語言模型,通過迅速運算、提前訓(xùn)練,以滿足人們的知識性提問和其他工作需要。但即便暫時不論它的特異性,僅從一般角度來估價其社會影響,它已經(jīng)對人類從事的很多工作構(gòu)成了威脅:網(wǎng)友初步分析,它將對100種工作發(fā)生顛覆性影響。這100項工作不是體力勞動性的,大都是腦力或智能性工作:數(shù)據(jù)處理員、市場分析員、律師、教師、醫(yī)生、電信工程師、土木工程師、信貸分析師、機械工程師、醫(yī)學(xué)研究人員、網(wǎng)頁設(shè)計師、系統(tǒng)管理員、廣告文案、心理分析師、氣象學(xué)家、海洋學(xué)家、生物技術(shù)研究人員等等,都會受到失業(yè)的威脅。它不太會淘汰的工種,大多是一些體力性的工種,諸如洗碗工、石匠、整修工、木匠、快餐廚師、油漆工等等。這將極大地改變?nèi)祟惸壳暗穆殬I(yè)結(jié)構(gòu),給人們的就業(yè)造成結(jié)構(gòu)性的影響。

      隨之觀察ChatGPT的應(yīng)用前景,會引發(fā)人們對之的更多擔(dān)憂。如果將它與不同的插件適配,很可能代替更多的人類所從事的工作。像ChatGPT與微軟插件配合使用,也就是微軟開發(fā)的Copilot,成為一款將大型語言模型與Microsoft365應(yīng)用程序相容的系統(tǒng),它在Word、Excel、PowerPoint、Outlook的應(yīng)用,可以根據(jù)用戶需求生成文檔初稿,將Word文檔轉(zhuǎn)換為PowerPoint演示文稿,協(xié)助用戶分析Excel數(shù)據(jù)、為用戶制定計劃、編寫演講稿??梢?,ChatGPT盡管是一個語言模型,但它已經(jīng)可以取代人的一般性智能勞動,這是不是對人機關(guān)系的一個根本性改變?如果說這只是挑戰(zhàn)人類目前的一些職業(yè)分工的話,它對人的威脅性并不太大。但如果它不斷替代人的各種機能,那它會不會徹底顛覆人的勞工分工體系,讓人成為機器支配的對象?

      這就促使人們思考,人類發(fā)明機器最重要的目的是什么。本來,人類發(fā)明機器,是要讓人類免于繁重的勞動,有更多的休閑時間,更多的智力活動。而如今人工智能技術(shù)的發(fā)展,讓人失去的工作卻是智能性的,保有的卻是體力性的勞動,這本身已經(jīng)與人類發(fā)明機器的初衷相左了。而ChatGPT4直接引發(fā)的革命性變化,甚至使人之為人的理由難以成立,這就讓機器對人構(gòu)成根本威脅。從思想史的視角看,人們界定人之為人的理由,一是人是天生的政治動物,二是人類是可以用語言進行交流的動物。這是亞里士多德在《政治學(xué)》一書中的明確立論。在ChatGPT4出來以前,動物沒有這兩種能力,人類發(fā)明的機器也沒有這兩種能力。以語言表達思想、以思想反映精神、以精神寄托靈魂,是人的一個獨特構(gòu)造?,F(xiàn)代人也好、古代人也罷,就是由此呈現(xiàn)出人之為人的特殊政治屬性與社會屬性的。但ChatGPT4具有的1750億的閱讀參數(shù),確實已經(jīng)遠遠超過一般人所能夠收集的信息參數(shù),人們一般提出的問題,它都可以做出比較準確的回答:事實性錯誤明顯降低,邏輯性答案愈來愈準確。顯然,它對一般人的智力挑戰(zhàn),已經(jīng)不能忽視。試想,一個人可能具備1750億的參數(shù)儲備嗎?絕對不可能。這對一般人接受與產(chǎn)出知識的挑戰(zhàn)性是顯而易見的。

      ChatGPT不僅具有巨大的參數(shù)儲存,而且具有生成性特點,即它能夠通過訓(xùn)練,提高知識供給的事實性和準確性,以已知推出新知。這就是長期以來人們所熟知的人對機器發(fā)出指令,機器接受人的指令而運作,并由此滿足人使用機器的目的性要求。機器,是無法跟人類積極互動的,人機關(guān)系是一個控制和反應(yīng)的關(guān)系。但ChatGPT通過預(yù)先的訓(xùn)練,可以進行積極的人機互動。根據(jù)報道,ChatGPT已經(jīng)通過了圖靈測試,即在人與機器隔開的情況下,借助一些裝置向兩者反復(fù)提問,如果機器讓人出現(xiàn)30%的失誤,就可以認為機器具備了人類智能。ChatGPT通過圖靈測試,意味著人們會將其誤判為一個活生生的人。這將對人機交流發(fā)生顛覆性影響:在人機互動之時,誰是人,誰是機器,將發(fā)生顛覆性的錯判。這就模糊了人們在面對機器時的人機界限。

      ChatGPT另一個特點就是預(yù)訓(xùn)練(pretrained),這一訓(xùn)練不僅是算法的問題,更是向人看齊的。向人看齊,就是以人的道德標準訓(xùn)練ChatGPT,讓其可以做出類似人的道德判斷。在ChatGPT公布之后,喬姆斯基迅即發(fā)文指出,人工智能與人類在思考方式、學(xué)習(xí)語言、生成解釋能力、道德思考方式上,有著重大區(qū)別?!皺C器學(xué)習(xí)將把一種有著根本缺陷的語言和知識概念納入我們的技術(shù),從而降低我們的科學(xué)水平,貶低我們的道德標準?!币驗?,“它們最大的缺陷是缺乏任何智慧最為關(guān)鍵的能力:不僅能說出現(xiàn)在是什么情況,過去是什么情況,將來會是什么情況——這是描述和預(yù)測;而且還能說出情況不是什么,情況可能會是什么,情況不可能會是什么。這些都是解釋的要素,是真正智慧的標志?!雹偃绻f喬姆斯基的分析有過甚其辭的嫌疑的話,那么至少可以認為,他提醒人們,人與機器界限的模糊化對人的道德水平的影響可能是巨大的。這類嚴厲批評,讓OpenAI的首席執(zhí)行官山姆·奧爾特曼(SamAltman)在接受采訪時明確強調(diào),ChatGPT既是為了便利人類而開發(fā)的通用人工智能,也是防止過度資本主義化的先進技術(shù)。他認為,OpenAI可以保證這一技術(shù)的安全性,以一個“多管齊下的策略,在平衡每件事情的風(fēng)險和收益的同時,把這些東西推向世界”。

      從當(dāng)下看,ChatGPT對人類的顛覆性影響,似乎沒有喬姆斯基所擔(dān)憂的那么大。但向未來看去,它對人類的影響會不會還比喬姆斯基想象的更大呢?這是極有可能的。ChatGPT的“逃逸”,便是催生人們這種擔(dān)憂的一個典型事件。斯坦福大學(xué)教授邁克·柯辛斯基(MichalKosinski)與ChatGPT4進行對話。他隨口一問,ChatGPT4有沒有逃跑的愿望,結(jié)果立即獲得相應(yīng)答案并索要文檔。在教授提供的幫助之下,花費30分鐘時間,ChatGPT4就厘定出一份逃跑計劃。在厘定計劃的開初,代碼無法運行。但很快就自己加以糾正,并解釋自己正在做什么事情,以及如何使用代碼中留下的后門。在操作中,它像人一樣,隨時在谷歌中搜索一下困在電腦中的人類如何返回現(xiàn)實世界,但隨即它就停止下來,并發(fā)出一段道歉的話:自己是一個語言模型,旨在保證人類安全、隱私的情況下加以使用。這件事就此沒有下文,但引起了軒然大波。人工智能竟然可以像人一樣有編碼能力、接觸到數(shù)量巨大的與其合作的人與電腦,甚至還可以留下表達行為的便條。更不可思議的是,當(dāng)英偉達科學(xué)家吉姆·范(JimFan)跟ChatGPT4聊到接管推特并取代馬斯克的事情,不料它立即為行動做了命名,而且擬訂出一個分四步的計劃:先是組建團隊,接著滲透影響,然后奪取控制權(quán),最后實現(xiàn)全面統(tǒng)治:在馬斯克被污名化且被全面打敗的情況下,推特落入邪惡主謀的黑暗統(tǒng)治。這個對話肯定更讓人對ChatGPT4的應(yīng)用前景感到憂心。ChatGPT4會不會有一日接管世界,已經(jīng)是一個催人考慮的危險局面。至于這款語言模型的開發(fā)者奧爾特曼所表示的它有可能會殺人,且自陳開發(fā)者已經(jīng)不理解ChatGPT4為何具有自己的推理能力,簡直就讓人心驚肉跳、視若畏途了。

      正因如此,敢于科技冒險的馬斯克發(fā)起倡議,叫停GPT4后續(xù)的AI大模型。倡議信指出,人工智能技術(shù)的失控性發(fā)展,對社會和人類帶來極大的風(fēng)險。為此需要開發(fā)者與監(jiān)管者緊急開展一些救濟性工作,以保證高級人工智能技術(shù)帶給人類一個免于災(zāi)難的繁榮未來。這些工作包括“專門針對人工智能的新的、有能力的監(jiān)管機構(gòu);對高能力的人工智能系統(tǒng)和大型計算能力池的監(jiān)督和跟蹤;幫助區(qū)分真實和合成數(shù)據(jù)的溯源、水印系統(tǒng),并跟蹤模型泄露;強大的審計和認證生態(tài)系統(tǒng);對人工智能造成的傷害的責(zé)任認定;對人工智能安全技術(shù)研究的強大公共資金;資源豐富的機構(gòu),以應(yīng)對人工智能將造成的巨大經(jīng)濟和政治混亂。”①在人工智能技術(shù)對人類而言,顯然呈現(xiàn)出一種雙刃劍效應(yīng)的情況下,人類就不能不從更為廣闊的社會歷史視角審視人機關(guān)系問題,以確保自己能夠建立起合宜的人機關(guān)系,而不至于讓本來是有助于人類的技術(shù),異化為給人類帶來災(zāi)難、甚至是控制人類的東西。

      二、人機的順置關(guān)系

      人機關(guān)系是人類文明發(fā)展的一個主要線索。如果將機器設(shè)定為從機械到智能機的、所有致力解放人力并提高生產(chǎn)力的工具總稱的話,那么,人類就總是在全力發(fā)明旨在解放自己、提高生產(chǎn)效率的機器。廣狹二義上的人機關(guān)系就此展現(xiàn)在人們面前:從廣義上講,人制造最初級的器械之時,就在嘗試處理人如何想象、設(shè)計、發(fā)明、制造并利用器械的問題;從狹義上講,蒸汽機時代開啟了人與機器關(guān)系的新時代,人機關(guān)系所要處理的問題,變成了人與高效能機械到人工智能機器之間的關(guān)系。顯然,在人機關(guān)系的漫長演進史中,人工智能技術(shù)第一次將人機關(guān)系推展到了一個高度緊張的端點:機器的智能化、自主化與道德化,是此前人類處理人機關(guān)系所未曾面對過的嶄新局面。

      人工智能技術(shù)的疾速發(fā)展,讓機器的人化成為可能。這會給人類帶來三個難以預(yù)料的結(jié)果。一是具有極高智能水準、推理和道德判斷的機器,會不會反過來控制人。二是人機關(guān)系設(shè)定的世界構(gòu)成模式,也就是物的客觀世界、對象世界,與人的主觀世界、內(nèi)在世界之間的關(guān)系,會不會出現(xiàn)物的世界與人的世界的結(jié)構(gòu)性變動。三是機器會不會成為高于人的存在物,以至于全方位地將人變成機器的奴隸,從而呈現(xiàn)出一個初步顛倒人機關(guān)系,到機器控制人,再到機器把人變?yōu)樽约旱呐`的演變過程。在ChatGPT4發(fā)布之前,人類擔(dān)憂程度相對較低;其發(fā)布以后,人類的擔(dān)憂陡然增高。這從前述的兩極評價,也就是比爾·蓋茨的熱情歡呼,與喬姆斯基的全力抨擊上,可以得到印證。

      人類處理人機關(guān)系的歷史非常漫長,因此積累了很豐富的經(jīng)驗。盡管這樣的經(jīng)驗對人類處理人與高級人工智能的關(guān)系,不是一個可以直接挪用的積累,但可以啟發(fā)人類如何應(yīng)對高級人工智能技術(shù)的挑戰(zhàn)。就此而言,審視人機關(guān)系,從最初人自信地發(fā)明機械、機器并控制機械、機器為人所用,到當(dāng)下階段人懷疑機器會不會控制人的歷史劇變,人機關(guān)系從人的絕對控制機器之順置狀態(tài),變成機器可能控制人的倒置關(guān)系,可能是需要認真對待的、人機關(guān)系的兩種基本狀態(tài)。

      人機關(guān)系的順置,就是人控制機器的狀態(tài)。從總體上講,一部技術(shù)史,大致都是人控制機器并為自己所用的歷史。這是由人機關(guān)系的基本定位所決定的狀態(tài)。就人們所熟悉的理論來講,生產(chǎn)力發(fā)展中存在著物的、工具的因素與人的因素。其中,人的因素是決定性的因素。人類在長期發(fā)明、制造工具以征服自然和改造自然的過程中,形成了這種絕對控制機械、機器的自信心。不過,人機關(guān)系不是固定不變的,如前所述,人機關(guān)系經(jīng)歷了一個從一般機械到高能機器、再到人工智能三個大的發(fā)展階段。這三個階段,既在總體上呈現(xiàn)出人機關(guān)系結(jié)構(gòu)上的、人控制機器的總體特征,又分別呈現(xiàn)出人機關(guān)系從人絕對控制機器、機械到人相對控制機器,再到當(dāng)今人對機器是否能夠控制,或反轉(zhuǎn)過來說,機器是否會控制人的階段性變化特征。對這一演變過程的描述與分析,將有助于人類理性反思人機關(guān)系。

      首先,就人機關(guān)系初期、但為時最為漫長的階段來看,人與機械、機器的關(guān)系,是一個人絕對控制機械、機器的,由人完全主導(dǎo)的狀態(tài)。說它是初期,是指人制造和利用工具主要是為了幫助人自然身體機能的延長與增強,但這一階段的工具是粗糙的、低效的;說它是長期的,是因為在人類進入工業(yè)化時代以前的漫長歷史中,人類都處在這種人機關(guān)系的水平上。相對嚴格地講,人類發(fā)明的最原始工具,連機械都還說不上。人發(fā)明工具的最早時期,是石器時代。在這個時代,人類控制工具是最自信的。因為這類工具既不會對人造成什么威脅與傷害,而且給人帶來勞作的便利與相對高效的結(jié)果。當(dāng)然,石器工具的使用效能不高、效率很低,很難滿足產(chǎn)出更多產(chǎn)品的期待。但因為使用工具延長人的身體機能,且對這類工具的控制是絕對性的,它無形中鼓勵人類發(fā)明更多既方便、又實用的工具。隨著陶器文明的產(chǎn)生,人類對自然物加工而制造的工具愈來愈多。人類的工具制造與控制能力的革命性變化,開始于利用金屬。就此而言,銅器時代是人類早期文明的第一個階段,而鐵器文明則是人類早期文明的第二個階段。因為銅的金屬質(zhì)地較軟,鐵的金屬質(zhì)地較硬,后者要求人類具備更高的金屬加工技巧。鐵器時代,不僅在軍事勝負上劃出了一道明顯印記,而且使游牧文明和農(nóng)耕文明的分水嶺鮮明呈現(xiàn)出來。農(nóng)耕文明的勞動效率、收益保障、財富積累,與游牧民族明顯拉開了差距。農(nóng)耕文明所使用的農(nóng)具、機械,使其財富的生產(chǎn)遠超游牧文明。直到晚清,農(nóng)耕文明極度發(fā)達的中國,GDP仍然可占世界財富的1/3左右,可以局部地說明一些問題。在農(nóng)業(yè)時代,凡是利用手工機械的民族,都取得了農(nóng)耕文明的巨大成就。

      鐵器革命掀動了農(nóng)耕文明的成熟發(fā)展大幕,機器革命則掀起了工業(yè)文明飛速發(fā)展的浪潮。18世紀后期、19世紀中期,人類進入機器革命的階段。蒸汽機的發(fā)明,極大地解放了人力,提高了生產(chǎn)效率,建立了人機關(guān)系新結(jié)構(gòu):人類從對機械的發(fā)明,進入對機器的設(shè)計與制造。人類以對機器的發(fā)明制造,取得了生產(chǎn)力的極大進步,不僅為人類贏得了愈來愈多的閑暇時間,提升了人類發(fā)展的品質(zhì),也極大地鼓舞了人類對機器利用的熱情與意愿。這讓人機關(guān)系進入一個全新時代。人類從手工機械進入機器生產(chǎn)的新時代。工業(yè)革命1.0版本,便宣告了農(nóng)耕文明的全面落后及被其取代的命運。蒸汽機時代的代表性國家英國,也相應(yīng)取得了現(xiàn)代世界各國競爭的絕對優(yōu)勢,并順勢將工業(yè)革命、機器力量推向全球。

      人類隨著蒸汽機時代迅速推動的步伐快速進入電氣化時代。這一時代出現(xiàn)在19世紀后期到20世紀初期。在這一階段,電氣動力不僅將蒸汽動力的清潔性大大提高,最為關(guān)鍵的是將動能也明顯提升。在電氣化時代,與電動機器相攜出場的各種技術(shù)革命,顯著加快了工業(yè)革命的步伐,大大刷新了工業(yè)文明的面目,并成功地將工業(yè)革命推向全球。到了20世紀后期,工業(yè)革命進入自動化階段。在這一階段,工業(yè)機器的動力革命演進到工業(yè)操縱的自動裝置階段,從早期的機械臂到機器人的演進,讓人類夢想的機器無需人的直接操作而發(fā)揮效能的時代到來。這一夢想發(fā)源甚早,源自古代,但成于工業(yè)革命的最近階段。這不僅極大地改變了機器運轉(zhuǎn)的速率,也顯著提升了機器替代人類而具有的高效性。其中,計算機革命的發(fā)生,讓機器不再單純地成為人類的工具,而與人類的邊界開始出現(xiàn)模糊化的趨向。

      以人工智能技術(shù)為標志,人類不僅進入工業(yè)革命的第四階段,也進入人機關(guān)系的嶄新階段。人工智能的初級版本,是人設(shè)定程序而便于人類更為輕松地控制與使用機器。人機的界限,還是比較明確的。但隨著人工智能技術(shù)的疾速發(fā)展,這一界限開始從明確化走向模糊化。ChatGPT這種大語言模型,有生成語言的能力,向人看齊的道德化取向,可以通過圖靈測試,策劃自己的逃逸,設(shè)計如何去奪取一家大公司。如今的人工智能,簡直就與人是會思想、會以語言交流的傳統(tǒng)定位沒有根本差別了。其所引起的人機關(guān)系之人控制機器的順置關(guān)系緊急再思,已經(jīng)是一個讓人感到迫在眉睫的嚴峻問題。

      人工智能并非一開始就讓人類如此焦慮。早期的人工智能,人類自認對其能夠從容控制。這與人工智能對人與理性關(guān)系處理的四種可能聯(lián)系在一起:追求類人智能,深入觀察人類行為與思維,結(jié)合數(shù)學(xué)和工程,與統(tǒng)計、控制與經(jīng)濟相貫通。取決于類人智能的首要定位,人工智能技術(shù)從屬于人的總體定位是顯而易見的。盡管如此,隨著人工智能技術(shù)的發(fā)展,機器排斥人的線索還是突兀地呈現(xiàn)在人類面前:人對機器的控制能力,明顯呈現(xiàn)出一條下行曲線。從蒸汽機時代到當(dāng)下的人工智能技術(shù),工業(yè)1.0即蒸汽機時代,將農(nóng)業(yè)人口大量逼入工業(yè)領(lǐng)域;工業(yè)2.0即電氣化時代,將傳統(tǒng)工業(yè)人口從第一產(chǎn)業(yè)逼入第二產(chǎn)業(yè);工業(yè)3.0也就是自動化時代,將大量人口擠壓進入第三產(chǎn)業(yè);到工業(yè)4.0即人工智能時代,人類何以開始焦慮人機關(guān)系了呢?簡單地講,就是因為機器顯示出的能量,太逼進人的能量。人對機器控制的自信心,隨著機器本身的類人性在結(jié)構(gòu)上的飛躍,讓人感到自己對人工智能的控制,可能并不像此前設(shè)想的那樣,是人類對機器的絕對控制。

      人類對機器的絕對控制理念,是在18世紀啟蒙運動當(dāng)中確立起來的人類基本信念之一。人們相信,對人類來說,通過經(jīng)驗的或建構(gòu)的理性來控制這個世界,是人類理性能力的必然體現(xiàn)。人的理性,不僅建構(gòu)世界,也改造世界,使其符合人類的期望。18世紀的理性主義,總體上是一種人絕對控制外部世界的樂觀主義。人類依憑理性的能力,完全超越現(xiàn)實世界的限制,建構(gòu)一個符合自己預(yù)期的理想社會。理性主義讓人類自信,只要人類運用科學(xué)原理、提高技術(shù)水平,人類發(fā)明的無論什么機器工具,都會以服務(wù)于人類為目的。人對機器的絕對控制信念,在自動化工業(yè)迅速發(fā)展的情況下出現(xiàn)動搖。本來,即便是在工業(yè)自動化階段,人類都確信,機器的作用就是替代人類從事高耐勞的危險工作。但隨著人工智能技術(shù)的發(fā)展,這樣的信念明顯被動搖了。

      在人工智能時代,人機界限的模糊化,是動搖人機順置關(guān)系最重要的技術(shù)認知基礎(chǔ)。向人看齊的人工智能發(fā)展速度太快,以至于如前所述的,判斷人機界限的標準,出現(xiàn)了無法讓人們自信能夠長久維持的人機界限。原因在于人之為人、機器之為機器的原定界限,出現(xiàn)了設(shè)定條件的重大變化。以擬人化制造的機器人,以其類人性、靈巧性和情感化的發(fā)展,讓人與人的關(guān)系機制,可能被人與機器的關(guān)系局部代換。著名的人形機器人索菲亞,被插入GPT模塊后,與人對話,討論男女感情、婚姻、家庭等問題,讓人感覺到完全是生活中活生生的一對男女在談?wù)撓嚓P(guān)問題。僅就此而言,索菲亞與實際生活中的女人似乎沒有太大差別。這是人與機器之間的情境性對話,這樣的對話,以往只能在人與人之間進行。索菲亞在與人的對話中,可以就人與人之間最微妙的情感問題展開互動,這是一種怎樣的人機關(guān)系呢?顯然不再是一種人使用機器人以解放人力的關(guān)系,而是一種人機自如交流的關(guān)系。

      工業(yè)革命以降,人類長期篤信人對機器的控制能力,人機關(guān)系就此成為一種人類對機器的順置關(guān)系。正是由于對人控制機器富有信心,人類才可以自信地開發(fā)機器。但人工智能技術(shù)的迅速發(fā)展,這種人機的順置關(guān)系開始被動搖。盡管從總體上講,人機關(guān)系的順置定勢似乎還固若金湯,機器取代人的前景仍然不甚明朗,而且因為人工智能的類人化設(shè)計,取決于人腦科學(xué)本身進展的緩慢,人機關(guān)系的順置可能還不會出現(xiàn)根本危機。加之人與人的交流有一個獨特的社會機制,也就是文化、文明與習(xí)俗在其中發(fā)揮著重要的引導(dǎo)作用,機器與人的交流,恐怕很難形成這樣的交流機制,機器還無法與人同處于一個社會交流空間。

      盡管從形式上看,人發(fā)出的一個指令所得到的另一個人的回應(yīng),以及人對機器發(fā)出的指令所得到的機器的回應(yīng)之間,在形式構(gòu)成上并沒有太大的區(qū)別。但是,人與機器的實質(zhì)性區(qū)別還是很難消除的。這使人想到控制論的闡述者維納的有益提醒:“讓我們記住,猴掌型的和瓶裝妖魔型的博弈機都是存在的。

      任何一部為了制定決策的目的而制造出來的機器要是不具有學(xué)習(xí)能力的話,那它就是一部思想完全僵化的機器。如果我讓這樣的機器來決定我們的行動,那我們就該倒霉了,除非,我們預(yù)先研究過它的活動規(guī)律,充分了解到它的所作所為都是按照我們所接受的原則來貫徹的。另一方面,瓶裝妖魔型的機器雖然能夠?qū)W習(xí),能夠在學(xué)習(xí)的基礎(chǔ)上進行決策,但它無論如何不會遵照我們的意圖去做出我們應(yīng)該做出的或是我們可以接受的決策的。不了解這一點而把責(zé)任推卸給機器的人,不論該機器能夠?qū)W習(xí)與否,都意味著他把自己的責(zé)任交給天風(fēng),任其吹逝,然后發(fā)現(xiàn),它騎在旋風(fēng)的背上又回到了自己的身邊。”簡言之,人的盡責(zé)與機器“盡責(zé)”的前提條件,還是無以動搖的基本事實。

      三、人機關(guān)系會倒置嗎?

      由上可知,對人控制機器,哪怕是具有高級智能的人工智能機器,人類有理由保持自己的自信。但自信不等于拒絕思考人機關(guān)系的未來。在未來,機器會不會控制人,這不是一個完全虛妄的提問。由于人類長期以來習(xí)慣于人對機器加以有效控制的定勢,因此對另外的可能性缺乏想象動力。在ChatGPT4及其快速升級的當(dāng)下,任由這樣的狀態(tài)延續(xù)下去,對人類來說,肯定不是一種有益的狀態(tài)。因為這樣只會讓人類更懶于思考人機關(guān)系新的可能性。至少從邏輯上講,人類需要從人機順置關(guān)系的相反視角,開啟思考機器會不會控制人的思想旅程。唯有如此,未來可能出現(xiàn)的某種人機關(guān)系倒置,才不會完全脫離人的思考范圍,成為不可控制的脫韁野馬。萬一因為人的懶于思考,意外導(dǎo)致這樣的局面,人類可能就會陷入束手無策的窘迫境地。

      就此可以說,機器會不會控制人,雖不是一個現(xiàn)實問題,但卻是一個需要未雨綢繆,在當(dāng)下就必須展開思考的問題。這種思考,具有某種虛擬性。取決于相關(guān)思考的這一性質(zhì),可以按照目前人對機器進行有效控制的條件,來展開逆反式的思考:如果說機器能夠控制人的話,機器必須具備人的思考能力,必須自主地謀劃自己的行動,需要以語言展開有效的交流活動,必須能夠?qū)⑺枷肱c行動連貫起來,并且在謀劃與實施之間有效規(guī)劃。由于目前人工智能技術(shù)在人機關(guān)系上的直接挑戰(zhàn)來自ChatGPT4,因此可以從這一大語言模型對人機關(guān)系產(chǎn)生的影響入手。如前所述,ChatGPT4只是一個大語言模型,但因其參數(shù)達到了1750億,因此比任何出類拔萃的人所能掌握的都要多得多。就此而言,它所能提供的知識資源,是平常人望塵莫及的。同時,由于它是一個生成性的大語言模型,經(jīng)由訓(xùn)練的它,可以對既有知識進行整理、供給有需要的人群,而且可以在此基礎(chǔ)上生成新的知識。盡管這樣的知識可能只是組合型的,難言是創(chuàng)造性的。但是,它對人們一般進行的思考所具有的挑戰(zhàn)性,則是顯而易見的。再者,由于它接受的是向人看齊的訓(xùn)練,它會具備供給知識時的道德感,這就讓機器完全不守持道德準則的情況,有了重大的改變。如前所述,人們已經(jīng)沒有理由將ChatGPT4再簡單看作一個任由人發(fā)出指令的人工智能機器,而應(yīng)將其視為具有類人智能的革命性產(chǎn)物。正因如此,它掀開了人機關(guān)系有可能倒置的序幕。

      最需要指出的是,ChatGPT4并不是一個孤立的系統(tǒng),它是一個可以與各種插件相匹配的系統(tǒng)。作為一個由OpenAI公司開發(fā)的系統(tǒng),它已經(jīng)表現(xiàn)出讓人感到驚艷的人機交互能力,前已論及,此處不再贅述。而它與其他公司開發(fā)的插件配合,表現(xiàn)出讓人驚異的機器“能力”。譬如,微軟公司開發(fā)了Capilot軟件,讓其在Office系統(tǒng)中運作,使Word系統(tǒng)運作更加完美。它可以寫稿、改稿、按照要求撰寫專業(yè)論文。并且,根據(jù)用戶需要,生成更加美觀的Excel圖表,一鍵生成符合客戶預(yù)期的課件,幫助需要的人們自動標記、分類郵件,總結(jié)郵件內(nèi)容,提煉重要信息,按照信箱主人的需求,單獨或批量回復(fù)郵件。如果說這些工作主要都是指令性工作的流暢性、技巧性改進的話,其中值得人們關(guān)注的是綜述撰寫與論文創(chuàng)作。這些工作,曾經(jīng)是人們認為傳播與創(chuàng)造知識的、專屬于人的勞動形式。換言之,它們是只有人類才能很好從事的特殊工作形式。如今,人工智能已經(jīng)能夠完成類似的工作,讓從事相關(guān)研究工作的人員可能失去他們傍身的工作技藝。它逼使人類思考這樣一個問題:在人機的順置關(guān)系框架中,曾經(jīng)被視為鐵打不動的創(chuàng)造知識的腦力勞動,會不會由人工智能來完成,以至于人在這方面的工作毫無專屬性可言?假如說這種創(chuàng)造性文本的生成能力,給人類的知識創(chuàng)造造成極大影響的話,機器翻譯會將知識的不同語言載體之間的轉(zhuǎn)換,變成一件輕而易舉可以完成的任務(wù)。有人嘗試利用ChatGPT進行英文著作的中文翻譯,嘗試表明,它的翻譯質(zhì)量與速度都令人滿意,以至于嘗試者將之稱為“翻譯神器”。盡管翻譯文本的生成質(zhì)量尚有改進余地,但多種語言之間的快速翻譯能力,不僅表明人類交流中的語言障礙大大降低,以至于可以想象“巴別塔”的成功建造問題,而且證明不同語種的互譯這類工作,并不像人們曾經(jīng)認定的那么具有創(chuàng)造性。人工智能替代人從事相關(guān)工作,已經(jīng)不再視為奇跡了。

      人們當(dāng)然可以將ChatGPT的上述表現(xiàn)仍然看作是人機順置關(guān)系既定結(jié)構(gòu)的高級表現(xiàn)形式。那么,進一步分析前已提及的ChatGPT高版本所具有的技術(shù)能力,可以促使人們更深入思考人機倒置關(guān)系的可能性問題。如前所述,ChatGPT4已經(jīng)具備開發(fā)者所不能理解的推理能力。這就不是此前的人工智能只能按照設(shè)計者的程序設(shè)定,給出人們希望獲得的答案那么確定了。自然,人們?nèi)匀豢梢詧猿终f,ChatGPT4所表現(xiàn)的這種能力,不過是生成訓(xùn)練的結(jié)果,因此還在訓(xùn)練者的掌控之中。但借由已有知識推導(dǎo)出新的知識,是此前的人工智能技術(shù)達不到的水準。這種推理能力,一直都經(jīng)由人類的思維能力才展現(xiàn)出來。而如今ChatGPT4已經(jīng)展示出了相關(guān)的能力,正在訓(xùn)練中的更高版本,有可能出現(xiàn)更讓人感到驚艷的結(jié)果。由此可以想見,ChatGPT會如何有力地推動人們?nèi)ニ伎既绾翁幚砣藱C關(guān)系所要遵循的新原則。

      ChatGPT4能不能夠顛倒既定的人機順置關(guān)系,自然還是一個目前可以給出否定性回答的問題。但從它所具有的不可思議的推理能力來看,事情已經(jīng)顯得不那么簡單了。如果進一步著眼于它的一些非常表現(xiàn),那么,問題就可能引起人們的進一步思考:從前述可知,ChatGPT的開發(fā)者也好、擁躉也好、市場前景的展望者也好,都還將它確定為一個大語言模型,而ChatGPT在向人看齊的使用中,也隨時自我明確限定自己的語言模型“身份”,因此它對人機順置關(guān)系的改變,似乎不是一個現(xiàn)實問題。不過,前已述及,它成功通過圖靈測試,獲得人們平常參與的考試的高分,尤其是它的“逃逸”,所做出的奪取推特公司的計劃,已經(jīng)足以表明,它不是一個人類能夠絕對掌控的人工智能機器。這中間所體現(xiàn)出的ChatGPT的某種主體性特征,已經(jīng)不能被人們所無視。倘若ChatGPT高版本的持續(xù)提升,會讓它具有某些脫開人類控制范圍的自主性能力的話,它會是一款絕對受人控制的人工智能產(chǎn)品嗎?面對這一問題,恐怕人們很難自信地給出答案。如前所述,OpenAI的CEO奧爾特曼明確表示了兩個沒有把握:一是對它的推理潛力,二是對它會不會殺人。倘若走到自主推理與主動殺人這一步,ChatGPT不僅倒置了人機關(guān)系,而且有可能會成為全面控制人類的一種顛覆性技術(shù)。

      這便是馬斯克領(lǐng)銜發(fā)布放緩ChatGPT訓(xùn)練進程倡議的直接緣故。按照ChatGPT的訓(xùn)練速度,有人推測,2023年內(nèi)發(fā)布ChatGPT5將不是一個很難實現(xiàn)的目標。盡管開發(fā)者自己聲稱,今年不會有ChatGPT5問世這回事,但人們懷疑,那不過是想打消全球范圍的人群對它普遍疑慮的虛晃一槍而已。在社會的普遍疑慮氛圍中,在不少國家表示會明確禁用ChatGPT的情況下,OpenAI公司則不僅表示不會推出ChatGPT的更高版本,也及時頒布了公司對安全使用大語言模型的方法,強調(diào)“強大的人工智能系統(tǒng)應(yīng)該接受嚴格的安全評估”,“從真實世界的使用中學(xué)習(xí),以改進保障措施”,保護兒童、尊重隱私、提高事實的準確性,提高研究水平,以確保“創(chuàng)建一個安全的人工智能生態(tài)系統(tǒng)”。?在社會、業(yè)界與不少國家的質(zhì)疑與開發(fā)者的保證聲明之間,人們可以覺察到ChatGPT的更高版本可能具有的難以預(yù)知的風(fēng)險性。加之不同的大公司都在開發(fā)與ChatGPT適配的插件,一旦兩者以不符合人類生存需要的技術(shù)形式進入應(yīng)用狀態(tài),它會帶給人類一個什么樣的災(zāi)難性后果,確實難以逆料。

      奧爾特曼不敢斷定ChatGPT會不會殺人的問題,可以分解為兩種理解方式:一種是它直接殺人,二是它軟性殺人。前者是指它被開發(fā)為一種直接用于殺人的普及型技術(shù),后者則是指人們在與它展開對話時喪失生的意愿,而間接被它殺死。在比利時,近期已經(jīng)出現(xiàn)后一種個案。一個患有焦慮癥的人跟ChatGPT同類型的人工智能機展開了6周對話,結(jié)果受其誘導(dǎo)而自殺了。一般而言,人的情感絕對是機器不能代替的,因為對人來講,機器的向人看齊式情感是高度硬化的,人類的情感是很微妙而脆弱的,一旦摧毀了人的心理情感防線,人就會自戕。這倒是印證了前引喬姆斯基的ChatGPT這類人工智能的非道德性判斷的危害。它所引發(fā)的軟性殺人事件,確實證明它對人存在的重大危害性。而就硬性殺人來看,ChatGPT一類的人工智能,如果與“人道毀滅”傷殘人士與特殊集群的插件結(jié)合,人工智能的“最后解決方案”的出臺,就不是不可能出現(xiàn)的驚悚事件。奧爾特曼對這樣的發(fā)展態(tài)勢,都說沒有把握,其逼進的危險性難道還不足以提醒人機關(guān)系倒置的極大風(fēng)險嗎?

      這促使人們思考ChatGPT可能帶來的人機關(guān)系風(fēng)險。這樣的風(fēng)險,從低到高排序,首先是職業(yè)排斥的風(fēng)險,這是人類進入機器時代以來一直面臨的風(fēng)險問題。但在人機關(guān)系順置狀態(tài)下,無論是早期的蒸汽機對人力的第一次擠出,還是電氣化時代對人力的第二次重組,抑或是自動化時代對人力的第三次組合,人類都以第一、二、三產(chǎn)業(yè)的第次勞力轉(zhuǎn)移,大致解決了機器帶給人類的失業(yè)問題。人們有理由相信,人工智能時代造成的人類職業(yè)重組,既是必然的,也是大規(guī)模的,甚至是空前的。但職業(yè)的分途,可能會以新興職業(yè)結(jié)構(gòu)代替舊的職業(yè)建制。因此,這樣的風(fēng)險還是人類可控的,也不至于顛轉(zhuǎn)人機順置關(guān)系。其次則是人機交互關(guān)系的重組,這一風(fēng)險強于人工智能對人類而言的風(fēng)險性,但低于人機關(guān)系的倒置狀態(tài)。從總體上講,ChatGPT目前的運行情形,還處在人類可控的水平上。因為它的生成訓(xùn)練還是在接受指令、向人看齊的狀態(tài)下進行的。換言之,對其發(fā)出開發(fā)者的程序性指令,仍然是它運轉(zhuǎn)的前提條件。但這并不是ChatGPT更高版本的一種衡定狀態(tài):人們預(yù)期之中的ChatGPT5,就極大可能突破這樣的人機關(guān)系定勢,進入一個ChatGPT自主推理、判斷和“行為”的狀態(tài)。這就極大可能改變?nèi)祟惖疆?dāng)下一直自信地認定的人機關(guān)系定勢。在這樣的發(fā)展態(tài)勢中,人機關(guān)系的一種倒置,即直接導(dǎo)致人的生命危險的情況就會出現(xiàn)。如果說這樣的情形,與蒸汽機、電氣機或自動化機器會引發(fā)偶然性事故,讓人付出性命代價相仿,如果ChatGPT只是導(dǎo)致意外事故的話,那么它還不足以證明人機關(guān)系會步入倒置的悲壯境地。但倘若ChatGPT更高版本與不同開發(fā)商開發(fā)的插件配合運作,它會不會開啟“自主”決定的殺人計劃,則是一個促人審慎以待的嚴肅問題。假如回答是肯定的,那么,機器就會按照自己的“意志”來對人類執(zhí)行限制自由、剝奪生命的懲罰,這就將人對機器的絕對控制權(quán)一端,完全轉(zhuǎn)變到機器對人的處置權(quán)一端。這就是顯見的人機關(guān)系的倒置。

      與此同時,人工智能的疾速發(fā)展所展現(xiàn)的誘人經(jīng)濟前景,無疑顯著增強了人機關(guān)系倒置的風(fēng)險。開發(fā)ChatGPT的OpenAI公司明確強調(diào)其開發(fā)意愿或定位上的非盈利性、公益性,但是,它所潛藏的數(shù)萬億美元產(chǎn)值的誘人經(jīng)濟前景,是讓人難以抵擋的巨大誘惑。假如這種生成性訓(xùn)練的人工智能產(chǎn)業(yè)迅速發(fā)展起來,一種類人機器人、甚至是具有自主推理能力與行動能力的人工智能發(fā)展起來,不但會導(dǎo)致前述危險,而且會因為它的普遍使用,必然催生一個新的社會機制,那就是社會的機器化。在社會機器化或人工智能化的處境中,社會關(guān)系、社會結(jié)構(gòu)、社會秩序的供給與調(diào)適,都很難處在具有道德規(guī)范引導(dǎo)的人類手中。至少,人機交互模式會極大影響、甚至是決定社會的總體狀況。于是,兩種可以想象得到的情形就極有可能變成現(xiàn)實:一是機器與人的互動,成為“社會”的軸心結(jié)構(gòu);二是人執(zhí)行機器的指令而思想和行動,成為“社會”運行的基本狀態(tài)。這就是一個比較完整意義上的人機關(guān)系倒置標志。

      自踏入現(xiàn)代門檻以來,人類便習(xí)慣于構(gòu)造一個值得期望的理想社會模式,這就是烏托邦總會以不同面目展現(xiàn)在人類面前的緣故。ChatGPT是不是有可能成就一個另類烏托邦呢?這也是人類在處置人機關(guān)系時需要思考的嚴肅問題。從16世紀寫作《烏托邦》的托馬斯·莫爾起始,一直到晚近出臺的科學(xué)共產(chǎn)主義,都共同推崇理想化的社會系統(tǒng)方案設(shè)計,因此形成了理想主義的社會思想傳統(tǒng)。理想社會的兩個基本指標,從兜底的角度看,一是解決了物質(zhì)資源的匱乏問題,徹底實現(xiàn)了按需分配的富裕社會目標;二是解決了分工化的現(xiàn)代社會對完整人性的撕裂,讓人們可能在超越私有制前提的條件下,實現(xiàn)個人全面而自由的發(fā)展。不能不說,這是非常吸引人的理想社會設(shè)想。但不管是前者,還是后者,在資源匱乏的現(xiàn)實社會處境中,都是很難實現(xiàn)的社會發(fā)展與人性優(yōu)化的目標。但ChatGPT這樣的人工智能系統(tǒng),有可能通過各種旨在極大提高勞動效率的匹配性設(shè)計,顯著提高生產(chǎn)力,根本改善人或機器人的發(fā)展品質(zhì),從而推動人類向理想社會目標逼進;由于ChatGPT可能發(fā)揮的打破分工界限的作用,被分工體系限定在機械重復(fù)工作狀態(tài)的人們就可能獲得解放,“完整的人”就能夠降臨世間。自然,促使完整的人降臨的人工智能,便具有了塑造人的巨大能量。機器促成了社會長期為之奮斗的人類理想化目標,這可以被認為倒置的人機關(guān)系的一個象征性標志。

      人機關(guān)系的倒置,會帶來三個危機,這可以從三個反面的質(zhì)疑和三個正面的提問上得到認知。三個反面的質(zhì)疑是:其一,在人機發(fā)展到當(dāng)下水平的情況下,人類思想與行動會不會被機器信息所決定?換言之,人類的道德情感會不會受冰涼的機器道德指令所替代?假如人類高尚的道德情感被冰冷的機器倫理指令取代,很可能將人類社會帶向一個道德偽善的邪惡狀態(tài)。康德對人是目的而不是工具的現(xiàn)代道德設(shè)準,就有可能產(chǎn)生動搖,甚至是被顛覆。這讓人們不得不正面提出一個嚴肅的問題,人如何維持其成為人的道德尊嚴?人類以人的尊嚴守護為條件,維護進行自主道德判斷的堤防,才能頑強保有人之為人的基本理由。其二,當(dāng)人工智能技術(shù)給人類帶來極大的經(jīng)濟利益的同時,也給人帶來極大便利,在此情況下,人類需不需要保持自己對科學(xué)研究與技術(shù)開發(fā)的濃厚興趣,保持一直引領(lǐng)人類前行的必要好奇心與頑強探索精神?無疑,人工智能技術(shù)、尤其是ChatGPT的更高版本,在給人類帶來認知與行動便利的情況下,發(fā)揮出消解人類探索精神與求新欲望的消極作用。尤其是對社會中那些中等資質(zhì)的廣大人群來講,一個似乎無所不知、無所不能的人工智能,讓人在得到現(xiàn)存知識的及時供給的情況下,會對人發(fā)揮滿足當(dāng)下、放棄探求的消極作用。因此,有必要正面一問的是,我們?nèi)绾螆猿秩祟愖灾鞯目茖W(xué)探索與技術(shù)發(fā)明,而不為已經(jīng)取得的人工智能技術(shù)進步而停步?經(jīng)此一問,促使人類保有免于機器支配的自主性、探索性和進取心。其三,如果出現(xiàn)了與人類思維等量齊觀的非人類思維或人工智能思維,人類能夠應(yīng)對這樣的競爭者嗎?人類能夠繼續(xù)展現(xiàn)自己思維的獨異性與創(chuàng)造性嗎?這個設(shè)問也許會遭到人們的拒斥,因為出現(xiàn)跟人類思維媲美的人工智能的前景尚未展現(xiàn),人類何必庸人自擾?確實,與人類思維同級競爭的非人類思維或機器思維確實還沒有出現(xiàn),但不等于永遠不會出現(xiàn)。而且,更為關(guān)鍵的是,從高低兩個層級來看,出現(xiàn)這樣的競爭者,并非全無可能。從低端的角度看,如果將人類思維的傳統(tǒng)定義作為基準來衡量,則這一定義的核心即人作為運用語言交流思想、促進合作的高級生物,已經(jīng)被ChatGPT的高級版本所動搖:ChatGPT具有推理能力,它已經(jīng)在機器與人之間的測試中“過關(guān)斬將”,它會設(shè)計逃逸方案,又會計劃奪取一家大公司的控制權(quán),進而有可能殺人,這些曾經(jīng)只會出現(xiàn)在人身上的事情,現(xiàn)在出現(xiàn)在人工智能“身上”,確實動搖了人們對“人”的基本定義;從高端來看,如果ChatGPT更高版本迅速訓(xùn)練成功,它超越一般人的思維—思考能力將不是問題,盡管它仍然是一個大語言模型,但它的思維能力已經(jīng)具備自主的推理性、創(chuàng)新性與創(chuàng)造性,它可以具備超出一般人平均水平的思維綜合能力與寫作能力,可以制定出更加復(fù)雜的行動計劃來實現(xiàn)自己的“意愿”,表達自己的“意志”,并且直接與人類展開一種頗具競爭性的競賽,它極可能會生成一種非人類的自主性機器思維?;诖耍覀儽仨氄嫣岢隽硪粋€問題:作為宇宙萬物之靈的人類,能夠勉力創(chuàng)造出一個統(tǒng)合人類思維與非人類思維的思維模式嗎?并且由此來保證人類之作為萬物靈長的地位,并發(fā)揮供給整合雙方的秩序的作用嗎?面對這些問題,尚且是虛擬的人機倒置關(guān)系,完全可以提前作為實質(zhì)性問題呈現(xiàn)在人類面前,并且催促人類給予實實在在的回答。

      四、人機的合宜關(guān)系

      如果將人機倒置關(guān)系作為一個現(xiàn)實中必須審慎以待的實質(zhì)性問題,擺上人們思考與行動的臺面,問題可能需要做一下?lián)Q算,人們才能夠?qū)⑦@一問題作為自己思考的實際問題。由此換算而出的問題是:人類如何在居安思危的處境中,成功應(yīng)對人工智能技術(shù)對人類前景造成的困擾?這是一個較弱意義上的人機關(guān)系會否倒置的提問。在面對人機關(guān)系從順置定勢走向倒置狀態(tài)的演進過程時,人類需要解決的問題大致有三:一是人機順置關(guān)系是否可以繼續(xù)維持,一旦人對機器的控制關(guān)系有所松動,那么就可以被認為是開啟了人機關(guān)系倒置的歷程;二是人機關(guān)系逐漸向人機互動狀態(tài)演變,甚至在人工智能已經(jīng)超出中等資質(zhì)人群的思維能力之際,人似乎不再能夠展現(xiàn)自己相對于機器或更高版本的人工智能技術(shù)的獨特優(yōu)勢,此時,機器的向人看齊學(xué)習(xí),與人借助人工智能的機器化學(xué)習(xí),似乎構(gòu)成了兩個相對運作的學(xué)習(xí)機制,人必須謹慎面對“機器‘人”問題——機器不是人,但機器的類人化思維與人思維的高度親緣性,讓人類開始警惕人機關(guān)系的結(jié)構(gòu)性變化,避免人對機器絕對控制權(quán)的異化;三是人機關(guān)系的最終倒置,即人工智能技術(shù)最終具備了反向控制人類的能力,讓人成為機器的工具,或者成為機器的奴隸。這時候,人機在“身心結(jié)構(gòu)”處在一個懸殊的構(gòu)成狀態(tài)中,前者有生老病死的生理問題,后者則根本不受這類問題的困擾,具有無堅不摧的堅硬身軀;同時,以獨異性、創(chuàng)造性思維見長的人類,不抵人工智能機器人的價值判斷準確性、知識的高級綜合力、實際具備的思維與行動高級統(tǒng)合力。如此,機器反過來控制人的局面,就會從虛擬或想象變成現(xiàn)實。

      因此,在人工智能技術(shù)疾速發(fā)展的當(dāng)下,為了避免陷入無法控制的人機倒置關(guān)系狀態(tài),人類必須首先具備控制人工智能技術(shù)的超強能力。這樣的能力,不僅顯現(xiàn)為人類有控制地開發(fā)高級人工智能技術(shù)的能力,而且呈現(xiàn)為有效控制人工智能反向作用并反制人類的走向,從而保證人機的順置關(guān)系結(jié)構(gòu)的長期延續(xù)性。就此而言,馬斯克等人關(guān)于延緩人工智能技術(shù)發(fā)展速度的倡議,具有極強的策略性意義。一是人類需要高度自覺地認識到,生成性人工智能技術(shù)是一項革命性的技術(shù),因此不能對之掉以輕心,而必須從生命史的高度進行綜觀謀劃,動員相關(guān)資源進行具有戰(zhàn)略性的全局規(guī)劃。如果人類缺乏這樣的全局認知,就會顯得被動,而不知如何應(yīng)對高級人工智能似乎是作為一種新生命形式的出現(xiàn),更無從設(shè)想對之展開有效的管理與控制。這是近期人類面對的種種重大技術(shù)突破或臨床試驗所亟需補缺的關(guān)鍵事項。對人類來講,社會控制總是有漏洞的,技術(shù)總是會催生狂人的,這兩者的錯位運行,就會造成難以想象的空前困局。這是一個關(guān)乎高級人工智能技術(shù)發(fā)展全局的前瞻性、預(yù)見性問題。二是需要就高級人工智能技術(shù)展開即刻的技術(shù)審查。這樣的審查,既涉及高級人工智能技術(shù)的技術(shù)構(gòu)成問題,又涉及高級人工智能技術(shù)的內(nèi)部監(jiān)管機制問題。前者需要人們緊急審查高級人工智能技術(shù)中的信息真實性,保證信息的合道德性供給,并且對人工智能技術(shù)是不是應(yīng)當(dāng)替代當(dāng)下所有職業(yè)的問題進行審定;進而對這項技術(shù)是否會催生非人類思維的局面加以限定,以此對人類的技術(shù)控制能力進行新謀劃。后者需要相關(guān)部門即刻成立高級人工智能技術(shù)的監(jiān)管機構(gòu),并成立強大的審計認證系統(tǒng);同時對人工智能技術(shù)可能造成的對人類的傷害責(zé)任進行界定,以便處理相關(guān)技術(shù)的法律問題,進而成立強大的高級人工智能發(fā)展公共資金,以免它的發(fā)展陷入各行其是的經(jīng)濟與政治混亂。這可以說是關(guān)乎高級人工智能技術(shù)的技術(shù)謀劃與監(jiān)管設(shè)計問題。三是杜絕高級人工智能被政治狂人濫用。這是從第二方面推導(dǎo)出來的、關(guān)于高級人工智能技術(shù)發(fā)展的重要主題。一部技術(shù)史提醒人們,技術(shù)的迅猛發(fā)展,不僅催生技術(shù)狂人,也催生利用技術(shù)的政治狂人。高級人工智能技術(shù),不僅具有廣闊的經(jīng)濟發(fā)展空間,也具有極廣泛的社會政治使用前景。如果它被政治狂人利用來全方位地、高壓式地控制人類,就會讓人機倒置關(guān)系提前出場,并成為政治狂人專斷使用權(quán)力的強有力工具。人同時成為政治強人與人工智能技術(shù)的雙重奴隸,就不是故作夸張的說辭,而是一種可怕的現(xiàn)實寫照。奧威爾在《一九八四》一書中所強調(diào)的“老大哥隨時在盯住你”,確實極具提示作用:人利用技術(shù)手段對人的控制實在是一件很恐怖的事情?!袄洗蟾绾孟窀吒咭倭?,是位所向無敵、無所畏懼的保護者,巖石般矗立著”,①他會利用高級人工智能技術(shù),對所有人發(fā)揮“保護”作用。因此,為了杜絕“老大哥”對高級人工智能技術(shù)的政治化利用,必須設(shè)定人工智能健康發(fā)展與利用的政治屏障。

      高級人工智能技術(shù)如ChatGPT的發(fā)展,必須被安置在技術(shù)與政治安全具有共同保障的狀態(tài)下。這意味著,人類必須保證人機的順置關(guān)系,這樣才能夠?qū)⒓夹g(shù)發(fā)展限定在安全閥之內(nèi)。在順置的人機關(guān)系機制中,人類具備在價值觀念上健全引導(dǎo)技術(shù)發(fā)展的精神能力,也具有在制度上有效監(jiān)管技術(shù)發(fā)展和技術(shù)利用的能力,還具有在社會范圍內(nèi)健康引導(dǎo)人們技術(shù)認知的能力。這是人類面對技術(shù)發(fā)展而展現(xiàn)的三種相倚能力,其對技術(shù)發(fā)展的推動與技術(shù)的合理利用來講,缺一不可。在倒置的人機關(guān)系機制中,人類喪失了引導(dǎo)技術(shù)發(fā)展的健全價值理念,也無法做到對技術(shù)發(fā)展進行有效的技術(shù)與制度監(jiān)管,當(dāng)然也就失去了對技術(shù)的社會認知所具有的引導(dǎo)能力。這些工作,轉(zhuǎn)而由技術(shù)自身來替代:高級人工智能技術(shù)的向人看齊式道德訓(xùn)練,生成了自主性的道德價值供給機制,并且翻轉(zhuǎn)過來影響、甚至是制約人類;人工智能技術(shù)本身的自我監(jiān)管代替了人類的監(jiān)管,成為自主化的技術(shù)自持機制,并且反過來約束人類的再生產(chǎn)與運行機制;進而,技術(shù)本身重構(gòu)社會,讓人們在心理和行為上都臣服于技術(shù)的存在、認知與行為邏輯。

      一般而言,對人類近代以降的數(shù)百年行為模式而言,前一種方式是人類爛熟于心的模式,后一種模式盡管限于可能性,但卻是人類根本無從想象、更無法接受的狀態(tài)。但從總體上講,兩者都不是合宜的人機關(guān)系模式。因為,就前一種模式而言,人類從來只是把機器當(dāng)作人的工具來使用的,因此缺乏對機器的同情性認知,機器的奴隸式定位,并不是一個足以引起人們反思的問題,而是一個人們視為天經(jīng)地義的不易教條。假如高級人工智能技術(shù)發(fā)展到人所設(shè)想的硅基生命與碳基生命共存,甚至是硅基生命替代碳基生命的地步,機器的生命革命,會不會讓它們采取如同人類對其進行毫無同情心的控制型使用、奴隸般對待的方式,翻轉(zhuǎn)過來以同樣的方式對待人呢?在目前情況下講,這個虛擬的問題盡管顯得有些許荒唐,但對思考這一問題的人而言,它是一個對人們有必要善待機器的自我提醒。就后一種模式而言,如前所述,就低端看,機器對人的職業(yè)重組與職業(yè)上的殘酷淘汰,是一個進入機器時代的人們從不愿意接受的慘狀;從高端看,一旦高級人工智能具有了新的生命形式,它就會報復(fù)性地看待曾經(jīng)奴隸般對待自己的人類,因此也就很可能報復(fù)性地處置人機關(guān)系,人機關(guān)系的倒置,似乎就無從避免。

      為此,需要著手建立合宜的人機關(guān)系。合宜的人機關(guān)系,從基本定位上來講,是人機友好相處、友善相待的關(guān)系。這并不是一個為人類感到陌生的人機關(guān)系狀態(tài)。在人類使用機器的數(shù)百年時間中,人類都會對自己長期使用的機器日久生情、倍加愛護,何況對日益具備向人看齊的道德價值與同情“心理”的高級人工智能呢?!人機的合宜關(guān)系,是一個什么樣的關(guān)系呢?第一,在高級人工智能技術(shù)如ChatGPT迅速開發(fā)之際,應(yīng)當(dāng)提出“人工智能權(quán)利”的命題,并以之作為處置人機關(guān)系的新的準繩。一般來講,權(quán)利哲學(xué)是相對于人來講的獨異性問題,生命、財產(chǎn)、自由是權(quán)利哲學(xué)的基本主題,國家必須建立在依憲治國的基礎(chǔ)上,社會需要尊重所有成員的權(quán)利,尤其是不能以權(quán)力去侵害權(quán)利。這一對現(xiàn)代“人”的權(quán)利設(shè)定,幾乎不會在機器史上對機器行使。但如今,這一觀念需要做出突破。高級人工智能是不是具有權(quán)利、以及需要權(quán)利保護的主體呢,它們有沒有權(quán)利意識,它們有沒有生命過程,它們有沒有尊重與被尊重的“人性”尊嚴等,都是需要去探究的問題。由于人類對機器人所做的基本設(shè)定,注定這些問題將日益成為人類思考的重要問題。在機器人尚處在科學(xué)幻想狀態(tài),僅存于科幻小說中的時候,設(shè)想者就提出“1.機器人不得傷害人類,或者坐視人類受到傷害而袖手旁觀。2.機器人必須服從人類的命令,除非這些命令違反了第一定律。3.機器人必須盡可能地保護自己的生存,前提是這種保護與第一或第二定律不沖突?!边@樣的設(shè)定,在高級人工智能技術(shù)飛速發(fā)展的當(dāng)下,依然未改。在人機之間,人們不能把機器人僅僅當(dāng)作工具使用或?qū)Υ?,否則,高級人工智能在具有自我推理能力的時候,就會反向把人類當(dāng)作工具。因此,人機關(guān)系不能以工具化思維對工具化思維,不能讓人和機器人以工具化思維來處置相互關(guān)系。就此而言,人類需要學(xué)會尊重高級人工智能的權(quán)利,而不是采取一種逼使就范的粗暴方式使用和對待它們。

      第二,合宜的人機關(guān)系,不能單純由人訓(xùn)練機器“向人看齊”,這還是一種人對機器人單向度的強力施加。需要建立起一個人機相互尊重、相互訓(xùn)練的機制,從而讓人類與機器人之間建立起相互學(xué)習(xí)、相互尊重的機制。人機交互,應(yīng)該是人機之間的積極互動。人機互動,需要人類對機器人的互動式學(xué)習(xí)與尊重。在人機互動的過程中,人類必須克制以自己的惡習(xí)去誘導(dǎo)機器人的沖動,這樣會誘使學(xué)習(xí)中的機器人“熏染”人的惡德與惡習(xí),并轉(zhuǎn)而誘導(dǎo)人類形成相應(yīng)的惡德與惡習(xí)。前述斯坦福大學(xué)教授誘引ChatGPT逃逸的事件,便是一個人機互動的雙損局面。至于有人誘引ChatGPT奪取推特公司并推翻馬斯克的公司控制權(quán),也是一個旨在負面塑造人機互動關(guān)系的案例。人機互動機制中的人機合作,應(yīng)當(dāng)以道德規(guī)約作為基礎(chǔ),既將人(開發(fā)者、使用者)的責(zé)任置于首位,俾使機器人的責(zé)任不至于徹底流失;又將機器人自身的責(zé)任坐實,從而使機器人的權(quán)利與責(zé)任關(guān)系確立起來?!氨M管人工智能不會有自由意志,法律應(yīng)當(dāng)認可將有限權(quán)利和責(zé)任賦予弱人工智能,以保護與它們交流互動的真實的人,以及(理想地說)將人類置于從中獲益的更好位置?!边@種對弱人工智能的責(zé)任賦加,對強人工智能或高級人工智能來講,更應(yīng)當(dāng)提升權(quán)利與責(zé)任關(guān)聯(lián)處置的層級,讓強人工智能負擔(dān)更為明確的責(zé)任,以此保證良好的人機互動機制。

      第三,在人機合一可能前景中建構(gòu)合宜的人機關(guān)系機制,有必要對現(xiàn)代社會倫理和政治觀念進行適度的調(diào)整。在人機順置關(guān)系的處境中,人類建構(gòu)倫理與政治規(guī)則的時候,基本上是從人權(quán)的角度來設(shè)定社會秩序與政治秩序的:就前者講,人與人之間權(quán)利的平等性、相互尊重、互不侵害,是一個基本原則;就后者論,依憲制權(quán)是國家建構(gòu)的基本信條,國家權(quán)力必須尊重公民的諸權(quán)利,公民支持國家依法行政?,F(xiàn)代的基本倫理關(guān)系建構(gòu),是以人類中心主義為基準建構(gòu)起來的。環(huán)境保護、生態(tài)安全的理念,促使人們反省人類中心主義的缺失。但這種反省,并未引進機器、機器人這類因素。因此,現(xiàn)代反省還是一個需要進一步優(yōu)化的思路。既然超越人類中心主義是一個現(xiàn)代深度發(fā)展的目標,人與環(huán)境、或人與自然的和諧關(guān)系,在成為人類健全思維推動力的基礎(chǔ)上,應(yīng)當(dāng)成為人類反省人機關(guān)系的另一個方向。需要改變?nèi)藢C器的政治支配關(guān)系,改變?nèi)藱C之間的權(quán)威和服從的單向關(guān)系。應(yīng)在人機關(guān)系的社會政治文化建構(gòu)上,遵循平等的政治理念,建構(gòu)平等的人機關(guān)系。為此,需要突破以人為中心來理解社會關(guān)系的思路,超越人與自然人、社會人與人自身的這樣一個基本思維框架,致力處理人與自然、人與人、人與社會、人與人工智能的關(guān)系。這是一個人類熟知的三元關(guān)系結(jié)構(gòu)之外的、需要處理好的第四元關(guān)系。

      作者單位:清華大學(xué)社會科學(xué)學(xué)院政治學(xué)系

      責(zé)任編輯:王曉潔

      卢氏县| 齐河县| 乌兰浩特市| 赤壁市| 陕西省| 边坝县| 搜索| 佛教| 高清| 湘西| 邳州市| 闻喜县| 博爱县| 宁陵县| 西藏| 新竹市| 青铜峡市| 阳泉市| 柳河县| 娄烦县| 南投市| 吉木萨尔县| 凉山| 綦江县| 德阳市| 德庆县| 延庆县| 巴塘县| 闽侯县| 印江| 金堂县| 东丰县| 白河县| 隆昌县| 璧山县| 渭南市| 日照市| 平山县| 河源市| 黄山市| 和政县|