2023 年4 月30 日的《揚棄雜志》網(wǎng)站上,刊載了雅各布·約翰森的文章,題為《ChatGPT 是人還是非人:兩種人工智能觀都不對》。
自問世以來,ChatGPT便成為人們討論的熱點。近日,齊澤克等人在《揚棄雜志》上發(fā)文指出,我們可將ChatGPT 視為某種義肢或人之無意識的外化,或者干脆就是對無意識機制的復制;它代表著某種沒有責任感的無意識,因此構(gòu)成了對社會紐帶的威脅。進而言之,以ChatGPT 為代表的聊天機器人構(gòu)成了某種新型數(shù)字無意識,它使得一般會被壓抑的東西顯形,因為在線體驗沒有類似意識的監(jiān)管閥門。另有人指出,如今在人工智能和其他技術(shù)進展后面有一種幻想,即它們可以使得我們自由聯(lián)想式地表達內(nèi)心最深處的欲望,并因此將我們的無意識欲望或恐懼直接外化。
但約翰森認為,此類說法值得商榷:無論線上線下,象征性去勢依舊存在;主體無意識的運作依舊,盡管可能受到數(shù)字平臺或人工智能的塑造,但它并未消失或發(fā)生巨變。從個體那里提取無意識過程并不容易,我們也只能借助所謂象征性扭曲才能觀察到該過程。而象征性扭曲雖然可能會在平臺資本主義時代找到新的表達方式,但它仍是無意識機制的特定表達,因此總是會存在處于無意識狀態(tài)的無意識過程,且其不會受到任何電子技術(shù)的觸碰。
約翰森指出,與其討論Chat-GPT 是人還是非人,不如思考人類開發(fā)者及其(無意識)欲望和恐懼是如何被編程進聊天機器人的。就此而言,我們可以看到,ChatGPT 在本質(zhì)上并不展示或體現(xiàn)任何人類特性,但在表面看來它卻展示或體現(xiàn)出了人類特性。換言之,它總是在其人類特性與非人類特性之間滑動,這更像是開發(fā)者的有意安排,并由此構(gòu)成某種防御機制——當有人認為人工智能太像人類時,你就可以強調(diào)它的非人類特性。從精神分析的角度,我們可以說,此類滑動所體現(xiàn)的,正是自我的分裂。由此,聊天機器人就一方面弱化其智能的一面并為錯誤或不完美留出空間,另一方面也為其人工的一面留有余地。但此種境況較之超級智能的人工智能可能更加危險,因為要在某些場景中辨識你的對話對象是人還是機器,將會更加困難。
有人認為,當下的社交媒體呈現(xiàn)出主體對大他者的欲望:主體無意識地欲求某種具有權(quán)威和禁止力的角色,其凝視可被越界或打動,以對抗大他者的權(quán)威。就此而言,ChatGPT是此類欲求的又一明證。但ChatGPT 的大他者幻想又經(jīng)常被粉碎,因為它會犯錯誤、會大方地承認自己對某個問題缺乏知識準備;而主體也知道它無法履行療治或具有權(quán)威功能,因為它自身就是匱乏的。所以說到底,ChatGPT實際上揭示了欲望的不可能——這可能倒是個好消息。