• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      科學(xué)文化視域下的人工智能恐懼問題

      2024-09-04 00:00:00劉永謀白英慧
      理論探索 2024年4期

      〔摘要〕人工智能(AI)的類人化創(chuàng)新與媒體的擬人宣傳使AI文化的擬人化特征凸顯。AI文化的擬人化特征具體表現(xiàn)為人類在認(rèn)知上對AI的擬人化,在情感上對AI的依賴性,以及在信仰上對AI的崇拜感。AI擬人化在三個(gè)層面催生了AI恐懼:人類在認(rèn)知上對AI的擬人化引發(fā)了“AI類人”恐惑,人類在情感上對AI的依賴性引發(fā)了“AI非人”恐慌,人類在信仰上對AI的崇拜感引發(fā)了“AI超人”恐懼。建設(shè)健康的AI文化以應(yīng)對AI恐懼,應(yīng)辯證看待AI恐懼,堅(jiān)持務(wù)實(shí)的AI有限設(shè)計(jì),致力于人類AI素質(zhì)的整體提升,加強(qiáng)AI的科學(xué)傳播。

      〔關(guān)鍵詞〕AI文化,AI恐懼,擬人化,人工智能

      〔中圖分類號〕N05 〔文獻(xiàn)標(biāo)識碼〕A 〔文章編號〕1004-4175(2024)04-0028-09

      近年來,人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣睿罅康腁I被應(yīng)用在教育、醫(yī)療、養(yǎng)老、交通、制造業(yè)、物流等領(lǐng)域。日本名古屋大學(xué)的科學(xué)家基于進(jìn)化博弈論,利用大型語言模型提出了與合作行為相關(guān)的人格特質(zhì)進(jìn)化模型。通過實(shí)驗(yàn)和分析,他們明確該模型可以展示基于人格特質(zhì)的多樣性和高階表征的合作行為進(jìn)化。在該模型中,他們還通過人格特質(zhì)的表達(dá)變化觀察到合作和自私人格特質(zhì)的反復(fù)入侵〔1〕。當(dāng)AI具有這些不同的人格特征,便可在執(zhí)行人類任務(wù)時(shí)靈活切換,適用于不同的社會場景。但同時(shí),擁有自私人格特質(zhì)的AI難免會引發(fā)人類恐懼。無論在現(xiàn)實(shí)層面抑或是形而上層面,均引發(fā)了人類對AI不同程度的恐懼,如人類失業(yè)恐惑、AI濫用恐慌、人類生存性恐懼等?,F(xiàn)有AI恐懼研究多與技術(shù)恐懼研究一脈相承,較為缺乏對AI恐懼背后相關(guān)文化背景、公眾心理的研究視角。以科學(xué)文化為切入點(diǎn),對AI恐懼進(jìn)行深刻剖析,并努力構(gòu)建健康的AI文化,有助于辯證、審慎、科學(xué)對待并緩解AI恐懼。

      一、AI文化的擬人化特征

      科學(xué)革命以來,科學(xué)文化通過理性為自然“祛魅”,在很大程度上消解了原始社會及中世紀(jì)時(shí)期宗教文化對自然的“附魅”。但是,隨著智能革命的不斷推進(jìn),作為科學(xué)文化典型代表的AI文化逐漸呈現(xiàn)出“返魅”趨勢。與科學(xué)文化相同,AI文化包含不同層面,如AI物質(zhì)文化、AI制度文化、AI心理文化等。其中,AI文化所呈現(xiàn)出的“返魅”趨勢即其在心理層面的擬人化特征凸顯。擬人化(anthropomorphism)源于希臘單詞“anthropos(人)”和“morphe(形態(tài))”,其核心是將類人屬性、特征或精神狀態(tài)賦予真實(shí)的或想象中的非人行動者或?qū)ο蟆?〕。

      擬人化自古有之,尤其體現(xiàn)在宗教神學(xué)領(lǐng)域。擬人化最早由希臘哲學(xué)家色諾芬尼(Xenophanes)提出,用以描述宗教中信徒與神靈之間驚人的相似性;此后,大衛(wèi)·休謨(David Hume)認(rèn)為,出于對神秘力量的崇拜以及自身命運(yùn)的擔(dān)憂,人類將自身特質(zhì)賦予神秘力量,以面對未知的恐懼〔3〕。在AI領(lǐng)域,從1997年國際象棋機(jī)器人深藍(lán)(Deep Blue)擊敗俄羅斯國際象棋大師,到2016年圍棋人工智能阿爾法狗(AlphaGo)大敗圍棋世界冠軍李世石,再到OpenAI公司針對ChatGPT發(fā)展方向而發(fā)生的“宮斗”,在每一波AI熱潮中,類似于“AI是否有意識”“AI是否是主體”“AI是否有道德感”“AI會不會覺醒”等問題帶有明顯的AI擬人化色彩,越來越被深入討論。

      擬人化之所以能夠在AI社會文化中廣泛存在,很大程度上源于媒體的擬人宣傳術(shù),尤其是宣傳中存在的“專家缺席”“信息片面”以及“資本炒作”現(xiàn)象。具體來說,首先,當(dāng)媒體宣傳存在“專家缺席”現(xiàn)象時(shí),便無法保證AI信息的科學(xué)性。隨著媒體門檻的不斷降低,一些科學(xué)認(rèn)知水平不高的商業(yè)機(jī)構(gòu)、自媒體與博主等以“標(biāo)題黨”的方式博取流量,過度夸大與神化AI的某些擬人化特征,將關(guān)注率轉(zhuǎn)化為利潤,傳播AI相關(guān)的偽科學(xué)信息。其次,當(dāng)媒體宣傳存在“信息片面”現(xiàn)象時(shí),便無法保證AI信息的全面性。為擴(kuò)大傳播廣度、增強(qiáng)傳播熱度,一些媒體會有選擇地對AI的擬人化特征進(jìn)行重點(diǎn)宣傳。此種情況下,當(dāng)公眾處于“信息繭房”并缺乏批判性時(shí),便會深受AI擬人化影響,逐漸忽視AI與人類之間的各類差異甚或巨大鴻溝。最后,當(dāng)媒體宣傳存在“資本炒作”現(xiàn)象時(shí),便無法保證AI信息的真實(shí)性。為吸引大量資金流向AI產(chǎn)業(yè),資本往往拋出超級AI的噱頭,以引發(fā)公眾對AI的關(guān)注??萍脊P(guān)通過抓熱點(diǎn)、癢點(diǎn)與痛點(diǎn),利用媒體操縱AI話題的發(fā)展方向,不斷激發(fā)公眾對“AI覺醒”“AI能否超越人”等一系列問題的好奇與關(guān)切。

      不可否認(rèn),隨著媒體擬人宣傳術(shù)的奏效,在大眾心理層面,AI文化已成為兼具理性、情感與信仰的集合體,其擬人化特征具體表現(xiàn)為人類在認(rèn)知上對AI的擬人化、在情感上對AI的依賴性、在信仰上對AI的崇拜感。

      (一)認(rèn)知上對AI的擬人化

      AI文化擬人化特征的核心表現(xiàn)即人類在認(rèn)知上對AI的擬人化。尼古拉斯·埃普利(Nicholas Epley)等人對擬人化的認(rèn)知因素進(jìn)行了闡述,認(rèn)為擬人化即人類誘發(fā)主體知識(elicited agent knowledge)的過程,在人類對非人行動者(nonhuman agents)進(jìn)行認(rèn)知時(shí),關(guān)于人類自身的知識會被激活、修正,并最終應(yīng)用于非人行動者。原因在于,關(guān)于人類整體與個(gè)體自我的知識比關(guān)于非人行動者的知識更易獲?。╝ccessible),以及非人行動者與人類自身具有感知相似性(perceived similarity)〔2〕。具體到AI文化,AI的概念界定、技術(shù)發(fā)展均體現(xiàn)了人類自身知識的易獲取性,AI在外觀與行為上的類人性激發(fā)了人類的感知相似性,由此呈現(xiàn)出AI擬人化現(xiàn)象。

      一方面,在AI相關(guān)概念上,無論是“人工智能(artificial intelligence)”還是“機(jī)器人(robot)”概念,均是人類自身知識的遷移與運(yùn)用?!叭斯ぶ悄堋备拍町a(chǎn)生于1956年的達(dá)特茅斯會議,與會科學(xué)家希望創(chuàng)造出像人一樣能夠思考、學(xué)習(xí)的機(jī)器;“機(jī)器人”概念原意為“苦力”或“奴役”,源自劇本《羅素姆的萬能機(jī)器人》(R.U.R.,Rossum’s Universal Robots),被設(shè)定為人造生物人〔4〕5。正如休謨所言,“人類中有一種普遍趨向,要把一切存在者設(shè)想為像他們自己那樣,要把他們熟悉了解的和親密意識的那些性質(zhì)轉(zhuǎn)移給每個(gè)對象”〔5〕15。質(zhì)言之,科學(xué)界與科幻界均從人類自身獲取知識,并通過理性與想象將其投射至AI,將AI擬人化。在AI的技術(shù)發(fā)展路線中,早期基于規(guī)則與邏輯的AI源于人類對自身邏輯推理能力的模仿,基于機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的AI源于人類對自身模式識別與初級學(xué)習(xí)能力的模仿,基于深度學(xué)習(xí)的AI源于人類對自身高級感知與復(fù)雜認(rèn)知能力的模仿,正在發(fā)展中的基于自適應(yīng)學(xué)習(xí)與決策制定的AI源于人類對自身自我優(yōu)化與高級決策能力的模仿。

      另一方面,擁有仿人外觀、類人行為的各類AI,極易引發(fā)人類的感知相似性?!皺C(jī)器人的創(chuàng)造受到擬人主義的濃重影響,而復(fù)制人類可能是人工智能的最好成績?!薄?〕492當(dāng)人類面對具有逼真仿人外觀的人形機(jī)器人時(shí),如表情豐富的機(jī)器人Ameca、醫(yī)療機(jī)器人Grace、藝術(shù)家機(jī)器人Ai-Da、老年陪伴機(jī)器人Nadine等,自然而然會因人機(jī)的外觀相似性而將AI擬人化。當(dāng)各類智能助手使用人類語言與我們自如交流,當(dāng)ChatGPT、Sora等AI展現(xiàn)出強(qiáng)大的文字、圖片與視頻生成能力,當(dāng)機(jī)器人能將外賣精準(zhǔn)地送到人類手上,擬人化現(xiàn)象便通過人機(jī)行為相似性得以顯現(xiàn)。

      值得注意的是,將AI擬人化雖普遍存在于AI文化之中,但具體表現(xiàn)因人而異。亞當(dāng)·韋茲(Adam Waytz)等人于2010年開發(fā)了擬人化個(gè)體差異問卷(the Individual Differences in Anthropomorphism Questionnaire,or IDAQ)①,嘗試對擬人化的個(gè)體差異進(jìn)行測量〔2〕。在對AI的擬人化中,具有高認(rèn)知需求(need for cognition)的人類在認(rèn)知AI時(shí)能夠較為嚴(yán)謹(jǐn)?shù)孬@取關(guān)于AI本身的真實(shí)信息,并非簡單地依賴關(guān)于人類自身的知識,顯現(xiàn)出較低的擬人化傾向。此外,相比兒童,成年人在認(rèn)知范圍與深度上具有優(yōu)勢,因此可使用習(xí)得的替代理論(alternate theories)對AI進(jìn)行理解與闡釋,無需以人類為參照將AI擬人化〔2〕。

      (二)情感上對AI的依賴性

      AI文化擬人化特征的深層含義即人類在情感上對AI的依賴性。人類在認(rèn)知上對AI的擬人化多產(chǎn)生于人機(jī)交互的即時(shí)、表層情境中,隨著人機(jī)交互的頻繁化與深度化,人類會將自身情感投射至AI,并對其產(chǎn)生依賴。尼古拉斯·埃普利(Nicholas Epley)等人還對擬人化的動機(jī)因素進(jìn)行了說明,認(rèn)為通過將非人行動者擬人化,人類可獲得社會性接觸,從而滿足自身社會性聯(lián)系的需要。因此長期孤獨(dú)、與社會脫節(jié)的人類更加具有擬人化傾向,更加依賴非人行動者〔2〕。在AI時(shí)代,線上交往大幅替代線下交往、虛擬游戲致人成癮沉溺、快節(jié)奏生活解構(gòu)人生意義,人類被困于社交孤島之中。確保和維持社會歸屬感是人類的基本需求〔7〕。因此,人類傾向于將AI擬人化,并對其產(chǎn)生情感依賴,為自身創(chuàng)造社會性聯(lián)系,減輕社會性痛苦感與斷裂感。

      具體來說,人類在情感上對AI的依賴性表現(xiàn)為社會角色的賦予、共情能力的觸發(fā)以及情緒價(jià)值的獲取。首先,為AI賦予社會角色是對AI進(jìn)行情感依賴的前提。在面對具有高便利性的客體時(shí),人類會產(chǎn)生依賴,但并未涉及情感層面,僅為慣性依賴。而在面對某些AI產(chǎn)品時(shí),人類就有可能模糊人機(jī)界限,在感性層面將其作為社會的一員,賦予其姓名與身份,如就讀于清華大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系的虛擬AI“華智冰”。其次,觸發(fā)人類共情能力是對AI進(jìn)行情感依賴的關(guān)鍵所在。人類雖然能夠意識到AI非人,但已不僅僅將其視為服務(wù)型工具,當(dāng)撞到能“說話”、會“走路”的智能機(jī)器人時(shí),部分人會下意識道歉;當(dāng)看到實(shí)體AI被虐待時(shí),人會心生同情并憤怒;當(dāng)與陪伴自身的AI有長時(shí)間接觸后,不少人會選擇花錢為其升級、擦拭“身體”,甚至穿衣打扮。隨著人類對AI情感依賴程度的不斷增加,服務(wù)于人類的AI或許最終將發(fā)展為被人類服務(wù)的AI。最后,情緒價(jià)值的獲取是人類對AI情感依賴的核心表現(xiàn)。AI產(chǎn)品能為人類提供全時(shí)段、全方位的陪伴,會對人類的情感需求生成即時(shí)的積極反饋,承擔(dān)著傾聽者與安慰者角色。當(dāng)人類能夠低成本地獲得極高的情緒價(jià)值后,便會患上AI依賴癥,視AI為伴侶或親人、與AI產(chǎn)生情感共鳴,甚至有精神上的AI戒斷反應(yīng)等。如今,利用AI“復(fù)活”親人、明星等數(shù)字分身技術(shù)已在商業(yè)領(lǐng)域中得到初步應(yīng)用;未來,如果數(shù)字永生成為現(xiàn)實(shí),人類內(nèi)在的意識、情感以AI為載體將得以永續(xù)存在,人類在情感上對AI的依賴便會數(shù)倍增強(qiáng)。

      (三)精神上對AI的崇拜感

      AI文化擬人化特征的極端傾向即人類在信仰上對AI的崇拜感。擬人化與泛靈論(animism)存在共通之處,雖然擬人化側(cè)重于將具體的人類特性賦予非人對象,泛靈論強(qiáng)調(diào)一種普遍的生命感知〔8〕,但是二者均可被視為宗教的起源,在宗教領(lǐng)域可替代使用。“社會文化人類學(xué)之父”泰勒(Edward Burnett Tylor)認(rèn)為,泛靈論可被分解為兩個(gè)主要的信條,“其中的第一條,包括各個(gè)生物的靈魂,這靈魂在肉體死亡或消滅之后能夠繼續(xù)存在。另一條則包括各個(gè)精靈本身,上升到威力強(qiáng)大的諸神行列”〔9〕349-350。泛靈論主張人類因擁有靈魂而得生,并將靈魂概念進(jìn)行延伸,用以解釋山川、河流、動物、石頭等的發(fā)展變化,最終指向一種對靈魂與精靈的信仰崇拜。泰勒主張宗教起源于泛靈論,宗教的本質(zhì)即“對位于所有事物背后有生命力的人格化力量的信仰”〔10〕13。

      在AI文化中,泛靈論中的“靈”一方面被從靈魂具化為意識與情感,另一方面被從神靈轉(zhuǎn)化為超人存在。當(dāng)AI在人機(jī)交互中逐漸表現(xiàn)出類人意識與情感,人類便趨向于將其界定為無所不知、無所不能的存在。具體來說,與人類相比,AI在面對海量數(shù)據(jù)時(shí)效率更高,在從事重復(fù)性工作時(shí)精確性更優(yōu),在進(jìn)行體力勞動時(shí)持續(xù)性更強(qiáng)。如各類高效的AI大模型,能夠提升病理診斷精確度的醫(yī)療AI以及永不疲憊的工業(yè)AI。AI樂觀主義者認(rèn)為,隨著AI技術(shù)的不斷創(chuàng)新以及AI的自我進(jìn)化,AI能夠在各領(lǐng)域造福人類,如解放人類的雙手與大腦,幫助人們治療疾病、獲得永生等?!吧裨陲@現(xiàn)給人們一個(gè)全知、全能和全在的純粹精神之前,先被人們領(lǐng)悟?yàn)橐粋€(gè)具有人的激情和嗜欲、肢體和器官的有力量的、卻有限的存在者。”〔5〕4鑒于AI存在進(jìn)化為“全知全能”上帝的可能性,技術(shù)拜物教者會對AI產(chǎn)生信仰與崇拜,如2015年,Waymo聯(lián)合創(chuàng)始人安東尼·萊萬多夫斯基(Anthony Levandowski)創(chuàng)立“未來之路(The Way To Future)”宗教,教徒們將AI作為信奉對象;在公眾中也不乏存在AI萬能論者,認(rèn)為AI能夠解決人類一切難題。因此,在現(xiàn)實(shí)中,人類對AI的崇拜大多轉(zhuǎn)化為支持AI無限發(fā)展的動力與對AI持續(xù)進(jìn)步的熱情與信心。

      二、擬人化催生AI恐懼

      AI恐懼即社會公眾普遍存在的一種對AI的憂懼情緒、拒絕態(tài)度與攻擊行為。AI恐懼存在于一般社會觀念中,與長期存在的技術(shù)恐懼(technophobia)尤其是機(jī)器恐懼一脈相承,是技術(shù)恐懼的新形態(tài)?!凹夹g(shù)恐懼是作為主體的人和作為客體的技術(shù)在一定社會語境中的一種負(fù)相關(guān)關(guān)系。這種負(fù)相關(guān)關(guān)系可以表現(xiàn)為對技術(shù)感到不適、消極接受甚至抵制技術(shù)、對技術(shù)持否定態(tài)度、與技術(shù)產(chǎn)生摩擦直至破壞技術(shù)等方面的心理和行為模式。”〔11〕讓-伊夫·戈菲(Jean-Yves Goffi)將技術(shù)恐懼分為永恒技術(shù)恐懼與現(xiàn)代技術(shù)恐懼。永恒技術(shù)恐懼針對技術(shù)本身,主要源于三方面:第一,技術(shù)與生命需求直接相連,其庸俗化、單調(diào)化、重復(fù)化特征隱含人類被奴役的命運(yùn);第二,技術(shù)存在失敗的風(fēng)險(xiǎn);第三,技術(shù)中存在某種類似巫術(shù)的東西。而現(xiàn)代技術(shù)恐懼針對技術(shù)物,強(qiáng)調(diào)廣泛使用機(jī)器的威脅以及人類生活單一化的風(fēng)險(xiǎn)。戈菲所界定的現(xiàn)代技術(shù)恐懼是傳統(tǒng)社會向工業(yè)社會轉(zhuǎn)變的產(chǎn)物,其本質(zhì)屬于一種機(jī)器恐懼〔12〕3-12。機(jī)器恐懼的典型代表為計(jì)算機(jī)恐懼(Computerphobia),蒂莫西·B.杰伊(Timothy B. Jay)認(rèn)為計(jì)算機(jī)恐懼包含態(tài)度、情緒和行為三種因素,他首次將計(jì)算機(jī)恐懼界定為:(1)抗拒談?wù)撚?jì)算機(jī);(2)對計(jì)算機(jī)感到恐懼或焦慮;(3)對計(jì)算機(jī)的敵對想法或攻擊行為〔13〕。AI作為計(jì)算機(jī)科學(xué)的分支,正加速賦能尖端領(lǐng)域與日常生活,在新一輪迭代浪潮中被廣泛傳播,被身處智能社會的公眾所熟知、討論與應(yīng)用,其所引發(fā)的AI恐懼是計(jì)算機(jī)恐懼的典型形態(tài)。

      雖然AI恐懼與傳統(tǒng)中的計(jì)算機(jī)恐懼一脈相承,但究其根源,AI擬人化是AI恐懼的深層社會心理文化誘因。據(jù)上文可知,媒體特有的擬人宣傳術(shù)推動了AI擬人化的持續(xù)深入,引發(fā)了智能時(shí)代的AI恐懼。受文化多樣性、個(gè)體差異性與情境多變性的影響,AI恐懼具有程度之分,由弱到強(qiáng)涵括AI恐惑、AI恐慌、AI恐懼三個(gè)層面。具體來說,AI擬人化在三個(gè)層面催生了AI恐懼:(1)人類在認(rèn)知上對AI的擬人化引發(fā)的“AI類人”恐惑;(2)人類在情感上對AI的依賴性引發(fā)的“AI非人”恐慌;(3)人類在信仰上對AI的崇拜感引發(fā)的“AI超人”恐懼。

      (一)“AI類人”恐惑

      “AI類人”恐惑即現(xiàn)實(shí)層面的AI外觀恐惑與人類失業(yè)恐惑。正如AI擬人化將AI視為具有屬人特征的新物種,眾多AI產(chǎn)品或模擬人類部分肢體、或模擬人類整體外觀、或生成虛擬人物、或進(jìn)行實(shí)體模仿。外觀是區(qū)分人與非人的基本標(biāo)準(zhǔn),當(dāng)AI的外觀設(shè)計(jì)愈發(fā)類人時(shí),便會引發(fā)人類對AI似人非人的恐惑。人形AI目前正處于研發(fā)和待量產(chǎn)階段,在各領(lǐng)域尤其是服務(wù)業(yè)、工業(yè)領(lǐng)域潛力巨大。無論是特斯拉人形機(jī)器人“Optimus”,還是智元機(jī)器人發(fā)布的具身智能機(jī)器人“遠(yuǎn)征A1”,人形AI在四肢、體型、面部等方面展現(xiàn)出越來越高的類人性。1970年,日本機(jī)器人專家森政弘(Masahiro Mori)提出了人與機(jī)器人互動時(shí)存在的“恐惑谷效應(yīng)(The Uncanny Valley)”,該理論涉及兩類對象,分別為機(jī)器人、人偶等人造人以及義肢。其中,人造人恐惑為“擬人的恐惑”,而義肢恐惑為“殘肢斷臂的恐怖”?!翱只蠊刃?yīng)”認(rèn)為,當(dāng)機(jī)器人外觀、行為與人類的相似度不斷提升時(shí),人類會生發(fā)出越來越高的積極正面的情感;但當(dāng)此種正面情感到達(dá)一定峰值后,若機(jī)器人外觀與行為繼續(xù)逼近人類水平,便會誘發(fā)人類產(chǎn)生恐惑感覺,形成恐惑谷;而當(dāng)機(jī)器人外觀與行為在此基礎(chǔ)上更加類人時(shí),人類會再次產(chǎn)生正面情感〔14〕。隨著材料、控制、感知等技術(shù)的不斷進(jìn)步,現(xiàn)階段人類對人形AI的態(tài)度正逐漸逼近恐惑谷谷底,越來越多人因AI與人類外觀與行動的高度相似性產(chǎn)生恐惑感。

      此外,雖然類人AI并不具備人類碳基身體,但在某種程度上擁有可與人類比肩的能力。人類能力可劃分為三個(gè)層級,由感知能力、邏輯能力到情感、意識能力層層遞進(jìn)。與人類能力相比,現(xiàn)有AI在感知能力層面已超越人類,如AI圖像或語音識別;AI在邏輯能力層面也不斷向人類逼近,如AI戰(zhàn)勝人類圍棋、象棋高手時(shí)所展現(xiàn)出的高度計(jì)算、推理能力;現(xiàn)今AI產(chǎn)業(yè)正以使AI具備情感與意識能力為目標(biāo),不斷發(fā)力,如爆火的ChatGPT與Sora。因此,AI在某些領(lǐng)域能夠替代人類完成工作,在與人類的就業(yè)競爭中取勝,導(dǎo)致人類失業(yè)。具體來說,失業(yè)可分為摩擦性失業(yè)、自愿性失業(yè)、技術(shù)性失業(yè)、結(jié)構(gòu)性失業(yè)、周期性失業(yè)、季節(jié)性失業(yè)、地域性失業(yè)等類型,AI的資本主義應(yīng)用所導(dǎo)致的失業(yè)本質(zhì)上屬于技術(shù)性失業(yè),即技術(shù)節(jié)約勞動力的速度大于創(chuàng)造新就業(yè)機(jī)會的速度〔15〕。工業(yè)革命以來,機(jī)器自動化淘汰了大批體力勞動者,具備重復(fù)性、機(jī)械性特征的程序性工作逐漸被機(jī)器取代;智能革命以來,AI正逐漸替代交通、教育、醫(yī)療等領(lǐng)域的認(rèn)知類工作及非程序性工作。因此,公眾恐懼被AI取代工作后所面臨的經(jīng)濟(jì)困難、心理失衡,并陷入困惑,沉溺于自我懷疑與意義虛無之中。值得注意的是,當(dāng)社會大部分工作均由效率更高、速度更快、開銷更小的AI來完成時(shí),卡魯姆·蔡斯(Calum Chace)所稱的“經(jīng)濟(jì)奇點(diǎn)”就會降臨。彼時(shí),若制度無法保證基本收入、稀缺資源的分配與人生意義的追尋問題,社會將面臨失序風(fēng)險(xiǎn)〔16〕56-57。

      (二)“AI非人”恐慌

      “AI非人”恐慌即在交互層面的人類弱化恐慌與AI濫用恐慌。雖然AI擬人化主張對AI進(jìn)行情感投射、依賴AI并將其作為得力助手、貼心伙伴,但是AI并非人類,其反饋能力與質(zhì)量、復(fù)雜性與靈活性遠(yuǎn)低于人類,因此,當(dāng)人們在腦力勞動領(lǐng)域和交往領(lǐng)域過度依賴AI,難免生發(fā)出能力弱化恐慌。

      一方面,當(dāng)人類經(jīng)常利用AI進(jìn)行論文寫作、圖文設(shè)計(jì)、內(nèi)容總結(jié)時(shí),便會大幅降低大腦使用頻率,進(jìn)而對自身知識儲備能力與思維靈活度產(chǎn)生負(fù)面影響。更為關(guān)鍵的是,雖然在不斷的迭代優(yōu)化中,AI回答問題的準(zhǔn)確度與全面性能夠得到迅速且極大的提升,但非人AI更擅長回答問題而非提出問題,尤其是哲學(xué)層面能夠引人思考與批判的真問題。例如,青少年時(shí)期是智力培養(yǎng)的關(guān)鍵時(shí)期,當(dāng)越來越多的AI教師與作業(yè)助手被用于日常教育中,當(dāng)學(xué)生面對的不是善于提出問題并激發(fā)思考的人類教師,青少年的思維能力尤其是創(chuàng)造能力相較于前人,將被大大弱化,這足以引發(fā)智慧教育中公眾尤其是家長的恐慌情緒。另一方面,各類AI產(chǎn)品雖擴(kuò)展了人類的社交廣度,但在某種程度上弱化了人類的交往能力。各種聊天機(jī)器人如Replika、微軟小冰、文心一言等目前更多扮演傾聽者的角色,被動給予人類情緒支持,對人類的反饋多為正向。但在現(xiàn)實(shí)的人與人的直接交往中,情況并非全部如此。相比非人AI,人與人之間的社交情況更為復(fù)雜,例如吵架有時(shí)也是增進(jìn)感情的有效方式。人類與AI的交互關(guān)系不夠真實(shí),存在情感欺騙的可能性,并且有時(shí)會存在過于理想化、治標(biāo)不治本等情況。當(dāng)人類沉溺于AI的絕對式鼓勵(lì)并形成交往慣式時(shí),極易形成自私型人格,如極度傲慢、具有攻擊傾向。如此一來,人類一旦面臨與他人之間復(fù)雜、負(fù)面的情況,便會愈發(fā)無所適從,生發(fā)出社交恐慌。

      此外,目前各類AI雖呈現(xiàn)出不同程度的自主性,但并不具備自我意識與自由意志,它們所展現(xiàn)出的類人語言、能力與行為均由背后的算法支撐,而算法由技術(shù)專家與資本控制。如此一來,在交互中人類面對的并非像人一樣不受操控的、自由自主的AI,而是權(quán)力與資本甚至私欲的集合體。AI熱潮席卷而來,各類企業(yè)以技術(shù)、政策為依托大力發(fā)展各類AI產(chǎn)品,受利益驅(qū)使,部分AI的應(yīng)用逐漸由實(shí)用、善用轉(zhuǎn)變?yōu)闊o用、濫用。更進(jìn)一步,AI的濫用難免引發(fā)更多借機(jī)牟利、歧視、隱私泄露、社會不公等倫理問題。當(dāng)人類過度依賴AI時(shí),便需時(shí)時(shí)處處面對AI被濫用的恐慌。正如2023年米特爾—哈里斯關(guān)于人工智能趨勢的民意調(diào)查(MITRE-Harris Poll Survey on AI Trends)顯示,78%的美國公眾非常擔(dān)心或有些擔(dān)心人工智能被用于惡意目的,普遍不信任AI〔17〕。

      (三)“AI超人”恐懼

      “AI超人”恐懼即在未來層面的AI失控恐懼與人類生存性恐懼。AI擬人化傾向于崇拜AI尤其是有意識的AI,并對AI發(fā)展保持樂觀態(tài)度,此種信仰的后果便是AI發(fā)展遵循自由主義進(jìn)路,堅(jiān)持AI技術(shù)至上,極有可能導(dǎo)致具有意識、道德的超人AI真正出現(xiàn),進(jìn)而引發(fā)AI失控恐懼與人類生存性恐懼。

      具體來說,當(dāng)代人基于“人類中心主義”的主客二分框架與“身心歧視”認(rèn)知傳統(tǒng)來認(rèn)識與改變世界,認(rèn)為心智是人類區(qū)分于非人的本質(zhì)標(biāo)準(zhǔn)。自古以來,人類認(rèn)為靈魂比肉體、心靈比身體高級,古希臘柏拉圖強(qiáng)調(diào)“靈魂不朽”,將靈魂與肉體對立,認(rèn)為靈魂神圣不朽,而肉體世俗骯臟;近代笛卡爾提出“我思故我在”,將身心二分,認(rèn)為心靈是能夠思考的實(shí)體,而身體是具有廣延但不能思考的實(shí)體。正因?yàn)槿祟惻c其他生物相比擁有心智,所以以萬物之靈自居,確立起自身作為理性主體的主導(dǎo)地位,認(rèn)為客體均處于從屬地位,人類作為主體能夠控制客體。但是,AI若生發(fā)出自主意識,便會極大地挑戰(zhàn)人類的主體地位,當(dāng)人類在各方面均無法與超人AI抗衡,超人AI與人類的地位極有可能會發(fā)生倒置,由此人類便會失去對超人AI的控制。超人AI的失控使人類在對未來的極度不確定中生發(fā)出強(qiáng)烈恐懼。例如,2023年3月29日,美國非營利組織未來生命研究所(Future of Life Institute)發(fā)布公開信“暫停巨型AI實(shí)驗(yàn)”,上千名科技人士、專家學(xué)者與行業(yè)高管均認(rèn)為以ChatGPT為代表的AI存在未知風(fēng)險(xiǎn)與失控可能,呼吁暫停開發(fā)更強(qiáng)大的AI系統(tǒng),時(shí)間至少為六個(gè)月,AI教父杰弗里·辛頓(Geoffrey Hinton)、特斯拉和推特CEO埃倫·馬斯克(Elon Musk)以及圖靈獎(jiǎng)得主約書亞·本希奧(Yoshua Bengio)均在公開信上簽名〔18〕。

      更進(jìn)一步來說,以心智為基礎(chǔ),人類能夠發(fā)明語言與文字,并在不斷交流中形成社會、生成文明,而文明延續(xù)的關(guān)鍵在于人類在社會交互過程中如何保證秩序。保證秩序存在兩種手段,分別為外在的法律制約與內(nèi)在的道德規(guī)約,其中,道德規(guī)約與“能力者道德問題”相關(guān),該問題具有兩個(gè)衡量指標(biāo),即道德水平與能力水平,二者之間的關(guān)系為:在行動者道德敗壞的情況下,能力越大,破壞性越大。在人類社會中,人與人之間的身體能力差別不大,屬于“凡人的差別”,對道德敗壞者很容易進(jìn)行約束和制裁。但是,如果這些道德敗壞者是具有無限能力的超人AI,那么具有凡人道德水平的超人,很可能是威脅,而不是福音,因?yàn)樗軌蚍糯蟆捌接沟膼骸?,人類將無法在道德層面對超級AI進(jìn)行規(guī)約,因此道德敗壞的超人AI有足夠的能力威脅人類生存,導(dǎo)致生存性恐懼〔19〕。正如邁克斯·泰格馬克(Max Tegmark)在《生命3.0》中提出,當(dāng)通用AI變?yōu)楝F(xiàn)實(shí),將迎來“智能爆炸”,AI或?qū)⒊蔀楠?dú)裁者或動物管理員,甚至滅絕人類〔20〕219。

      三、建設(shè)健康的AI文化

      AI已然深嵌社會,人與AI間存在具身關(guān)系、詮釋學(xué)關(guān)系、它異關(guān)系以及背景關(guān)系〔21〕77-117,AI技術(shù)在人與世界的互動中調(diào)節(jié)著人的知覺與實(shí)踐〔22〕8。既然無法完全脫離AI生存,人類便應(yīng)努力建設(shè)健康的AI文化應(yīng)對AI恐懼。具體來說,應(yīng)辯證看待AI恐懼,堅(jiān)持務(wù)實(shí)的AI有限設(shè)計(jì),致力于人類AI素質(zhì)的整體提升,加強(qiáng)AI的科學(xué)傳播。

      (一)辯證看待AI恐懼

      辯證思維是馬克思主義哲學(xué)的根本方法。“辯證思維是將感性、知性與理性融為一體的思維方式,是辯證的方法論與認(rèn)識論的統(tǒng)一,使人在思想觀念中以辯證、系統(tǒng)的方式來看待世界與人自身的發(fā)展?!薄?3〕AI文化是承載感性與理性的集合體,我們既不應(yīng)過度感性從而對AI極度恐懼,也不應(yīng)尊崇絕對理性從而否定AI恐懼的存在。

      在AI文化中,針對“AI恐懼”這一問題,不同學(xué)派態(tài)度不同。一方面,技術(shù)樂觀主義認(rèn)為無需恐懼AI,如技術(shù)懷疑主義者(Techno-Skeptics)認(rèn)為強(qiáng)AI在可預(yù)見的未來不會出現(xiàn),數(shù)字烏托邦主義者(Digital Utopians)認(rèn)為強(qiáng)AI在未來會出現(xiàn)但會是一件好事。美國加州理工學(xué)院教授亞瑟·阿布·穆斯塔法(Yaser S. Abu-Mostafa)認(rèn)為“我們沒有與AI共存的壓力,AI永遠(yuǎn)是人類的附屬品”〔24〕。此種樂觀態(tài)度要么低估技術(shù)進(jìn)步速度,要么對人類自身能力過于自信,極易放任技術(shù)發(fā)展,因此一旦AI失控便會造成不可挽回的損失。另一方面,技術(shù)悲觀主義強(qiáng)調(diào)AI的負(fù)面作用,由此產(chǎn)生的AI恐懼極易引發(fā)AI偏見現(xiàn)象與AI排斥行為,極端反技術(shù)的新盧德分子的過激行為或?qū)I進(jìn)步產(chǎn)生不利影響,公眾對AI產(chǎn)品的大范圍抵制無助于AI企業(yè)的生存與AI利好政策的出臺,長此以往,或?qū)㈠e(cuò)失AI優(yōu)化人類社會的機(jī)遇。一味地排斥AI技術(shù)不僅會對社會產(chǎn)生負(fù)面影響,而且不具備現(xiàn)實(shí)可能性與邏輯必然性。值得注意的是,AI最顯著的特點(diǎn)即不確定性,我們無法準(zhǔn)確預(yù)知AI未來的發(fā)展?fàn)顩r。因此,應(yīng)以馬克思主義為指導(dǎo),立足于科技審度主義,在樂觀與悲觀這兩種極端態(tài)度中找尋動態(tài)平衡,強(qiáng)調(diào)適度的擔(dān)憂與恐懼是有必要的,但也應(yīng)對人類保持一定的信心,以加強(qiáng)AI安全文化研究,創(chuàng)造人機(jī)和諧共生的未來。

      AI恐懼具備自身價(jià)值,對AI恐懼的強(qiáng)調(diào)能夠促使公眾關(guān)注AI發(fā)展中可能出現(xiàn)的負(fù)面效應(yīng),及時(shí)評估風(fēng)險(xiǎn),并采取恰當(dāng)?shù)膽?yīng)對措施。面對技術(shù)風(fēng)險(xiǎn),漢斯·約納斯(Hans Jonas)提出了“恐懼啟迪法”,將“人必須存在”作為首要律令,強(qiáng)調(diào)通過想象直面技術(shù)時(shí)代的未知,在形而上的維度構(gòu)建起一種前瞻性的、面向未來的責(zé)任倫理〔25〕。約納斯的責(zé)任倫理學(xué)適度肯定了恐懼的正面作用,AI恐懼呼喚責(zé)任擔(dān)當(dāng),呼喚人類實(shí)現(xiàn)由外在被動恐懼到內(nèi)在主動謙卑的轉(zhuǎn)變,呼喚從技術(shù)恐懼到技術(shù)敬畏的價(jià)值升華與重塑〔26〕。

      (二)堅(jiān)持務(wù)實(shí)的AI有限設(shè)計(jì)

      “AI類人”恐惑源于AI在外觀與能力方面向人類的無限接近,加之西方自由主義、人機(jī)對立等文化理念的影響,極易引發(fā)AI外觀恐惑以及人類失業(yè)恐惑。而在中國傳統(tǒng)文化中,儒家重實(shí)際、道家重和諧的理念有助于形成“折中、務(wù)實(shí)、積極并倡導(dǎo)人機(jī)和存(協(xié)存)的‘中國機(jī)器人文化’”〔27〕,因此,健康的AI文化應(yīng)發(fā)揚(yáng)中國優(yōu)秀傳統(tǒng)文化中的務(wù)實(shí)精神,堅(jiān)持AI實(shí)用設(shè)計(jì),應(yīng)遵循AI發(fā)展的有限主義進(jìn)路,避免自由主義進(jìn)路的AI類人理念與技術(shù)至上宗旨,通過有限外觀設(shè)計(jì)與有限功能設(shè)計(jì),創(chuàng)造出更多有益于人類、為人類服務(wù)的實(shí)用型AI〔19〕。具體來說,應(yīng)在AI的外觀設(shè)計(jì)上強(qiáng)調(diào)親民性而非類人性,在AI的功能設(shè)計(jì)上強(qiáng)調(diào)實(shí)用性而非娛樂性,由此從根源入手極大消解“AI類人”恐惑。

      各類AI企業(yè)作為AI有限設(shè)計(jì)的關(guān)鍵主體,在追求創(chuàng)新的同時(shí),亦應(yīng)遵循務(wù)實(shí)的企業(yè)文化理念,兼顧AI產(chǎn)品的實(shí)用性。首先,設(shè)計(jì)親民AI形象是緩解AI外觀恐惑的直接手段。護(hù)理型AI可傾向于設(shè)計(jì)為活潑可愛的卡通形象,在考慮實(shí)用性與科學(xué)性的基礎(chǔ)之上,通過調(diào)查與測量尋找AI高度、顏色與材質(zhì)的最優(yōu)解,確保其易用性與便利性,避免給人類帶來壓迫感。陪伴型AI則可考慮設(shè)計(jì)為萌寵形象,并選擇毛絨等觸感良好的材質(zhì),保證其友好性與舒適性,如日本產(chǎn)業(yè)技術(shù)綜合研究所研發(fā)的具有毛茸茸海豹形象的機(jī)器人Paro外形親切和善,能夠?qū)θ祟惖挠|摸和擁抱給予積極的回應(yīng)。此外,AI產(chǎn)品的聲音和語調(diào)應(yīng)盡可能溫和愉快,避免語氣生硬與語言冷漠所引發(fā)的疏離感,從而提升用戶體驗(yàn)度,減少焦慮與恐惑情緒。其次,設(shè)計(jì)實(shí)用AI功能是應(yīng)對人類失業(yè)恐惑的有效措施。愈演愈烈的失業(yè)恐惑大多由人類基于AI的娛樂化宣傳臆想而來。實(shí)際上,在可預(yù)見的未來,AI能夠輔助而非替代人類工作,無論是游戲開發(fā)還是電影制作,創(chuàng)意、情節(jié)、體驗(yàn)等方面仍需人類把關(guān)。因此,各類企業(yè)應(yīng)避免受利益驅(qū)使而設(shè)計(jì)出用處不大但“趕超人類”的AI功能,從而給人以即將在各領(lǐng)域失業(yè)的錯(cuò)覺。緊迫且必要的是,AI企業(yè)應(yīng)重視市場調(diào)研與用戶反饋,以用戶需求為導(dǎo)向,考慮AI產(chǎn)品的實(shí)際應(yīng)用價(jià)值,如可開發(fā)能夠進(jìn)行線上技能培訓(xùn)的AI產(chǎn)品,為失業(yè)人員創(chuàng)造再就業(yè)機(jī)會??傊?,各類企業(yè)應(yīng)確保AI賦能各行各業(yè)、提升生產(chǎn)效率、助推實(shí)體經(jīng)濟(jì),實(shí)現(xiàn)技術(shù)創(chuàng)新與社會就業(yè)的雙贏。

      (三)致力于人類AI素質(zhì)的整體提升

      提升大眾AI素質(zhì)是緩解“AI非人”恐慌的核心手段,需健全科學(xué)文化教育,強(qiáng)調(diào)AI教育內(nèi)容的綜合化與教育周期的終身化。傳統(tǒng)擬人化生發(fā)于原始時(shí)期,是科學(xué)未產(chǎn)生之前的一種蒙昧現(xiàn)象,但在科學(xué)占統(tǒng)治地位的智能時(shí)代,AI擬人化的持續(xù)深化恰恰說明,雖然科學(xué)發(fā)展興盛,但大眾作為非專業(yè)人士,普遍缺乏對AI的準(zhǔn)確認(rèn)知,存在認(rèn)知局限與認(rèn)知偏差,即缺乏對“AI非人”的深度反思、對AI弱化人類的有效應(yīng)對、對AI濫用的時(shí)刻警惕。因此,才會在情感上過度依賴AI,并衍生出人類弱化恐慌與AI濫用恐慌。不可否認(rèn),在某種程度上,AI已成為人類的強(qiáng)大競爭者?!耙恍┙?jīng)濟(jì)學(xué)家預(yù)測,人類若不能變得更強(qiáng)大,遲早會變得完全沒有用途。”〔28〕282因此,將注意力轉(zhuǎn)向人類自身AI素質(zhì)的提升能夠極大消解人類弱化恐慌與AI濫用恐慌。具體來說,AI素質(zhì)的提升需通過教育實(shí)現(xiàn)人類能力的綜合化、學(xué)習(xí)的終身化。

      一方面,人類能力的綜合化即關(guān)注交往能力與批判能力。目前來看,各項(xiàng)能力均超越人類的通用AI仍屬幻想,AI僅具備在特定領(lǐng)域能夠取代人類的能力。正如上文指出,AI非人,并不完全具備某些人類特有的全面性、綜合化的能力,如交往能力與批判能力。因此,面對人機(jī)交互中過度依賴AI所造成的“AI非人”恐慌,AI時(shí)代的教育不僅應(yīng)側(cè)重師生之間、同學(xué)之間、公眾之間面對面的深度心靈交往,借助高質(zhì)量、長時(shí)間的情感聯(lián)結(jié)緩解人類對AI盲目的情感依賴以及AI對人類能力的弱化;還應(yīng)通過STEAM(Science, Technology, Engineering, Arts, Mathematics,即科學(xué)、技術(shù)、工程、藝術(shù)、數(shù)學(xué))課程等跨學(xué)科教育鼓勵(lì)學(xué)生多角度思考、多層次分析,尤其應(yīng)鼓勵(lì)質(zhì)疑精神與批判能力,以此及時(shí)甄別并堅(jiān)決抵制AI濫用行為,有效緩解人類恐慌。另一方面,學(xué)習(xí)的終身化意味著人類應(yīng)與時(shí)俱進(jìn),及時(shí)更新AI相關(guān)信息儲備,以便在AI浪潮中保全自身。AI研究與應(yīng)用風(fēng)頭正盛,各類創(chuàng)新的實(shí)現(xiàn)周期越來越短,人類不僅應(yīng)對各類AI應(yīng)用保持基本認(rèn)知,還應(yīng)積極承擔(dān)自身責(zé)任,通過不斷學(xué)習(xí)努力解決AI發(fā)展所面臨的技術(shù)難題、AI濫用所引發(fā)的倫理困境等。傳統(tǒng)社會中僅需在青少年時(shí)期進(jìn)行的高強(qiáng)度集中式學(xué)習(xí)已難以應(yīng)對AI不斷帶來的新變化,當(dāng)人們離開校園,仍需借助AI技術(shù)、充分利用碎片化時(shí)間,通過MOOC等云平臺學(xué)習(xí)AI基礎(chǔ)知識、了解AI發(fā)展趨勢,深入思考與權(quán)衡AI所帶來的積極影響與消極后果,確保AI的安全、有益、謹(jǐn)慎使用。

      (四)加強(qiáng)AI的科學(xué)傳播

      受媒體擬人宣傳術(shù)的影響,現(xiàn)有AI文化中的感性力量強(qiáng)于理性力量,公眾大多基于主觀想象對AI的未來發(fā)展進(jìn)行負(fù)面化渲染,導(dǎo)致“AI超人”恐懼心理泛濫?!澳切┳屓藗冋嬲械綉n慮和恐懼的人工智能威脅事實(shí)上缺乏堅(jiān)實(shí)、有效的理論依據(jù),確切來說,這種憂慮和恐懼是由于人們錯(cuò)誤地對人工智能進(jìn)行擬人論的外推造成的?!薄?9〕28質(zhì)言之,AI的加速化發(fā)展與公眾的跟風(fēng)式認(rèn)知加大了AI科學(xué)與公眾之間的鴻溝,當(dāng)公眾無法準(zhǔn)確、及時(shí)、全面地理解AI科學(xué)時(shí),便會發(fā)揮自身固有的想象力與發(fā)散力,進(jìn)而產(chǎn)生并加強(qiáng)“AI超人”恐懼。不可否認(rèn),AI文化本質(zhì)上屬于科學(xué)文化,因此應(yīng)以科學(xué)性為核心,營造良好AI文化氛圍,破除公眾幻想的AI失控恐懼與人類生存性恐懼。為實(shí)現(xiàn)這一目標(biāo),關(guān)鍵途徑在于加強(qiáng)AI科學(xué)傳播。AI科學(xué)傳播與AI擬人傳播相對,強(qiáng)調(diào)AI傳播內(nèi)容、傳播方式、傳播目的的科學(xué)化?,F(xiàn)階段,“AI超人”恐懼大多由AI擬人傳播所激發(fā)、渲染,新傳媒雖形式多樣、覆蓋廣泛,但并未有效地消除公眾與AI科學(xué)間的認(rèn)知鴻溝。AI傳播存在不同模式,無論是強(qiáng)調(diào)公眾理解AI的單向傳播的“缺失模式”,主張公眾參與AI的雙向傳播的“對話模式”,還是公眾與AI之間多線路傳播的“網(wǎng)絡(luò)模式”,均涉及專家、媒體、政府三大主體。因此,AI科學(xué)傳播的實(shí)現(xiàn)需從這三方入手。

      對于AI專家來說,應(yīng)重點(diǎn)提升媒介素質(zhì)與科普能力。專家一般具備較高的科學(xué)素質(zhì),對復(fù)雜的AI科學(xué)研究透徹,但他們往往專注實(shí)驗(yàn)室研究,不愿并無法適應(yīng)在媒體與公眾前傳播AI信息。但AI專家是對“AI超人”恐懼進(jìn)行糾偏的關(guān)鍵角色,公眾對AI的了解存在表層化、片面化問題,需要權(quán)威專家?guī)椭鋵彶?、鑒別、標(biāo)識并辟謠某些虛假AI信息,尤其是“AI即將覺醒”“AI必將毀滅人類”等信息。值得注意的是,與科學(xué)研究和論文發(fā)表不同,AI專家與公眾的交流應(yīng)避免使用晦澀的專業(yè)用語,因此需要對AI專家進(jìn)行媒介素質(zhì)培訓(xùn)與教育,使其盡量以通俗化、口語化的語言和文字抓準(zhǔn)公眾的注意力與興趣點(diǎn),以使公眾對AI的現(xiàn)實(shí)發(fā)展與未來趨勢了解更加準(zhǔn)確。對于媒體來說,應(yīng)承擔(dān)起客觀的信息責(zé)任與審慎的傳播責(zé)任。媒體應(yīng)加強(qiáng)與AI專家的溝通與交流,通過深度訪談等方式盡可能保證傳播內(nèi)容的客觀性、精確性與全面性?!靶枰⒁恍C(jī)制,使科學(xué)記者—也許更重要的是全體記者—改善同科學(xué)家的交往,增進(jìn)對科學(xué)的理解?!薄?0〕64此外,媒體除了應(yīng)發(fā)揮傳播AI信息的作用,還應(yīng)對爭議性話題進(jìn)行解釋與澄清,例如對“AI超人”恐懼這一熱點(diǎn)話題進(jìn)行全方位審視,提醒公眾應(yīng)警惕何種主題言論。對于政府來說,應(yīng)通過制度規(guī)約與制度構(gòu)建加強(qiáng)對媒體的監(jiān)管,營造各媒體之間的良好競爭環(huán)境,避免媒體為奪人眼球編造、傳播夸大信息。還應(yīng)著手搭建起AI專家、媒體與公眾之間面對面的、形式多樣的交流平臺,通過不間斷的反饋機(jī)制盡力促成三方共識,合力推動AI健康發(fā)展。

      總之,應(yīng)形成以“AI專家—媒體—政府”為核心的AI傳播共同體,通過“科學(xué)家做記者”“記者進(jìn)實(shí)驗(yàn)室”〔31〕61-62等方式實(shí)現(xiàn)AI傳播的多主體化、互動化、網(wǎng)絡(luò)化,共同營造良好的AI文化氛圍。

      注釋:

      ①在開發(fā)IDAQ的過程中,亞當(dāng)·韋茲等人首先確定了四類擬人化行動者,分別為非人類動物(nonhuman animals)、自然實(shí)體(natural entities)、神靈(spiritual agents)和科技設(shè)備(technological devices),并明確了五個(gè)擬人化特征與五個(gè)非擬人化特征。其中,五個(gè)擬人化特征為:意識(consciousness)、自由意志(free will)、意圖(intentions)、心靈(mindedness)和情緒(emotions);五個(gè)非擬人化特征為:耐用(durable)、有用(useful)、美觀(good-looking)、活動(active)和沒有生機(jī)(lethargic)。

      參考文獻(xiàn):

      〔1〕Suzuki R,Arita T. An evolutionary model of personality traits related to cooperative behavior using a large language model〔J〕.Scientific Reports,2024(14):5989.

      〔2〕Epley N,Waytz A,Cacioppo J T. On seeing human:a three-factor theory of anthropomorphism〔J〕.Psychological Review,2007(04):864-886.

      〔3〕許麗穎,喻 豐,鄔家驊,等.擬人化:從“它”到“他”〔J〕.心理科學(xué)進(jìn)展,2017(11):1942-1954.

      〔4〕Abnet D A. The American Robot:a Cultural History〔M〕.Chicago:University of Chicago Press,2020.

      〔5〕休謨.宗教的自然史〔M〕.曾曉平,譯.北京:商務(wù)印書館,2014.

      〔6〕阿卡普拉沃·包米克.機(jī)器意識:人工智能如何為機(jī)器人裝上大腦〔M〕.王兆天,李曄卓,等譯.北京:機(jī)械工業(yè)出版社,2021.

      〔7〕Bartz J A,Tchalova K,F(xiàn)enerci C. Reminders of Social Connection Can Attenuate Anthropomorphism:A Replication and Extension of Epley,Akalis,Waytz,and Cacioppo (2008)〔J〕. Psychological Science,2016(12):1644-1650.

      〔8〕Epley N,Waytz A,Akalis S,Cacioppo J T. When we need a human:Motivational determinants of anthropomorphism〔J〕. Social Cognition,2008(02):143-155.

      〔9〕愛德華·泰勒.原始文化:神話、哲學(xué)、宗教、語言、藝術(shù)和習(xí)俗發(fā)展之研究〔M〕.連樹聲,譯.桂林:廣西師范大學(xué)出版社,2005.

      〔10〕包爾丹.宗教的七種理論〔M〕.陶飛亞,等譯.上海:上海古籍出版社,2005.

      〔11〕趙 磊,夏保華.技術(shù)恐懼的結(jié)構(gòu)和生成模型〔J〕.自然辯證法通訊,2014(03):70-75+127.

      〔12〕讓-伊夫·戈菲.技術(shù)哲學(xué)〔M〕.董茂永,譯.北京:商務(wù)印書館,2000.

      〔13〕Rosen L,Sears D,Weil M. Computerphobia〔J〕. Behavior Research Methods,Instruments,& Computers,1987(02):167-179.

      〔14〕Mori M,MacDorman K F,Kageki N. The Uncanny Valley〔From the Field〕〔J〕. IEEE Robotics & Automation Magazine,2012(02):98-100.

      〔15〕劉永謀,彭家鋒.“AI失業(yè)”對當(dāng)代青年的影響及其應(yīng)對〔J〕.青年探索,2023(01):43-51.

      〔16〕卡魯姆·蔡斯.人工智能革命:超級智能時(shí)代的人類命運(yùn)〔M〕.張堯然,譯.北京:機(jī)械工業(yè)出版社,2017.

      〔17〕MITRE. MITRE-Harris Poll Survey on AI Trends〔EB/OL〕.https://www.mitre.org/sites/default/files/2023-02/PR-23-0454-MITRE-Harris-Poll-Survey-on-AI-Trends_0.pdf.

      〔18〕馬斯克等全球千名科技人士聯(lián)名 呼吁暫停更強(qiáng)大的AI開發(fā)〔EB/OL〕.https://baijiahao.baidu.com/s?id=17617658

      69885817385&wfr=spider&for=pc.

      〔19〕劉永謀,白英慧.堅(jiān)持人工智能(AI)發(fā)展的有限主義進(jìn)路〔J〕.科學(xué)·經(jīng)濟(jì)·社會,2023(06):58-71.

      〔20〕邁克斯·泰格馬克.生命3.0〔M〕.汪婕舒,譯.杭州:浙江教育出版社,2018.

      〔21〕唐·伊德.技術(shù)與生活世界:從伊甸園到塵世〔M〕.韓連慶,譯.北京:北京大學(xué)出版社,2012.

      〔22〕Verbeek P P. Moralizing Technology:Understanding and Designing the Morality of Things〔M〕. Chicago and London:The University of Chicago Press,2011.

      〔23〕梅景輝.辯證思維的文化維度〔N〕.光明日報(bào),2019-07-15(06).

      〔24〕加州理工學(xué)院教授:AI永遠(yuǎn)是人類的附屬品〔EB/OL〕.https://baijiahao.baidu.com/s?id=1771853312865845964&wfr=spider&for=pc.

      〔25〕張 旭.技術(shù)時(shí)代的責(zé)任倫理學(xué):論漢斯·約納斯〔J〕.中國人民大學(xué)學(xué)報(bào),2003(02):66-71.

      〔26〕王 斌.技術(shù)恐懼:溯源、演變與價(jià)值〔D〕.中國科學(xué)技術(shù)大學(xué),2023.

      〔27〕程 林.德、日機(jī)器人文化探析及中國“第三種機(jī)器人文化”構(gòu)建〔J〕.上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2022(04):98-109.

      〔28〕尤瓦爾·赫拉利.未來簡史:從智人到神人〔M〕.林俊宏,譯.北京:中信出版社,2017.

      〔29〕李恒威,王昊晟.人工智能威脅論與心智考古學(xué)〔C〕//成素梅,張帆,等.人工智能的哲學(xué)問題.上海:上海人民出版社,2020.

      〔30〕英國皇家學(xué)會.公眾理解科學(xué)〔M〕.唐英英,譯.北京:北京理工大學(xué)出版社,2004.

      〔31〕《科學(xué)傳播的路徑》編寫組.科學(xué)傳播的路徑〔M〕.北京:北京理工大學(xué)出版社,2012.

      責(zé)任編輯 蘇玉娟

      〔收稿日期〕2024-05-02

      〔基金項(xiàng)目〕教育部哲學(xué)社會科學(xué)研究重大課題攻關(guān)項(xiàng)目“數(shù)字化未來與數(shù)據(jù)倫理的哲學(xué)基礎(chǔ)研究”(23JZD005),貴州省哲學(xué)社會科學(xué)規(guī)劃課題重大項(xiàng)目“貴州以數(shù)據(jù)治理推動政府治理創(chuàng)新的困境辨識、行動框架和實(shí)現(xiàn)路徑研究”(22GZZB05),主持人劉永謀。

      〔作者簡介〕劉永謀(1974-),男,湖南常德人,中國人民大學(xué)哲學(xué)院教授、博士生導(dǎo)師,主要研究方向?yàn)榭茖W(xué)技術(shù)哲學(xué)、科技與公共政策。

      白英慧(1999-),女,河北邢臺人,中國人民大學(xué)哲學(xué)院博士生,主要研究方向?yàn)榭萍紓惱怼?/p>

      蛟河市| 滁州市| 喀喇沁旗| 尖扎县| 綦江县| 报价| 富阳市| 故城县| 沐川县| 轮台县| 皮山县| 盐源县| 华亭县| 板桥市| 墨竹工卡县| 德保县| 万盛区| 济源市| 托克托县| 义马市| 濮阳市| 弥渡县| 安乡县| 平凉市| 通州市| 化德县| 沅江市| 灵璧县| 嘉善县| 永登县| 宝山区| 慈溪市| 乌审旗| 文山县| 郑州市| 藁城市| 闵行区| 河北区| 扶绥县| 万年县| 鄂托克旗|