喻國明?滕文強(qiáng)?武迪
【內(nèi)容摘要】信任是溝通人與智能技術(shù)的橋梁。當(dāng)人機(jī)傳播的構(gòu)建與協(xié)調(diào)成為當(dāng)下傳播學(xué)的重要議題,將信任這一要素納入關(guān)系的構(gòu)建是打造可持續(xù)發(fā)展的“人—機(jī)”關(guān)系的必要舉措。本文以構(gòu)建人機(jī)傳播之間的信任為核心議題,通過梳理信任傳播的要素變遷,站在任務(wù)—技術(shù)匹配視角下探尋人機(jī)信任的關(guān)鍵地帶,并厘清信任校準(zhǔn)的動(dòng)態(tài)過程,以及信任校準(zhǔn)的關(guān)鍵通路。作者認(rèn)為未來要致力于發(fā)展可信的人工智能,實(shí)現(xiàn)健康的人機(jī)傳播關(guān)系,以推動(dòng)未來傳播的良序健康、以人為本的發(fā)展。
【關(guān)鍵詞】信任傳播;人機(jī)信任;信任校準(zhǔn);AIGC
一、問題的提出:人機(jī)同構(gòu)下的信任傳播
馬克思認(rèn)為“社會(huì)是人與人形成的關(guān)系總和”,社會(huì)的構(gòu)建離不開關(guān)系。當(dāng)下,信息技術(shù)的革命加速社會(huì)與媒介的相互融合與滲透,媒介不僅拓展了傳播場(chǎng)景,打破了時(shí)空界限,也豐富了關(guān)系構(gòu)建的多樣性?!叭藱C(jī)傳播”(Human-Machine Communication,簡(jiǎn)稱HMC)就是在此背景下,由人工智能技術(shù)賦能的全新關(guān)系。AIGC時(shí)代,“人機(jī)傳播”不僅實(shí)現(xiàn)了關(guān)系上的“耦合”,也實(shí)現(xiàn)了個(gè)體從思維到行動(dòng)自由度的拓展。從人際傳播到人機(jī)傳播,不僅意味著傳播主體數(shù)量上的豐富,也意味著因人際傳播產(chǎn)生的問題出現(xiàn)了可以由人工智能解決的可能性。①
“信任”(Trust)是任何穩(wěn)定關(guān)系展開的前提。薩布麗娜·羅曼諾夫(Sabrina Romanoff)認(rèn)為,“信任是人際關(guān)系的基礎(chǔ)?!碑?dāng)人機(jī)傳播的構(gòu)建與協(xié)調(diào)成為當(dāng)下傳播學(xué)的重要議題,將信任這一要素納入關(guān)系的構(gòu)建是打造可持續(xù)發(fā)展的“人—機(jī)”關(guān)系的必要舉措。而信任建立的前提是完成機(jī)器從“工具理性”到“價(jià)值理性”的視角轉(zhuǎn)化。
人機(jī)耦合的場(chǎng)景下,人類與人工智能的關(guān)系具有超過工具主義的內(nèi)在特征。②“代具性”是理解人與機(jī)器關(guān)系的邏輯之一,正如笛卡爾的“身心二元論”將身體和心靈視為互不相干的兩個(gè)實(shí)體一樣,“代具性”突出人體與技術(shù)的分離性。麥克盧漢的“媒介即人的延伸”同樣蘊(yùn)含“工具主義”的色彩。技術(shù)哲學(xué)家斯蒂格勒認(rèn)為,“人類發(fā)明了技術(shù),技術(shù)同時(shí)又發(fā)明了人類,二者互為主客體”,其強(qiáng)調(diào)人類缺乏足以維持自身生存的本能,必須借助外在于自身的技術(shù)而生存,則為體外化(exosomatization)。③顯然,工具理性下的人機(jī)關(guān)系強(qiáng)調(diào)體外化延伸并強(qiáng)化某種器官的功能,機(jī)器只是作為人類的感官化延伸。這個(gè)階段,人機(jī)關(guān)系停留在功能“互補(bǔ)”層面,忽略了人機(jī)協(xié)同共生發(fā)展的可能性。
芒福德認(rèn)為,在“新生代”的技術(shù)體系下,如果人們不能采取整體的、系統(tǒng)的、以生活為中心的觀念去衡量技術(shù),那么新的技術(shù)未必能塑造出新的文化和觀念。當(dāng)下,一些技術(shù)離身的二元框架在社會(huì)與媒介互嵌的場(chǎng)景下有忽略人主體間性的嫌疑。而芒福德的觀點(diǎn)為我們理解人與技術(shù)的關(guān)系提供了別樣的視角,即從整體理解人與技術(shù)。同構(gòu)性(Isomorphism)在哲學(xué)中可以理解為邏輯層上不同事物之間在結(jié)構(gòu)和性質(zhì)上具有相似性和可比性,對(duì)于以模仿人的特性而被稱之為人工智能的機(jī)器而言,“圖靈測(cè)試”的提出已經(jīng)印證人工智能技術(shù)發(fā)展的目標(biāo),即機(jī)器對(duì)人心智的模擬,似乎人與機(jī)器的同構(gòu)從制造之初已埋下伏筆。我們?cè)谀切┢魑镏幸姷降钠沸?,其?shí)正是人性的“復(fù)現(xiàn)”,是自己的映像。④唐·伊德認(rèn)為,技術(shù)不僅轉(zhuǎn)化了我們對(duì)世界的經(jīng)驗(yàn)、知覺和對(duì)世界的解釋,反過來,我們?cè)谶@一過程中也同樣被轉(zhuǎn)化了。⑤因此,從人機(jī)同構(gòu)性上整體考量人機(jī)關(guān)系將為構(gòu)建人機(jī)信任傳播模式提供整體的發(fā)展路徑。
生成式人工智能時(shí)代(Artificial Intelligence Generated Content,簡(jiǎn)稱AIGC時(shí)代),傳統(tǒng)的二元論已然無法解釋人與技術(shù)的關(guān)系問題,新技術(shù)的涌現(xiàn)不僅完成了個(gè)體思維版圖的擴(kuò)張,也完成了技術(shù)具身的可能。人工智能已內(nèi)嵌于社會(huì)技術(shù)之中,與人工智能的交互普適化已不言而喻。在這樣常態(tài)化的背景之下維持良好關(guān)系互動(dòng),人機(jī)信任的構(gòu)建是必要且唯一的,而構(gòu)建一個(gè)完善且適配的信任傳播模式才能實(shí)現(xiàn)人機(jī)信任。
二、技術(shù)與社會(huì)互嵌:信任傳播要素的變遷
理論學(xué)家對(duì)于信任的研究緣起于齊美爾⑥。齊美爾提出“信任是社會(huì)中最重要的凝聚力之一”⑦,其提出的“貨幣理論”同樣突出了信任的重要性。齊美爾的媒介貨幣哲學(xué)認(rèn)為“貨幣即媒介”,在媒介化社會(huì)的背景下,媒介的社會(huì)連接功能或社會(huì)形式影響人們的身體感知與信息獲取。⑧社會(huì)連接肇始于互動(dòng),而互動(dòng)的主要形式是交換,當(dāng)貨幣作為媒介進(jìn)行交換時(shí),信任的獲取顯得尤為重要。從齊美爾的信任延伸至人際交往中的信任可知,信任的定義雖因?qū)W科領(lǐng)域區(qū)別而有所出入,但目前達(dá)成共識(shí)的定義是:信任是涉及交易或交換關(guān)系的基礎(chǔ)。從齊美爾的貨幣時(shí)代到當(dāng)下的數(shù)字文明時(shí)代,從狹義的貨幣媒介再到數(shù)字媒介,技術(shù)與社會(huì)互嵌成為常態(tài),人機(jī)關(guān)系如何構(gòu)建成為社會(huì)網(wǎng)絡(luò)延伸的重點(diǎn)。信任是人機(jī)協(xié)作的必要條件,由此可見,傳統(tǒng)的圍繞人展開的信任傳播要素將全方位圍繞信任主體、信任關(guān)系、信任場(chǎng)景重新構(gòu)建。⑨
(一)信任主體的多維:從個(gè)體到算法再到機(jī)器
信任是嵌入在反復(fù)、緊密的關(guān)系當(dāng)中,⑩而關(guān)系的構(gòu)建離不開主體,信任傳播的主體在數(shù)字文明時(shí)代隨著技術(shù)的發(fā)展呈現(xiàn)多維發(fā)展趨勢(shì)。在人際信任中,信任的雙方都是人,作為人際關(guān)系互動(dòng)的重要條件,信任幫助人們面對(duì)不確定性。作為社會(huì)環(huán)境的基本特征,不確定性貫穿于人類歷史始終,而在不同的歷史階段,使信任成為可能的確定性基礎(chǔ)存在不同。從農(nóng)業(yè)社會(huì)、工業(yè)社會(huì)再到后工業(yè)社會(huì),依托人際關(guān)系的形態(tài)即熟人社會(huì)和陌生人社會(huì),信任被區(qū)分為習(xí)俗型信任、契約型信任以及合作型信任,這種信任的分類方式也是基于“不確定性”而構(gòu)建的。這種“不確定性”隨著工業(yè)化的發(fā)展愈演愈烈。當(dāng)人們進(jìn)入現(xiàn)代性狀態(tài),社會(huì)變遷引發(fā)的人類的“不安”將成為一種常態(tài),這也愈加凸顯信任的價(jià)值。當(dāng)這種不安感隨著數(shù)字文明時(shí)代的逐步擴(kuò)展進(jìn)入網(wǎng)絡(luò)社會(huì),在信任主體多維化的賽博空間構(gòu)建信任,成為媒介化社會(huì)關(guān)系網(wǎng)絡(luò)建立前提。
顯而易見,信任的討論離不開人這個(gè)主體。信任圍繞著互動(dòng)產(chǎn)生,按照這個(gè)邏輯,凡是能與人進(jìn)行互動(dòng)的對(duì)象均能作為信任的發(fā)生與接受的主體。那么對(duì)于算法與機(jī)器而言,將其納入信任傳播模式的構(gòu)建路徑中顯得尤為必要。算法,作為人工智能技術(shù)的本質(zhì),也是一種權(quán)力。??聦?quán)力視為一種關(guān)系,當(dāng)算法與人的關(guān)系在認(rèn)識(shí)論上偏向二元論框架時(shí),就會(huì)存在“算法神話”的理解,即強(qiáng)調(diào)了算法的無所不能?!盁o所不能”延伸出的并不一定是人們對(duì)算法的依賴,也可能是“算法黑箱”。算法或算法公司目標(biāo)與意圖的模糊性與不確定性增加了人與算法信任構(gòu)建的難度。算法作為人工智能技術(shù)的基石,將這一問題同樣延伸到了AIGC時(shí)代。如果說信任方是Trustor,目標(biāo)信任對(duì)象是Trustee,那么在人機(jī)協(xié)作中,Trustee可以是技術(shù)本身,也可以是技術(shù)提供者。人機(jī)合作中的信任是人向機(jī)器發(fā)起的意向行為,如尤斯拉納所說,“信任是通往合作的道路”,由此可見,人機(jī)共生、人機(jī)協(xié)同離不開信任的構(gòu)建,從人際關(guān)系到人機(jī)關(guān)系,呈現(xiàn)主體多維化趨勢(shì),但關(guān)系的構(gòu)建仍有一脈相通之處。
(二)信任關(guān)系的拓展:從人際關(guān)系到人機(jī)關(guān)系
信任主體的增加意味著關(guān)系的建立也實(shí)現(xiàn)從人際關(guān)系向人機(jī)關(guān)系的轉(zhuǎn)變,這種轉(zhuǎn)變并不是取代,而是信任關(guān)系的拓展。關(guān)系的建立一直是社會(huì)學(xué)討論的重點(diǎn)。從費(fèi)孝通的“差序格局”到李沛良“工具性差序格局”,都表明關(guān)系的理解是理解社會(huì)重要現(xiàn)象的重要基礎(chǔ)。關(guān)系的建立與工具主義導(dǎo)向密不可分,“關(guān)系是以交互性,即傳統(tǒng)的‘報(bào)’的概念為基礎(chǔ)的”。人際關(guān)系的工具屬性在于雙方互惠互利得以維持關(guān)系的繼續(xù)。工業(yè)時(shí)期,人與機(jī)器關(guān)系的建立同樣凸顯技術(shù)利己的特性。隨著時(shí)代的變遷,當(dāng)人工智能機(jī)器成為關(guān)系建立的對(duì)象,從人機(jī)協(xié)同到共存,人使用機(jī)器通常伴隨著輔助工作、提高效率、解放人力等提升人自由度的目的,而這種關(guān)系的建立是脆弱的。當(dāng)技術(shù)的成熟度與人類的信任不相匹配時(shí),便會(huì)出現(xiàn)危機(jī)。當(dāng)信任存在風(fēng)險(xiǎn),那么信任的產(chǎn)生就沒有必要性。因此,從人際到人機(jī)的關(guān)系的拓展,是一項(xiàng)需要逐步建立信任、強(qiáng)化信任、維持信任的過程。而發(fā)展可信的人工智能則需要在“人—技”關(guān)系問題上選擇并確定一個(gè)恰當(dāng)?shù)恼J(rèn)識(shí)論。
羅杰斯的“創(chuàng)新擴(kuò)散理論”為技術(shù)接受模型提供原始理論框架。數(shù)字文明時(shí)代,以人工智能為驅(qū)動(dòng)的人機(jī)交互技術(shù)已經(jīng)擴(kuò)散并與各類場(chǎng)景相融合。該技術(shù)的發(fā)展也為人機(jī)關(guān)系的形成奠定基礎(chǔ),而人機(jī)關(guān)系的發(fā)展也歷經(jīng)了從“人適應(yīng)機(jī)器”到“機(jī)器適應(yīng)人”的轉(zhuǎn)變。早期的人機(jī)關(guān)系呈分離狀態(tài),人作為適應(yīng)機(jī)器的存在,各方面受限于技術(shù)的用戶界面。隨著技術(shù)的演進(jìn),人類的“自然”交流方式和人類的情感逐漸被納入交互技術(shù)的考量之中。人機(jī)關(guān)系隨著技術(shù)發(fā)展動(dòng)態(tài)演變,當(dāng)下隨著技術(shù)形態(tài)的進(jìn)一步發(fā)展,以人工智能為核心的機(jī)器不僅能夠輔助個(gè)體達(dá)成目標(biāo),并能夠依據(jù)人類目標(biāo)不斷完善其智能性,實(shí)現(xiàn)人機(jī)雙向互動(dòng)。而這種狀態(tài)的維系,需要信任的支撐。塔德歐將數(shù)字環(huán)境下的信任稱為電子信任(E-trust),并否認(rèn)信任的產(chǎn)生需要直接的身體互動(dòng)的觀點(diǎn),這也說明人機(jī)關(guān)系中信任的建立在路徑上是可行的。
(三)信任場(chǎng)景的流動(dòng):從現(xiàn)實(shí)空間到虛擬空間
AIGC擁有數(shù)據(jù)巨量化、內(nèi)容創(chuàng)造力、跨模態(tài)融合以及認(rèn)知交互力的技術(shù)特征,這些特征融合在一起便具有了拓展個(gè)體認(rèn)知邊界、提高知識(shí)生產(chǎn)力、豐富創(chuàng)造能力的功用。盧曼認(rèn)為,“不管組織與理性計(jì)劃怎樣努力,人們不可能根據(jù)對(duì)行動(dòng)后果的可靠預(yù)測(cè)來指導(dǎo)所有的行動(dòng)。仍有剩余的不確定性有待處理,信任就是妥善安排這些不確定因素的角色。”AIGC時(shí)代,人工智能輔助生產(chǎn)便是消除人們不確定性的存在。當(dāng)人機(jī)共生成為常態(tài),信任的發(fā)生場(chǎng)景也就隨著信任對(duì)象遷移至虛擬空間中。人機(jī)共生有廣義與狹義之分,廣義的人機(jī)共生可以看作一種新的生存環(huán)境,而狹義的人機(jī)共生強(qiáng)調(diào)的是人新的生存狀態(tài)。當(dāng)討論信任場(chǎng)景流動(dòng)時(shí),我們關(guān)注的是廣義的人機(jī)共生。
數(shù)字化生存成為常態(tài),人們對(duì)于信任的獲取打破了地域、場(chǎng)景、時(shí)間的限制。當(dāng)人們不是依賴于具體生活環(huán)境取得信任時(shí),那么脫離具體情境的信任就會(huì)走到虛擬的時(shí)間和空間中去。吉登斯的“脫域”為信任場(chǎng)景的流動(dòng)提供理論支撐,其指的是社會(huì)關(guān)系從彼此互動(dòng)的地域性關(guān)聯(lián)中,從通過對(duì)不確定的時(shí)間的無限穿越而被重構(gòu)的關(guān)聯(lián)中脫離出來。當(dāng)人機(jī)共生成為一種新的生存環(huán)境,賽博格化的人成為虛擬空間中的存在,其關(guān)系的建立并不僅僅局限于現(xiàn)實(shí)空間中因地緣聯(lián)結(jié)的人,而是同樣包含了內(nèi)嵌于復(fù)雜虛擬社交網(wǎng)絡(luò)中的人工智能。也就是說,信任建立的場(chǎng)景已然朝向虛擬空間的“流動(dòng)”發(fā)生變化。那么如何在流動(dòng)的信任場(chǎng)景中構(gòu)建人機(jī)信任將成為傳播學(xué)考察的重點(diǎn),而基于任務(wù)技術(shù)匹配理論,人機(jī)信任傳播的構(gòu)建成為可能。
三、有效匹配:任務(wù)—技術(shù)匹配視角下人與機(jī)器信任塑造的關(guān)鍵地帶
人的本質(zhì)不是單個(gè)人所固有的抽象物,在其現(xiàn)實(shí)性上,它是一切社會(huì)關(guān)系的總和。當(dāng)前,在智能技術(shù)不斷發(fā)展和深度媒介化進(jìn)程不斷深入的背景下,媒介技術(shù)成為社會(huì)變革和向前發(fā)展的內(nèi)核程序(Kernel)。AIGC時(shí)代的技術(shù)發(fā)展已不再僅僅是對(duì)于人感知系統(tǒng)的重新整合,更是對(duì)傳統(tǒng)媒介社會(huì)的重新定義和全面超越,社會(huì)新的文明環(huán)境系統(tǒng)將由此落地達(dá)成。智能也是人、機(jī)和社會(huì)環(huán)境系統(tǒng)相互作用的產(chǎn)物。任務(wù)技術(shù)匹配模型(Task-Technology Fit)認(rèn)為信息技術(shù)對(duì)用戶的使用績(jī)效有顯著影響,用戶對(duì)技術(shù)使用的感知會(huì)隨著任務(wù)變化而改變,技術(shù)和任務(wù)只有有效匹配才能有助于提高工作績(jī)效。在當(dāng)前的技術(shù)環(huán)境下,如何實(shí)現(xiàn)“有效匹配”依然是研究的熱點(diǎn)話題。
智能是一個(gè)復(fù)雜系統(tǒng),想要厘清各個(gè)主體之間的關(guān)系,我們需要利用主體責(zé)任的思維來看。在這個(gè)復(fù)雜系統(tǒng)之中,人要解決的是“做正確的事”,機(jī)器要解決的是“正確地做事”,媒介環(huán)境要解決的是“提供做事平臺(tái)”。AI技術(shù)充分賦能媒介的社會(huì)系統(tǒng),這個(gè)混合智能系統(tǒng)需要的不僅是技術(shù)的強(qiáng)計(jì)算能力,更重要的是人的智慧,進(jìn)而形成一種理性與非理性、技術(shù)的計(jì)算和人的算計(jì)深度混合的智能系統(tǒng)。而要想實(shí)現(xiàn)各個(gè)主體之間的相互協(xié)作與系統(tǒng)效用最大化,一個(gè)關(guān)鍵的要素就是“信任”。要想準(zhǔn)確把握系統(tǒng)主體之間的信任要素建造邏輯,首先我們需要厘清智能主體之間的認(rèn)知模型。
(一)人的意向性與機(jī)器的形式化認(rèn)知因素
人類的認(rèn)知結(jié)構(gòu)可以分為“注意—意向—決策—感知與行為”,是通過后天習(xí)得的認(rèn)知能力來完成對(duì)外界環(huán)境的感知,是一種意向性的思維認(rèn)知。機(jī)器對(duì)外界環(huán)境的感知通路是通過傳感器,其認(rèn)知過程經(jīng)歷知識(shí)庫目標(biāo)層、任務(wù)計(jì)劃層、感知層和執(zhí)行層,進(jìn)而形成形式化思維。以人和機(jī)器對(duì)算法的認(rèn)知路徑為例,人們?cè)趯?duì)算法產(chǎn)生意向性后,此時(shí)算法已經(jīng)走向人們的日常生活,成為普遍性的分析和處理問題的方法,認(rèn)知到的新算法也成為人們認(rèn)識(shí)和理解世界的“方法革命”的新策源地;而機(jī)器將算法形式化,通過程序開發(fā)與計(jì)算機(jī)可以識(shí)別和執(zhí)行的具體指令實(shí)現(xiàn)算法操作的“計(jì)算機(jī)世界”。同時(shí),智能從一定程度上來說源于人的認(rèn)知方法,是人們適應(yīng)智能技術(shù)的產(chǎn)物,是人的認(rèn)知與智能技術(shù)內(nèi)在邏輯的交叉。兩類主體之間,技術(shù)是人類認(rèn)知的一種映射,這種映射在形式上將“我們是怎樣思考和解決問題的”這一看不見的腦中路徑以看得見的符號(hào)形式和符號(hào)變換過程表征出來,并成為機(jī)器的信息運(yùn)作規(guī)范,成為一種“鏡像”可以供人反過來闡釋自己的認(rèn)知。因此,人與機(jī)器在認(rèn)知世界的過程中具有相同的分層認(rèn)知架構(gòu),在不同層級(jí)之間會(huì)形成一定因果關(guān)系,在相同的層級(jí)之間會(huì)形成混合空間,而未來傳播的關(guān)鍵在于掌握混合層級(jí)之間的“恰好”。
(二)雙向信任:人機(jī)傳播過程中信任的建立過程
人機(jī)傳播是在技術(shù)嵌入的過程中形成的一種新的傳播模式。人的生活需要通過媒介實(shí)現(xiàn),媒介的價(jià)值需要人的發(fā)展實(shí)現(xiàn),二者的耦合共生直接決定了新媒介環(huán)境下人機(jī)傳播的新方式。首先,在傳播的輸入端,人機(jī)傳播內(nèi)容并不僅僅依靠機(jī)器這樣的硬件來收集主觀感知,而是通過智能技術(shù)把人與機(jī)器連接為知識(shí)生產(chǎn)的流水線,將人與機(jī)器兩個(gè)接觸點(diǎn)相結(jié)合,將人們的具身認(rèn)知與延展認(rèn)知集合為一個(gè)新的認(rèn)知系統(tǒng),先驗(yàn)知識(shí)形成一種新的輸入模式。其次,在傳播的信息處理階段,智能技術(shù)將人類的認(rèn)知模式優(yōu)勢(shì)與計(jì)算機(jī)的計(jì)算能力優(yōu)勢(shì)相結(jié)合,構(gòu)建成一種新的信息理解方式,人們將部分計(jì)算、推理、識(shí)別等功能移交給智能技術(shù),技術(shù)成為延展認(rèn)知的橋梁;在傳播的輸出端,技術(shù)將反作用于傳播者的影響力和整個(gè)社會(huì)操作系統(tǒng)的運(yùn)作效率,同時(shí)也使得知識(shí)的產(chǎn)生和運(yùn)用進(jìn)入一種新的組合方式,將人類決策的價(jià)值效用添加到智能技術(shù)的迭代之中,進(jìn)而實(shí)現(xiàn)傳播模式的進(jìn)化與迭代。在傳播互動(dòng)的過程中,人與機(jī)器的理解將會(huì)從單向度迭代為雙向化,機(jī)器不斷從人類積累的傳播資源中完成價(jià)值賦權(quán),人的主動(dòng)性與機(jī)器的被動(dòng)化交互在一起。
信任是一種心理狀態(tài),是指一方基于對(duì)關(guān)系中另外一方意圖或行為的正面期望而愿意承擔(dān)損失的傾向。媒介信任作為一種個(gè)體行為,是個(gè)體在調(diào)整對(duì)自身和媒介環(huán)境認(rèn)知的基礎(chǔ)上能動(dòng)反思,持續(xù)建構(gòu)的結(jié)果。而在人機(jī)傳播中,信任是預(yù)測(cè)傳播關(guān)系是否健康的一個(gè)重要指標(biāo),是交換關(guān)系的基礎(chǔ),是一種隨著社會(huì)關(guān)系出現(xiàn)或嵌入社會(huì)關(guān)系中的一種應(yīng)然屬性。人機(jī)互動(dòng)中的信任不是直接發(fā)生在人際之間,而是發(fā)生在人與智能系統(tǒng)的交互之中,信任的產(chǎn)生能夠幫助人們?cè)谂c智能系統(tǒng)的交互中克服不確定性。人機(jī)互動(dòng)過程中的信任會(huì)隨著合作狀態(tài)和信任主體的變化而變化,人機(jī)互動(dòng)中的信任是一個(gè)持續(xù)的關(guān)系,而不是一個(gè)靜態(tài)的概念,因此對(duì)于信任的理解應(yīng)該進(jìn)一步考慮信任主體雙方的合作動(dòng)態(tài)。建立默契的信任機(jī)制,可以在發(fā)揮人類智慧的同時(shí),合理運(yùn)用人工智能系統(tǒng)的高性能,實(shí)現(xiàn)技術(shù)資源的有效匹配。
技術(shù)本身蘊(yùn)含著對(duì)于個(gè)體行為的塑造與偏向,在人機(jī)交互過程中的信任演化可以分為兩個(gè)階段:初始型信任(Initial Trust)和持續(xù)型信任(continuous Trust)。初始型信任發(fā)生于人機(jī)交互之前,是信任方(人類)對(duì)于目標(biāo)信任主體(智能技術(shù))認(rèn)知不充分的條件下進(jìn)行預(yù)期責(zé)任的一種行為。在初始型信任階段,信任方會(huì)基于先前的認(rèn)知判斷作出理性決定進(jìn)而擴(kuò)展信任。持續(xù)型信任發(fā)生在人機(jī)交互之后,是信任方(人類)對(duì)于目標(biāo)信任主體(智能技術(shù))積累了一定的認(rèn)知條件,在具體的情境下完成互動(dòng)行為。持續(xù)型信任的本質(zhì)是將交互結(jié)果加入反饋路徑之中,交互的最終結(jié)果將會(huì)影響信任雙方的下一次互動(dòng)。
在一個(gè)充滿變量的人機(jī)交互系統(tǒng)中,信任的邏輯并不是必然或確定,而是一種可能性的同步,人機(jī)信任是一個(gè)變化過程。人機(jī)交互信任的建立過程,本質(zhì)上也是反映人們對(duì)于智能技術(shù)的心理預(yù)期建設(shè)與智能技術(shù)自身優(yōu)化效能的一種交互過程,這種交互過程是在人類與技術(shù)雙向互動(dòng)中逐步建立起來的(如圖1)。
四、信任校準(zhǔn):人機(jī)傳播協(xié)同演化的底層邏輯
正如前文所言,人機(jī)之間的信任程度是連續(xù)的,人機(jī)之間信任鏈的產(chǎn)生過程常常是:陌生—不信任—初始信任—持續(xù)信任—強(qiáng)信任。在這個(gè)過程中,信任在人機(jī)傳播中占有重要的作用,是溝通人與智能技術(shù)的橋梁。人們的智能媒介信任素養(yǎng)和智能技術(shù)發(fā)展水平要始終保持在正比例關(guān)系上,一旦偏離,便會(huì)產(chǎn)生過度信任和信任缺失。因此,如何完成信任校準(zhǔn)便成為了一個(gè)重要的課題。
(一)智能媒介信任素養(yǎng)與智能技術(shù)發(fā)展的價(jià)值對(duì)齊
如圖2所示,在良好的信任校準(zhǔn)過程中,人們的智能媒介信任素養(yǎng)與智能技術(shù)的發(fā)展程度處于動(dòng)態(tài)性變化中,兩者之間應(yīng)處于正比例關(guān)系,理想型的信任校準(zhǔn)處于直線上。如果人機(jī)傳播中的信任要素分布于直線上方,即人們的智能媒介信任素養(yǎng)超過了智能技術(shù)的發(fā)展程度,這就會(huì)導(dǎo)致過度信任的情況。當(dāng)我們向智能技術(shù)讓渡過度的媒介信任,減弱對(duì)智能技術(shù)的控制和監(jiān)管,就會(huì)出現(xiàn)秩序紊亂。如果人機(jī)傳播中的信任要素分布于直線下方,即人們的智能媒介信任素養(yǎng)低于智能技術(shù)的發(fā)展程度,就會(huì)產(chǎn)生信任缺失,導(dǎo)致智能技術(shù)的不充分利用甚至停用。我們要認(rèn)識(shí)到滯后的信任素養(yǎng)可能正成為智能技術(shù)發(fā)展的掣肘。“信任滯后”抑制了我們指導(dǎo)技術(shù)并明智、合乎道德和審慎地控制技術(shù)的能力,不能就現(xiàn)代技術(shù)的適當(dāng)應(yīng)用快速形成廣泛的社會(huì)共識(shí)。因而,人機(jī)交互過程中的“信任校準(zhǔn)”是指可感知信任與實(shí)際信任的平衡,對(duì)過度信任進(jìn)行抑制,而對(duì)信任不足進(jìn)行修復(fù)。
以當(dāng)前AIGC賦能媒介社會(huì)的發(fā)展來看,人與技術(shù)的相容相生、互相形塑為人的行為邊界擴(kuò)展與自由度提升乃至于個(gè)性的解放提供了可能。而要正確利用ChatGPT優(yōu)化人與技術(shù)的黏性,就需要信任校準(zhǔn)的參與過程。一方面,ChatGPT對(duì)于個(gè)體需求以及積極回應(yīng)達(dá)到了更為全面的狀態(tài),要想正確利用AI技術(shù)解決實(shí)現(xiàn)人類增強(qiáng),僅有技術(shù)的突破是遠(yuǎn)遠(yuǎn)不夠的,還需要人們形成與之匹配的大模型信任素養(yǎng)、智能技術(shù)信任素養(yǎng)等。另一方面,ChatGPT要學(xué)習(xí)人們不斷增長(zhǎng)的知識(shí)庫,針對(duì)對(duì)話進(jìn)行加強(qiáng),減少不恰當(dāng)回復(fù),讓人工智能模型的產(chǎn)出和人類的常識(shí)、認(rèn)知、需求、價(jià)值觀盡可能匹配。因此,信任的動(dòng)態(tài)調(diào)整過程也是技術(shù)與人、與社會(huì)之間的感知認(rèn)知一體化的過程,在調(diào)整的過程中實(shí)現(xiàn)自我修復(fù)和自我迭代,在動(dòng)態(tài)結(jié)構(gòu)中重塑社會(huì)信任模式。
(二)信任校準(zhǔn)的關(guān)鍵通路:發(fā)展可信的人工智能
智能技術(shù)與人類的生存不再是傳統(tǒng)的二元對(duì)立,技術(shù)發(fā)展所催生的人機(jī)同構(gòu)、人機(jī)共生的深度融合關(guān)系塑造了人類以技術(shù)為中介的生存樣態(tài)。唐·伊德認(rèn)為,說到底人和技術(shù)的關(guān)系是一種內(nèi)在的“存在論關(guān)系”模式。而人類與智能技術(shù)的關(guān)系應(yīng)該向存在論的內(nèi)在關(guān)系轉(zhuǎn)變。社會(huì)學(xué)家迪戈·甘貝塔(Diego Gambetta)認(rèn)為,信任是降低復(fù)雜性的一種有效形式。其實(shí),信任是必須被預(yù)設(shè)的內(nèi)在基本要素,它不是創(chuàng)造出來的,而是從社會(huì)關(guān)系中產(chǎn)生的。在人機(jī)傳播的模式中,人機(jī)交互已經(jīng)內(nèi)化成為人類社會(huì)存在的一部分,智能技術(shù)也是媒介社會(huì)的底層操作系統(tǒng),因此,發(fā)展可信的人工智能就是在這種社會(huì)關(guān)系和發(fā)展邏輯上被預(yù)設(shè)的。
發(fā)展可信人工智能的關(guān)鍵在于增強(qiáng)人工智能的可信任性,而不是謀求滿足人工智能對(duì)“類人信任”的前置條件。構(gòu)建并增強(qiáng)AI的可信任性,需要構(gòu)建一個(gè)值得被信任的社會(huì)技術(shù)系統(tǒng)。歐盟發(fā)布的可信AI倫理道德指南中建議可信AI系統(tǒng)需要滿足4項(xiàng)基本原則:一是尊重人類自治原則(the principle of respect for human autonomy),即智能技術(shù)的用戶應(yīng)能夠保持充分和有效的自我決策。同時(shí)智能技術(shù)系統(tǒng)的設(shè)計(jì)應(yīng)該以補(bǔ)充和增強(qiáng)人的能力為目的;二是傷害預(yù)防原則(the principle of prevention of harm),即AI系統(tǒng)不應(yīng)對(duì)用戶或環(huán)境造成傷害或加劇傷害,AI系統(tǒng)及其運(yùn)行環(huán)境必須是可靠的;三是公平性原則(the principle of fairness),即利益和成本的平等,通過公平分配以確保個(gè)體或群體不受不公平的偏見和歧視;四是可解釋性原則(the principle of explicability),即智能技術(shù)的能力和目的需要被公開,且需要盡可能使直接和間接受影響的人能夠理解系統(tǒng)的決策過程。生成式AI的信任構(gòu)建并不是一個(gè)短期的表現(xiàn)和過程,其形塑的新的模式、新的機(jī)制將會(huì)長(zhǎng)期影響且存在于信息生態(tài)之中。
如果說互聯(lián)網(wǎng)是信息傳播的成本和效率革命,即信息的零成本復(fù)制傳播,那么生成式AI則是信息生產(chǎn)的成本和效率革命,即有望形成信息和知識(shí)的零成本生產(chǎn)創(chuàng)造。的確,任何事物的發(fā)展都必將有一個(gè)泡沫的過程,盡管目前生成式AI有各樣的問題,存在著高度的不確定性,但我們不能目光僅僅聚焦于它的風(fēng)險(xiǎn)以及人們對(duì)其的依賴,而需要我們通過信任的視角去理解智能技術(shù)嵌入人類生活的方式。技術(shù)發(fā)展的最終目的仍是服務(wù)于人類的發(fā)展,如何充分利用好AIGC技術(shù),應(yīng)對(duì)可能存在的風(fēng)險(xiǎn),發(fā)展可信的人工智能,在前進(jìn)的過程中實(shí)現(xiàn)信任校準(zhǔn)和價(jià)值對(duì)齊,這應(yīng)是AI開發(fā)者、從業(yè)者、信息平臺(tái)和每個(gè)AI技術(shù)的使用者共同參與解決的。
五、結(jié)語
麥克盧漢在《理解媒介》中表明,新技術(shù)對(duì)社會(huì)變遷的影響從來不是沿著其出生目的那一方面線性的延伸,而是對(duì)整個(gè)社會(huì)有機(jī)體做的系統(tǒng)性“大手術(shù)”。新媒介以新的連接、新的標(biāo)準(zhǔn)和新的尺度構(gòu)造新的社會(huì),實(shí)現(xiàn)社會(huì)的再組織,信任也在持續(xù)不斷的人機(jī)交互中呈現(xiàn)組織動(dòng)態(tài)變化。當(dāng)信任的預(yù)期落空,感知到信任違反,信任校準(zhǔn)偏離,信任受損也隨之產(chǎn)生。尼爾·波茲曼在《技術(shù)壟斷:文化向技術(shù)投降》中提到“每一種技術(shù)既是包袱也是恩賜,不是非此即彼的結(jié)果,而是利弊同在的產(chǎn)物”。AIGC時(shí)代,分析當(dāng)前的技術(shù)背景與信任邊界有助于研判人機(jī)關(guān)系的新特征,預(yù)測(cè)與指導(dǎo)傳播生態(tài)良序發(fā)展。未來,AIGC還將進(jìn)一步深化社會(huì)深度媒介化的進(jìn)程,要想實(shí)現(xiàn)健康的人機(jī)傳播關(guān)系,實(shí)現(xiàn)人機(jī)協(xié)同與共生,在信任受損后的信任修復(fù)、信任再校準(zhǔn)(Trust Re-calibration)也是值得深入討論的話題。
參考文獻(xiàn):
①彭蘭:《人機(jī)傳播與交流的未來》,《湖南師范大學(xué)社會(huì)科學(xué)學(xué)報(bào)》2022年第5期。
②劉永安:《類人信任與可信任性:可信人工智能發(fā)展的路徑選擇》,《昆明理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第4期。
③Stiegler B. Technics and time, 1: The fault of Epimetheus. Stanford University Press, 1998, 1.
④胡翌霖、李詩:《擁抱碎片化的麥克盧漢——閱讀〈理解媒介〉的一種新視角》,《中國傳媒科技》2021年第10期。
⑤〔美〕唐·伊德:《讓事物“說話”:后現(xiàn)象學(xué)與技術(shù)科學(xué)》,韓連慶譯,北京大學(xué)出版社2008年版,第10-15頁。
⑥鄭也夫:《信任:溯源與定義》,《北京社會(huì)科學(xué)》1999年第4期。
⑦Georg S, Tom B, David F. The philosophy of money. Trans. Tom Bottomore and David Frisby. New York: Routledge, 1978.
⑧王佳鵬:《作為純粹媒介的貨幣:作為媒介理論的“貨幣哲學(xué)”》,《國際新聞界》2022年第7期。
⑨Schoeller F, Miller M, Salomon R,et al. Trust as extended control: Human-machine interactions as active inference. Frontiers in Systems Neuroscience, Frontiers Media SA, 2021, 15: 669810.
⑩Hardin R. The street-level epistemology of trust. Politics & society, SAGE Periodicals Press, 1993, 21(4): 505–529.
張康之:《在歷史的坐標(biāo)中看信任——論信任的三種歷史類型》,《社會(huì)科學(xué)研究》2005年第1期。
張乾友:《論不確定性中的信任》,《道德與文明》2013年第6期。
翟學(xué)偉:《信任與風(fēng)險(xiǎn)社會(huì)——西方理論與中國問題》,《社會(huì)科學(xué)研究》2008年第4期。
喻國明、楊瑩瑩、閆巧妹:《算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命》,《編輯之友》2018年第5期。
陳炳輝:《??碌臋?quán)力觀》,《廈門大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2002年第4期。
毛湛文、孫曌聞:《從“算法神話”到“算法調(diào)節(jié)”:新聞透明性原則在算法分發(fā)平臺(tái)的實(shí)踐限度研究》,《國際新聞界》2020年第7期。
Siau K, Wang W. Building trust in artificial intelligence, machine learning, and robotics. Cutter business technology journal, 2018, 31(2): 47–53.
〔美〕埃里克·尤斯拉納:《信任的道德基礎(chǔ)》,張敦敏譯,中國社會(huì)科學(xué)出版社2006年版,第 3 頁。
孫立平:《“關(guān)系”、社會(huì)關(guān)系與社會(huì)結(jié)構(gòu)》,《社會(huì)學(xué)研究》1996年第5期。
Gold T B. After comradeship: personal relations in China since the Cultural Revolution. The China Quarterly, Cambridge University Press, 1985, 104: 657–675.
楊子瑩:《人機(jī)交互關(guān)系中的信任問題研究》,大連理工大學(xué)2022年碩士研究生論文。
Taddeo M. Defining trust and e-trust: from old theories to new problems. International journal of technology and human interaction (IJTHI), IGI Global, 2009, 5(2): 23-35.
李白楊、白云、詹希旎等:《人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進(jìn)》,《圖書情報(bào)知識(shí)》2023年第1期。
汪磊:《人而非自然的話語:脫域演進(jìn)中社會(huì)信任的式微與重建》,《中南大學(xué)學(xué)報(bào)》2023年第3期。
彭蘭:《從ChatGPT透視智能傳播與人機(jī)關(guān)系的全景及前景》,《新聞大學(xué)》2023年第4期。
〔英〕安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,譯林出版社2000年版,第 69-72頁。
〔德〕馬克思、恩格斯:《馬克思恩格斯選集》第1卷,人民出版社1995年版,第56頁。
Goodhue D L, Thompson R L.Task-technology fit and individual performance. MIS quarterly, 1995:213-236.
劉偉:《人機(jī)混合智能:新一代智能系統(tǒng)的發(fā)展趨勢(shì)》,《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第1期。
肖峰:《認(rèn)知的算法闡釋:人工智能對(duì)當(dāng)代認(rèn)識(shí)論研究的啟示》,《學(xué)術(shù)界》2021年第2期。
喻國明、滕文強(qiáng)、郅慧:《元宇宙推動(dòng)社會(huì)“重新部落化”的底層邏輯與關(guān)鍵入口》,《未來傳播》2022年第6期。
段偉文:《深度智能化時(shí)代算法認(rèn)知的倫理與政治審視》,《中國人民大學(xué)學(xué)報(bào)》2022年第3期。
Rousseau D M,Sitkin S B,Burt R S,et al. Not so different after all:A cross-discipline view of trust.Academy of management review,1998,23(3):393-404.
趙梓昕、臧志彭:《激勵(lì)與治理:社會(huì)認(rèn)知視角下平臺(tái)型媒體的媒介信任機(jī)制——基于身份認(rèn)同的中介效應(yīng)實(shí)證》,《科學(xué)與管理》2023年6月網(wǎng)絡(luò)首發(fā)。
ITOH M,Pacaux-Lemoine M P.Trust View from the Human-Machine Cooperation Framework.2018IEEE International Conference on Systems,Man,and Cybernetics (SMC).IEEE,2018.
朱翼:《行為科學(xué)視角下人機(jī)信任的影響因素初探》,《國防科技》2021年第4期。
Visser D J E,Peeters M M M,Jung F M, et al. Towards a Theory of Longitudinal Trust Calibration in Human–Robot Teams. International Journal of Social Robotics,2020,12(2),459-478.
喻國明、滕文強(qiáng)、郅慧:《ChatGPT浪潮下媒介生態(tài)系統(tǒng)演化的再認(rèn)知——基于自組織涌現(xiàn)范式的分析》,《新聞與寫作》2023年第4期。
楊雅、滕文強(qiáng)、楊嘉儀:《流動(dòng)·互塑·共生:AIGG時(shí)代“人—機(jī)”關(guān)系新范式》,《社會(huì)治理》2023年第4期。
張璐:《淺談唐·伊德的人—技關(guān)系理論中的四種關(guān)系》,《吉林省教育學(xué)院學(xué)報(bào)(下旬)》2014年第9期。
于雪:《基于機(jī)器能動(dòng)性的人機(jī)交互信任建構(gòu)》,《自然辯證法研究》2022年第10期。
COECKELBERGH M.Can we trust robots?[J].Ethics and Information Technology,2012,14(1).
劉永安:《類人信任與可信任性:可信人工智能發(fā)展的路徑選擇》,《昆明理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第4期。
European Commission. Ethics guidelines for trustworthy AI. Publications Office of the European Union,2019.https://op.europa.eu/en publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1.
李功源、劉博涵、楊雨豪等:《可信人工智能系統(tǒng)的質(zhì)量屬性與實(shí)現(xiàn):三級(jí)研究》,《軟件學(xué)報(bào)》2023年第9期。
喻國明、滕文強(qiáng):《生成式AI對(duì)短視頻的生態(tài)賦能與價(jià)值迭代》,《學(xué)術(shù)探索》2023年第7期。
曹建峰:《邁向可信AI:ChatGPT類生成式人工智能的治理挑戰(zhàn)及應(yīng)對(duì)》,《上海政法學(xué)院學(xué)報(bào)(法治論叢)》2023年第4期。
喻國明:《生成式內(nèi)容生產(chǎn)崛起環(huán)境下社會(huì)協(xié)同治理的一項(xiàng)重要舉措——試論全過程式AIGC標(biāo)識(shí)的重要性與必要性》,《青年記者》2023年第11期。
喻國明、滕文強(qiáng)、王希賢:《分布式社會(huì)的再組織:基于傳播學(xué)的觀點(diǎn)——社會(huì)深度媒介化進(jìn)程中協(xié)同創(chuàng)新理論的實(shí)踐邏輯》,《學(xué)術(shù)界》2022年第7期。
〔美〕尼爾· 波茲曼:《技術(shù)壟斷:文化向技術(shù)投降 = Technopoly the surrender of culture to technology》,何道寬譯,中信出版集團(tuán)股份有限公司2019年版,第126頁。
齊佳音、張亞:《人—機(jī)器人信任修復(fù)與信任再校準(zhǔn)研究》,《機(jī)器人產(chǎn)業(yè)》2021年第4期。
(作者喻國明系教育部“長(zhǎng)江學(xué)者”特聘教授、北京師范大學(xué)傳播創(chuàng)新與未來媒體實(shí)驗(yàn)平臺(tái)主任、中國新聞史學(xué)會(huì)傳媒經(jīng)濟(jì)與管理專業(yè)委員會(huì)理事長(zhǎng);滕文強(qiáng)系北京師范大學(xué)新聞傳播學(xué)院博士研究生;武迪系北京師范大學(xué)傳播創(chuàng)新與未來媒體實(shí)驗(yàn)平臺(tái)研究助理)
【責(zé)任編輯:李林】