王鵬濤 徐潤婕
由美國人工智能實(shí)驗(yàn)室OpenAI研發(fā)的生成型預(yù)訓(xùn)練聊天機(jī)器人ChatGPT(Chat Generative Pre-trained Transformer)于2022年底蓬勃興起,被視為繼2016年出現(xiàn)的AlphaGo之后又一項(xiàng)重大的人工智能技術(shù)創(chuàng)新。ChatGPT是人工智能生成內(nèi)容(Artificial Intelligence Generated Content, AIGC)技術(shù)的產(chǎn)品形態(tài)之一,本質(zhì)上是基于神經(jīng)網(wǎng)絡(luò)的自然語言處理(Natural Language Processing, NLP)模型,相較于前人工智能產(chǎn)品擁有更豐富的知識(shí)儲(chǔ)備和更高超的語言交互能力,在文本生成、圖像生成、代碼開發(fā)等內(nèi)容生產(chǎn)領(lǐng)域表現(xiàn)出色,一定程度上能媲美人類智能。毫無疑問,從事知識(shí)生產(chǎn)與傳播活動(dòng)的出版業(yè)將不可避免地被卷入這場(chǎng)洪流,尤其是AIGC技術(shù)將以創(chuàng)作者身份介入學(xué)術(shù)知識(shí)生產(chǎn)活動(dòng),科研人員不再是唯一的學(xué)術(shù)知識(shí)創(chuàng)造者。技術(shù)本身及其參與內(nèi)容生產(chǎn)過程中的諸多不確定性因素的加入致使學(xué)術(shù)出版新場(chǎng)景超出既有信任機(jī)制的調(diào)控范圍,伺機(jī)泛濫的非理性行為威脅著公平公正的學(xué)術(shù)秩序,嚴(yán)重?fù)p害其對(duì)學(xué)術(shù)共同體的約束與激勵(lì)效能,極可能引發(fā)更大范圍且更深層次的學(xué)術(shù)混亂,良性運(yùn)作的學(xué)術(shù)生態(tài)隨時(shí)面臨崩塌風(fēng)險(xiǎn)。為推動(dòng)學(xué)術(shù)出版智能化變革成功落地,除廣泛布局AIGC技術(shù)介入的場(chǎng)景之外,更需要及時(shí)筑牢行業(yè)重塑的基石,即保證AIGC技術(shù)介入知識(shí)生產(chǎn)活動(dòng)后的學(xué)術(shù)出版物繼續(xù)得到學(xué)術(shù)共同體的信任。
AIGC技術(shù)憑借強(qiáng)大的內(nèi)容創(chuàng)作本領(lǐng)在學(xué)術(shù)知識(shí)生產(chǎn)活動(dòng)中大有可為,本研究基于學(xué)術(shù)知識(shí)生產(chǎn)周期視角剖析AIGC技術(shù)介入的具體場(chǎng)景,以驗(yàn)證二者的耦合性。
據(jù)美國科學(xué)基金會(huì)(National Science Foundation,NSF)統(tǒng)計(jì),科研人員查找和消化科技資源的時(shí)間在全部科研時(shí)間中占比高達(dá)51%[1]。受科研人員生理?xiàng)l件、語言能力與科研工具等的限制,他們?cè)诳萍假Y源獲取與分析的準(zhǔn)確性、完整性與及時(shí)性等方面面臨嚴(yán)峻考驗(yàn)。AIGC技術(shù)或?qū)⑷〈貜?fù)性工作,大幅提升科研效能。一方面,它根據(jù)用戶發(fā)出的指令跨語言和跨數(shù)據(jù)庫地檢索相關(guān)文獻(xiàn),將最大范圍內(nèi)的代表性文獻(xiàn)進(jìn)行匯總和整理后呈現(xiàn)在用戶面前。另一方面,基于海量關(guān)聯(lián)的文獻(xiàn)數(shù)據(jù),AIGC技術(shù)可以捕捉文本序列中的依賴關(guān)系,進(jìn)一步理解和分析文本內(nèi)容,根據(jù)任務(wù)要求自動(dòng)生成簡(jiǎn)潔且連貫的文本摘要、文獻(xiàn)綜述或研究大綱,為下游科研任務(wù)提供充分支持[2]。
萬物互聯(lián)情境下的大數(shù)據(jù)已然成為科學(xué)研究與真實(shí)世界之間的擬態(tài)環(huán)境,科研人員試圖通過挖掘海量數(shù)據(jù)背后隱藏的規(guī)律來揭示事物間的復(fù)雜關(guān)系,數(shù)據(jù)密集型科研范式已經(jīng)來臨。AIGC技術(shù)擅長快速完成數(shù)據(jù)建模、分析與可視化,識(shí)別人類難以察覺的趨勢(shì)并作出精準(zhǔn)預(yù)測(cè),有效拓展科研人員在“數(shù)據(jù)洪流”下的研究能力。不僅如此,AIGC將催生科學(xué)研究第五范式——科學(xué)智能范式(AI for Science)[3]。機(jī)器不再滿足于科研輔助角色,而是以“智能科學(xué)家”身份完成對(duì)科學(xué)問題的提出、論證以及結(jié)果整合與呈現(xiàn)全過程,尤其為自然科學(xué)研究帶來顛覆性變革[4]。
AIGC技術(shù)的啟發(fā)性內(nèi)容生成能力對(duì)人文社科影響深遠(yuǎn)。在知識(shí)推理上,AIGC技術(shù)能夠模擬人腦思維方式并持續(xù)優(yōu)化“思維”能力,通過思維鏈(Chain-of-Thought, CoT)完成一系列復(fù)雜推理任務(wù)[5]。人們只需提供推理的前提和目的,它就能生產(chǎn)單詞與單詞之間邏輯一致的文本內(nèi)容,高度還原客觀知識(shí)本身。在知識(shí)表達(dá)上,AIGC技術(shù)能夠基于推理過程連貫地表達(dá)學(xué)術(shù)觀點(diǎn),通過解讀人類模塊化撰稿的各種特征,模仿不同科研人員內(nèi)容創(chuàng)作的句子結(jié)構(gòu)、表達(dá)習(xí)慣等進(jìn)行續(xù)寫,或根據(jù)不同期刊風(fēng)格對(duì)論文進(jìn)行改寫和潤色。
學(xué)術(shù)出版是由科研人員、編輯甚至智能機(jī)器共同參與的知識(shí)生產(chǎn)與傳播活動(dòng),必然依賴“信任”驅(qū)動(dòng)。當(dāng)代社會(huì)系統(tǒng)理論的創(chuàng)始人Luhmann認(rèn)為,信任是社會(huì)復(fù)雜性的簡(jiǎn)化機(jī)制[6]30,人們?cè)诿媾R復(fù)雜社會(huì)中各種行為后果的不確定性時(shí),通過信任或不信任來簡(jiǎn)化行為選擇過程,“信任”意味著人們能夠意識(shí)到并接受不確定性帶來的風(fēng)險(xiǎn)。而AIGC介入學(xué)術(shù)知識(shí)生產(chǎn)帶來新的不確定性因素致使學(xué)術(shù)共同體信任風(fēng)險(xiǎn)增長或轉(zhuǎn)向,干擾現(xiàn)有信任機(jī)制作用效度,因而人們通常選擇持有“懷疑”或“不信任”的態(tài)度以規(guī)避風(fēng)險(xiǎn)。事實(shí)上,人們對(duì)一系列人工智能技術(shù)影響的認(rèn)知并不樂觀,世界頂級(jí)公關(guān)公司Edelman發(fā)布的2020年信任度調(diào)查報(bào)告顯示,全球受訪者中僅44%認(rèn)為人工智能的影響是積極的[7]。由于“信任”是風(fēng)險(xiǎn)性與收益性的統(tǒng)一體,學(xué)術(shù)共同體在放棄“信任”的同時(shí)也將失去諸多收益與機(jī)會(huì),甚至導(dǎo)致行業(yè)因無法進(jìn)行改造和升級(jí)而面臨發(fā)展困境[8]。鑒于此,學(xué)術(shù)出版界有必要審視因AIGC技術(shù)介入學(xué)術(shù)知識(shí)生產(chǎn)活動(dòng)而產(chǎn)生的信任危機(jī)以明確信任機(jī)制重塑的方向。
AIGC具備算據(jù)、算法和算力三要素,它在算力上的突破無可厚非,但算據(jù)和算法上的局限性致使學(xué)術(shù)共同體對(duì)其結(jié)果的可靠性產(chǎn)生懷疑。
(1)由算據(jù)和算法引發(fā)的結(jié)果準(zhǔn)確性、科學(xué)性和倫理性風(fēng)險(xiǎn)
AIGC訓(xùn)練數(shù)據(jù)的真實(shí)性與全面性直接決定內(nèi)容生產(chǎn)結(jié)果的準(zhǔn)確性,缺乏準(zhǔn)確度的內(nèi)容不足以成為“知識(shí)”。當(dāng)大量未經(jīng)審核的數(shù)據(jù)被“投喂”給AIGC算法,或其并未針對(duì)某一領(lǐng)域的數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),它極有可能針對(duì)該領(lǐng)域的問題捏造出看似完整卻無可信信源的回答。例如,現(xiàn)階段ChatGPT的訓(xùn)練數(shù)據(jù)截至2021年,它暫不能為關(guān)于2022年及之后的問題提供精準(zhǔn)答案。另一方面,AIGC的深度學(xué)習(xí)算法能夠自動(dòng)確定系統(tǒng)參數(shù)并實(shí)現(xiàn)動(dòng)態(tài)運(yùn)行,其內(nèi)部運(yùn)作流程是一個(gè)不可理解的“黑箱”[9],人類暫無法窺探、干預(yù)和驗(yàn)證內(nèi)容生產(chǎn)過程,結(jié)果的科學(xué)性實(shí)難令學(xué)術(shù)共同體信服。
AIGC算據(jù)與算法的“人工物”屬性,表明它將不可避免地繼承人類有意或無意灌輸?shù)膬r(jià)值理念,進(jìn)而可能形成對(duì)某群體或個(gè)人的算法偏見或算法歧視,其內(nèi)容生產(chǎn)結(jié)果的客觀性難以獲得學(xué)術(shù)共同體認(rèn)同。這些偏見一部分來源于算法設(shè)計(jì)者在模型開發(fā)階段注入的主觀意識(shí)和權(quán)力關(guān)系,另一部分來自涵蓋落后社會(huì)觀念、病毒性歧視[10]或范疇化的輸入數(shù)據(jù)、學(xué)習(xí)數(shù)據(jù)和交互數(shù)據(jù)。
(2)人工智能的知識(shí)創(chuàng)造與創(chuàng)新能力存疑
相較于新聞、小說、視頻腳本等,學(xué)術(shù)出版對(duì)內(nèi)容創(chuàng)新性有更嚴(yán)格的要求。人類知識(shí)生產(chǎn)活動(dòng)正是知識(shí)創(chuàng)新的過程,英國社會(huì)學(xué)家Gibbons提出人類知識(shí)生產(chǎn)的兩種模式:一種是進(jìn)行高度抽象化學(xué)術(shù)探討的“洪堡模式”,另一種是致力于解決社會(huì)現(xiàn)實(shí)問題的“后洪堡模式”[11]。二者都是基于對(duì)先驗(yàn)知識(shí)的理解并通過思考、直覺、聯(lián)想、頓悟等多種邏輯和非邏輯方式進(jìn)行的批判性創(chuàng)新,其發(fā)展方向受社會(huì)價(jià)值觀指引,后者甚至強(qiáng)調(diào)知識(shí)要為實(shí)踐服務(wù)以實(shí)現(xiàn)其價(jià)值。然而,AIGC內(nèi)容生產(chǎn)是基于知識(shí)庫和邏輯規(guī)則進(jìn)行的“知識(shí)計(jì)算”,它難以參透知識(shí)深層次的因果性關(guān)系,缺乏扎根于實(shí)踐環(huán)境對(duì)知識(shí)的多維理解,且極有可能脫離道德約束,生產(chǎn)結(jié)果的創(chuàng)新性、向善性與可應(yīng)用性尚不可知[12-13]。
(1)人機(jī)“準(zhǔn)社會(huì)交往”關(guān)系中科研人員理性的流失
AIGC技術(shù)憑借類人化特性在學(xué)術(shù)知識(shí)生產(chǎn)中被視為超越單純工具屬性的“合作者”,科研人員極可能對(duì)其產(chǎn)生依戀并形成基于想象的人際關(guān)系,這在心理學(xué)界被稱為“準(zhǔn)社會(huì)交往”(Para-social Interaction,PSI)[14]。這種關(guān)系一定程度上抑制科研人員理性的發(fā)揮,來自人和機(jī)器的“盲目意志與行為”具有可乘之機(jī)。一是科研人員可能過度依賴AIGC進(jìn)行論文寫作甚至邏輯分析,學(xué)術(shù)共同體不易從雜糅的內(nèi)容中清楚地分辨各部分內(nèi)容的真正創(chuàng)作者,從而對(duì)科研人員實(shí)際貢獻(xiàn)度產(chǎn)生懷疑。二是由于AIGC暫不受倫理道德的約束,獨(dú)立思考能力日益弱化的科研人員容易在不自知的情況下被誘導(dǎo)從事惡性行為。
(2)責(zé)任界限模糊致使各主體行為缺乏有效約束
傳統(tǒng)學(xué)術(shù)出版活動(dòng)中,科研人員作為單一的知識(shí)生產(chǎn)主體,是科研活動(dòng)的主要貢獻(xiàn)者和責(zé)任承擔(dān)者。然而,對(duì)于即將出現(xiàn)的“合作”局面,目前并沒有明晰的歸責(zé)方案。AIGC技術(shù)雖有近乎人類智能的內(nèi)容生產(chǎn)本領(lǐng),卻沒有物理實(shí)體屬性,且不具備獨(dú)立辨識(shí)和自控的能力,目前還未被認(rèn)定為“作者”,更不能對(duì)自身行為負(fù)責(zé)。AIGC內(nèi)容生產(chǎn)行為的實(shí)施是其研發(fā)者、使用者等多主體共同作用的結(jié)果,任意一方都不愿承擔(dān)全部責(zé)任甚至可能相互推卸責(zé)任。若科研人員能夠無限制地使用AIGC技術(shù),又不用為行為后果負(fù)責(zé),他們很可能縱容其幫助自己開展投機(jī)利己活動(dòng),嚴(yán)重危害學(xué)術(shù)出版的穩(wěn)定健康發(fā)展。
傳統(tǒng)學(xué)術(shù)交流局限于以會(huì)晤、信件等方式在“熟人”小團(tuán)體內(nèi)進(jìn)行,學(xué)術(shù)共同體基于內(nèi)部特定聯(lián)系建立點(diǎn)對(duì)點(diǎn)信任。隨著印刷媒介等因素推動(dòng)學(xué)術(shù)出版規(guī)模擴(kuò)張,學(xué)術(shù)交流拓展至“陌生人”群體,“差序格局”致使僅憑內(nèi)部關(guān)系建立的信任難以為繼,轉(zhuǎn)而借助以制度為基礎(chǔ)的外部關(guān)系鞏固信任。制度信任是當(dāng)前學(xué)術(shù)出版信任的支柱,但制度的先天缺陷與后天實(shí)施偏差使其原本就存在信任危機(jī),并隨AIGC介入而愈發(fā)尖銳。
(1)AIGC加劇學(xué)術(shù)出版中心化制度的權(quán)威消解
學(xué)術(shù)出版制度信任集中體現(xiàn)于同行評(píng)議這一“學(xué)術(shù)守門”制度,它在科研人員、編輯與評(píng)審專家之間建立信任,使其相信通過評(píng)議的學(xué)術(shù)成果是嚴(yán)謹(jǐn)且有意義的[15],但該制度的靈活性與專業(yè)性現(xiàn)已受到挑戰(zhàn)。得益于AIGC,研究者不僅有精力創(chuàng)造更多具備時(shí)效性和突破性的成果,還得以在學(xué)科交叉和細(xì)分的非傳統(tǒng)領(lǐng)域深化創(chuàng)新。然而,同行評(píng)議更青睞保守研究,這在一定程度上遏制AIGC使用者對(duì)科研突破的追求[16];同時(shí),精準(zhǔn)識(shí)別能勝任創(chuàng)新領(lǐng)域?qū)徃迦蝿?wù)的“小同行”更加困難,評(píng)議實(shí)施主客體的適配性低將引發(fā)學(xué)術(shù)共同體對(duì)結(jié)果權(quán)威性的質(zhì)疑。
(2)AIGC放大封閉性制度下的學(xué)術(shù)出版公平隱患
現(xiàn)行同行評(píng)議主要采用單一線性審稿模式,科研人員、編輯、評(píng)審專家等多方因信息不對(duì)稱而不具備平衡的出版話語權(quán),該弊端隨AIGC介入而愈加凸顯??蒲腥藛T利用AIGC開展研究,無形中加大評(píng)審專家對(duì)數(shù)據(jù)處理和操作細(xì)節(jié)的理解與評(píng)判難度,且評(píng)審過程并不透明,科研人員因不能知悉和監(jiān)督評(píng)議過程而處于被動(dòng)地位,評(píng)審偏差、主觀偏見、權(quán)力尋租等現(xiàn)象極可能肆意滋長。由于制度信任結(jié)構(gòu)要求學(xué)術(shù)共同體讓渡部分自由和權(quán)力,當(dāng)中心化制度的干涉程度高并且無法針對(duì)AIGC介入行為有效發(fā)揮信任保障職能時(shí),就會(huì)造成學(xué)術(shù)共同體制度信任的缺失。
AIGC正在革新學(xué)術(shù)知識(shí)生產(chǎn)活動(dòng),根植于前知識(shí)生產(chǎn)范式的學(xué)術(shù)出版信任面臨重重危機(jī),學(xué)術(shù)出版界呼喚新的信任機(jī)制登場(chǎng)。新的學(xué)術(shù)出版信任應(yīng)以何為置信基礎(chǔ)?本文基于“摩爾定律”和張權(quán)的觀點(diǎn)認(rèn)為,技術(shù)的更新迭代在一定程度上實(shí)現(xiàn)對(duì)困境的自我突破,以技術(shù)進(jìn)步為基礎(chǔ)置予信任成為新技術(shù)背景下學(xué)術(shù)出版信任機(jī)制重構(gòu)的突破口[17]。再者,技術(shù)發(fā)展與其所處的社會(huì)系統(tǒng)緊密相連,并且實(shí)質(zhì)上反映“人”的思維和行動(dòng),技術(shù)自身并不能消弭由其引發(fā)的所有不確定性,學(xué)術(shù)出版界必然要從社會(huì)系統(tǒng)與人類的本質(zhì)屬性出發(fā)實(shí)現(xiàn)對(duì)風(fēng)險(xiǎn)的防控。因此,本文將建構(gòu)技術(shù)信任、制度信任與人際信任三維協(xié)同的學(xué)術(shù)出版信任機(jī)制體系。
Davis提出的技術(shù)接受模型(Technology Acceptance Model, TAM)將感知有用性和感知易用性視為用戶接受新技術(shù)的決定性因素[18],適用于分析互聯(lián)網(wǎng)技術(shù)的用戶接受程度。與之不同,人工智能技術(shù)愈發(fā)智能化、自動(dòng)化與個(gè)性化,一定程度上消解傳統(tǒng)互聯(lián)網(wǎng)技術(shù)面臨的易用性問題[19],但也致使新的不確定性產(chǎn)生,最為典型的是由機(jī)器能動(dòng)性增強(qiáng)引發(fā)的一系列倫理問題?;诖?,Choung等[20]提出人工智能信任的兩個(gè)關(guān)鍵維度:功能性信任和類人性信任。AIGC介入下的學(xué)術(shù)出版技術(shù)信任同樣包含這雙重維度。
具體來看,功能性信任是指AIGC技術(shù)在學(xué)術(shù)出版領(lǐng)域的可用性、幫助性、可靠性與可知性等??捎眯灾讣夹g(shù)能夠切實(shí)提升知識(shí)生產(chǎn)效率;幫助性則指的是算法做出的決策符合科研人員的真正需求,技術(shù)的幫助性會(huì)直接影響學(xué)術(shù)共同體對(duì)算法可用性的感知,使技術(shù)介入的知識(shí)成果與學(xué)術(shù)共同體期望一致;可靠性是指技術(shù)產(chǎn)品安全且穩(wěn)定,能夠在一段時(shí)間內(nèi)無故障地運(yùn)行;可知性是指算法能向用戶解釋決策過程和結(jié)果客觀性的程度,即這個(gè)結(jié)果是為何及如何被算法提供的[21],由此提升學(xué)術(shù)共同體對(duì)技術(shù)的熟悉程度,并增強(qiáng)其對(duì)自動(dòng)化的人工智能技術(shù)的可控性。類人性信任則是指AIGC算法應(yīng)被賦予社會(huì)道德與學(xué)術(shù)倫理等相關(guān)特性,如隱私保護(hù)、學(xué)術(shù)誠信與避免偏見等。
面臨AIGC帶來的產(chǎn)業(yè)變革,學(xué)術(shù)出版環(huán)境在一段時(shí)間內(nèi)表現(xiàn)出的不穩(wěn)定性使學(xué)術(shù)共同體對(duì)自身的認(rèn)同連續(xù)性及所處環(huán)境的恒常性喪失信心,強(qiáng)烈的不安全感使其對(duì)智能技術(shù)產(chǎn)生排斥反應(yīng)。技術(shù)引發(fā)的所有不確定性并不能被技術(shù)及其有關(guān)的“人”完美化解,必須依靠“其他不依賴于人格因素的建立信任的方式”[6]61。規(guī)范化與模式化的外在性制度使各方行為具有更大的可預(yù)測(cè)性,強(qiáng)化學(xué)術(shù)共同體的“本體安全感”,保障技術(shù)信任的有效實(shí)施。
Zucker將制度信任劃分為第三方認(rèn)證和由第三者保存附帶條件委付蓋印的契約兩種形式,第一種形式用許可證、執(zhí)照、規(guī)范性文件等方式來認(rèn)定可信任行為,第二種形式通常在商業(yè)活動(dòng)中為交易雙方提供獲得預(yù)期結(jié)果的保證[22]?;诖?,McKnight等提出制度信任的結(jié)構(gòu)保證和情境規(guī)范兩個(gè)維度,前者涵蓋由Zucker提出的兩種制度信任形式,后者則是通過慣例、習(xí)慣、規(guī)則等方式有效防范風(fēng)險(xiǎn)[23]。隨后,Pavlou等提出促進(jìn)條件維度,即關(guān)于過程和結(jié)果的共同標(biāo)準(zhǔn)、價(jià)值追求等內(nèi)在規(guī)范性機(jī)制[22]。在學(xué)術(shù)出版領(lǐng)域,制度信任同樣包含結(jié)構(gòu)保證、情境規(guī)范和促進(jìn)條件三個(gè)維度,表現(xiàn)為同行評(píng)議、出版合同、學(xué)術(shù)誠信規(guī)范等具體形式。同時(shí),治理型技術(shù)的嵌入將最大限度克服制度信任存在的弊端,例如將區(qū)塊鏈技術(shù)應(yīng)用于同行評(píng)議,削弱非技術(shù)信任對(duì)人類主觀意志的高度依賴,以客觀信任系統(tǒng)規(guī)制各主體行為[24]。由此,學(xué)術(shù)共同體逐步提升“本體性安全感”,進(jìn)而接納AIGC更廣泛地參與到學(xué)術(shù)出版活動(dòng)中。
包括AIGC在內(nèi)的一切技術(shù)都是人類為增強(qiáng)自身環(huán)境適應(yīng)能力而創(chuàng)造的工具,不可避免地反映著人類特有的意識(shí)形態(tài)。換言之,技術(shù)承載著“那些設(shè)計(jì)、接收和維持技術(shù)的人的價(jià)值觀與世界觀、聰明與愚蠢、傾向與既得利益”[25]。因此,AIGC技術(shù)信任從根本上來看是人對(duì)人的信任,是對(duì)AIGC技術(shù)設(shè)計(jì)者、開發(fā)者、運(yùn)營者、使用者、監(jiān)督者、管理者甚至潛在破壞者的信賴[26]。制度信任本質(zhì)上是硬性的“他律”,其根本目的是將外在約束內(nèi)化為人類的“自律”意識(shí),使技術(shù)信任、制度信任回歸人際信任。
學(xué)術(shù)出版領(lǐng)域內(nèi)科研人員、編輯、審稿專家等業(yè)務(wù)主體之間的人際信任由認(rèn)知型信任和情感型信任構(gòu)成,其間信任的形成有賴于各方在交互過程中捕獲的特征信息,包括專業(yè)學(xué)識(shí)、科研能力、個(gè)體特征等。以AIGC為代表的一系列新興技術(shù)正在構(gòu)造一個(gè)學(xué)術(shù)共同體廣泛關(guān)聯(lián)與高頻互動(dòng)的線上虛擬空間,逐步瓦解傳統(tǒng)信息流通過程中存在的時(shí)空局限與制度壁壘,個(gè)體之間得以實(shí)現(xiàn)更加流暢且透明的交流與互動(dòng)。在技術(shù)信任與制度信任融合形成保障機(jī)制的基礎(chǔ)上,學(xué)術(shù)共同體成員對(duì)AIGC技術(shù)及有關(guān)主體的認(rèn)知從封閉走向開放,社會(huì)資本隨之不斷累積,“陌生人”之間產(chǎn)生更加主動(dòng)且積極的信任態(tài)度與合作意識(shí)[24]。
基于外部性視角,AIGC技術(shù)本身及其有關(guān)主體行為的不確定性具有不同程度的負(fù)外部性,威脅學(xué)術(shù)共同體內(nèi)其他主體的安全、穩(wěn)定與健康發(fā)展。重構(gòu)學(xué)術(shù)出版信任機(jī)制應(yīng)最大程度降低學(xué)術(shù)共同體面臨的負(fù)外部性風(fēng)險(xiǎn)。降低負(fù)外部性的有效途徑是讓外部性內(nèi)部化,即通過制度安排使各主體行為產(chǎn)生的社會(huì)收益或社會(huì)成本內(nèi)化為私人收益或私人成本,例如經(jīng)濟(jì)學(xué)家Coase提出“產(chǎn)權(quán)理論”,有效解決經(jīng)濟(jì)主體活動(dòng)的外部不經(jīng)濟(jì)問題。學(xué)術(shù)出版領(lǐng)域可以通過類似于產(chǎn)權(quán)制度的“責(zé)任”安排形式將AIGC介入行為的外部性風(fēng)險(xiǎn)內(nèi)部化,進(jìn)而降低學(xué)術(shù)共同體面臨的不確定性以重塑行業(yè)信任。在實(shí)踐層面,歐盟政策委員會(huì)“地平線2020框架計(jì)劃”提出“責(zé)任式創(chuàng)新”(Responsible Innovation, RI),其實(shí)質(zhì)是在技術(shù)創(chuàng)新與社會(huì)建構(gòu)過程中進(jìn)行風(fēng)險(xiǎn)預(yù)測(cè)、過程評(píng)估與動(dòng)態(tài)響應(yīng),融入責(zé)任要素以實(shí)現(xiàn)技術(shù)發(fā)展前后的風(fēng)險(xiǎn)分散,降低技術(shù)的潛在負(fù)外部性[27]。該范式為建立AIGC技術(shù)介入下的學(xué)術(shù)出版信任機(jī)制提供有效指引。
學(xué)術(shù)出版信任機(jī)制需要多元主體協(xié)同構(gòu)建。微觀上,作為技術(shù)使用者的科研人員是AIGC嵌入知識(shí)生產(chǎn)過程的責(zé)任主體,但并不代表全部責(zé)任應(yīng)該由科研人員單一主體承擔(dān),該過程的利益相關(guān)者均需為此行為負(fù)責(zé)。宏觀上,學(xué)術(shù)出版信任機(jī)制本質(zhì)上是學(xué)術(shù)出版不同環(huán)節(jié)主體價(jià)值支點(diǎn)的總和,學(xué)術(shù)共同體信任重塑是一項(xiàng)貫穿于知識(shí)生產(chǎn)與傳播活動(dòng)的系統(tǒng)工程,單純依靠科研人員的努力無法建構(gòu)全局性的信任格局?;诖?,本文提出以“責(zé)任鏈”范式實(shí)現(xiàn)學(xué)術(shù)出版信任機(jī)制構(gòu)建主體的關(guān)聯(lián)與協(xié)同(見圖1),其中包括AIGC技術(shù)研發(fā)者、科研人員、出版機(jī)構(gòu)、內(nèi)容聚合商、圖書館等。此外,各責(zé)任主體都是社會(huì)系統(tǒng)的重要組成部分,其間協(xié)調(diào)互動(dòng)離不開立法機(jī)構(gòu)、執(zhí)法機(jī)構(gòu)、司法機(jī)構(gòu)、行業(yè)協(xié)會(huì)等治理性機(jī)構(gòu)在秩序系統(tǒng)與規(guī)則體系層面發(fā)揮作用。
圖1 學(xué)術(shù)出版信任機(jī)制構(gòu)建的理論維度與實(shí)踐維度Fig.1 The Theoretical and Practical Dimensions of Constructing Trust Mechanism in Academic Publishing
(1)責(zé)任鏈上游:AIGC技術(shù)的研發(fā)、創(chuàng)新與維護(hù)
AIGC嵌入知識(shí)生產(chǎn)將學(xué)術(shù)出版責(zé)任鏈上游由科研人員的知識(shí)生產(chǎn)環(huán)節(jié)延伸至技術(shù)研發(fā)者的技術(shù)開發(fā)階段。AIGC開展知識(shí)生產(chǎn)活動(dòng)有賴于充分的語料支持,不斷提升用于訓(xùn)練的語料規(guī)模和質(zhì)量是算法模型優(yōu)化的基礎(chǔ)。學(xué)術(shù)出版機(jī)構(gòu)等文獻(xiàn)情報(bào)機(jī)構(gòu)長期扮演知識(shí)資源集成者角色,積累海量經(jīng)過嚴(yán)格審核的論文、專著、會(huì)議、專利、標(biāo)準(zhǔn)等高質(zhì)量人類知識(shí)[28],并且已實(shí)現(xiàn)大量內(nèi)容的數(shù)字化與結(jié)構(gòu)化轉(zhuǎn)型。技術(shù)研發(fā)者應(yīng)與文獻(xiàn)情報(bào)機(jī)構(gòu)合作開展數(shù)據(jù)的規(guī)范性檢驗(yàn)與算法訓(xùn)練,由此推出針對(duì)學(xué)術(shù)知識(shí)生產(chǎn)的專業(yè)版技術(shù)產(chǎn)品。AlphaFold算法基于美國Brookhaven國家實(shí)驗(yàn)室創(chuàng)建的蛋白質(zhì)數(shù)據(jù)庫(Protein Data Bank, PDB),實(shí)現(xiàn)在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)中的巨大突破,是技術(shù)研發(fā)者利用文獻(xiàn)情報(bào)資源的成功案例。
在確保技術(shù)產(chǎn)品從事知識(shí)生產(chǎn)的可用性與幫助性的基礎(chǔ)上,技術(shù)研發(fā)者要協(xié)助學(xué)術(shù)共同體理解算法:機(jī)器在想什么,為什么這樣想。直接公開算法源代碼和參數(shù)的做法雖然實(shí)現(xiàn)算法透明化,但難以有效支持用戶理解極其復(fù)雜的算法決策過程。使用可解釋性AI(Explainable Artificial Intelligence, XAI)是向用戶解釋算法輸出結(jié)果與過程合理性的有效途徑[29]。在實(shí)踐中,美國國防高級(jí)研究計(jì)劃局(Defense Advanced Research Projects Agency, DARPA)于2016年啟動(dòng)XAI五年計(jì)劃,致力于研發(fā)更完善的可解釋算法模型,借助用戶界面(UI)等人機(jī)交互技術(shù)為用戶提供更加完備的算法解釋方案。
為防止AIGC技術(shù)對(duì)學(xué)術(shù)共同體造成傷害,技術(shù)研發(fā)者首先要從算法開發(fā)源頭杜絕偏見、歧視和侵權(quán)行為。在數(shù)據(jù)方面,采取重采樣等技術(shù)手段消除數(shù)據(jù)偏見并盡可能稀釋算法模型誤用風(fēng)險(xiǎn),切實(shí)保護(hù)用戶隱私和信息安全,及時(shí)配置完整的隱私政策和用戶協(xié)議;在技術(shù)方面,組織一批來自多領(lǐng)域、具備高素質(zhì)與正確道德觀的研發(fā)團(tuán)隊(duì),并將零信任計(jì)算技術(shù)融入技術(shù)產(chǎn)品,實(shí)現(xiàn)數(shù)據(jù)計(jì)算全流程可追溯、可查詢,從而避免主觀因素干擾和人為操縱等造成的不公正現(xiàn)象。其次,通過人機(jī)回圈技術(shù)等手段保障學(xué)術(shù)共同體的最優(yōu)決策權(quán),即當(dāng)算法遇到道德倫理等無法獲得最優(yōu)解的問題時(shí),向科研人員尋求幫助以優(yōu)化計(jì)算過程[30]??蒲腥藛T并不是總能做出最公正的決定,技術(shù)研發(fā)者要在保護(hù)隱私的基礎(chǔ)上認(rèn)證用戶身份,實(shí)時(shí)監(jiān)測(cè)用戶行為,確保算法使用行為可追責(zé)。最后,AIGC數(shù)據(jù)風(fēng)險(xiǎn)重在用戶個(gè)人信息相關(guān)的通信內(nèi)容泄露以及模型數(shù)據(jù)庫的反向溯源,技術(shù)研發(fā)者應(yīng)自覺承擔(dān)軟硬件安全維護(hù)義務(wù),有針對(duì)性地制定安全風(fēng)險(xiǎn)防范與應(yīng)對(duì)措施以抵御惡意軟件、黑客等侵害。
技術(shù)研發(fā)者還應(yīng)采取合理的干預(yù)措施來防止下游對(duì)AIGC技術(shù)的濫用,一種普遍的形式是使用數(shù)字水印。該工具使用密碼學(xué)方法,將統(tǒng)計(jì)模式、代碼嵌入單詞甚至標(biāo)點(diǎn)符號(hào)的揀選過程,服務(wù)于內(nèi)容來源的識(shí)別與證明[31]。目前,OpenAI已公開水印工具研發(fā)計(jì)劃并且取得初步成功,未來將實(shí)現(xiàn)人類讀者無法辨別卻能經(jīng)過系統(tǒng)檢測(cè)的理想“水印”,基于服務(wù)器端的水印技術(shù)的推廣還有賴于各大文本生成系統(tǒng)提供商通力合作。不可否認(rèn),完全杜絕AIGC技術(shù)濫用仍需借助其他措施。例如,2021年成立的內(nèi)容來源和真實(shí)性聯(lián)盟(Coalition for Content Provenance and Authenticity,C2PA)為常見的資產(chǎn)類型(包括圖像、視頻、音頻和文檔)和格式制定統(tǒng)一的內(nèi)容來源規(guī)范,出版機(jī)構(gòu)、創(chuàng)作者和消費(fèi)者等群體能夠基于內(nèi)容系統(tǒng)跟蹤在線內(nèi)容的起源和演變,由此進(jìn)行內(nèi)容的可信度驗(yàn)證[32]。
(2)責(zé)任鏈中游:學(xué)術(shù)知識(shí)生產(chǎn)活動(dòng)中AIGC技術(shù)的使用
科研人員在與AIGC技術(shù)交互的過程中引導(dǎo)其參與學(xué)術(shù)創(chuàng)作,直接影響知識(shí)產(chǎn)品質(zhì)量與算法自主學(xué)習(xí)過程,理應(yīng)成為責(zé)任鏈一員。學(xué)術(shù)出版界通常依靠傳統(tǒng)慣例和榮譽(yù)制度等規(guī)范科研人員行為,而如今知識(shí)生產(chǎn)活動(dòng)中人工智能技術(shù)的不合理使用也將被納入科研失范范疇,科研人員使用AIGC技術(shù)的義務(wù)與責(zé)任邊界應(yīng)得到明確界定,以維護(hù)學(xué)術(shù)界的公信力。
科研人員的義務(wù)和責(zé)任不限于:在技術(shù)使用之前,充分評(píng)估技術(shù)與研究場(chǎng)景的適配性;在使用過程中,核實(shí)算據(jù)是否合乎道德和法律、清晰且可追溯,杜絕任何抄襲、造假等不端行為,以高度警惕心和判斷力深入分析、解釋和驗(yàn)證計(jì)算結(jié)果,并按照規(guī)范的格式在公開發(fā)表的成果中準(zhǔn)確標(biāo)明參考文獻(xiàn),充分披露使用的技術(shù)及其細(xì)節(jié),包括可能存在的不足和偏差。科研機(jī)構(gòu)作為科研人員行為查處的“第一責(zé)任主體”,應(yīng)當(dāng)對(duì)其進(jìn)行教育、監(jiān)督和違規(guī)懲處。如今,科學(xué)發(fā)展已進(jìn)入以社會(huì)發(fā)展為價(jià)值導(dǎo)向的“后學(xué)院時(shí)代”,默頓范式下以求知為旨?xì)w的科學(xué)探索模式式微,“利益驅(qū)動(dòng)”逐漸成為科研人員開展知識(shí)生產(chǎn)的重要?jiǎng)恿χ唬涮椎膬?nèi)外部監(jiān)督與治理機(jī)制成為學(xué)術(shù)共同體信任的必要手段。
(3)責(zé)任鏈下游:AIGC技術(shù)介入的學(xué)術(shù)知識(shí)生產(chǎn)成果的審核與傳播
學(xué)術(shù)出版機(jī)構(gòu)自成立之日起就被賦予知識(shí)生產(chǎn)與傳播活動(dòng)中的“把關(guān)”責(zé)任,學(xué)術(shù)共同體傾向于對(duì)經(jīng)由學(xué)術(shù)出版機(jī)構(gòu)審查的知識(shí)成果給予高度信任。然而,當(dāng)前許多學(xué)術(shù)出版機(jī)構(gòu)對(duì)人工智能技術(shù)參與知識(shí)生產(chǎn)持消極態(tài)度,例如國際權(quán)威期刊《科學(xué)》(Science)明確規(guī)定由ChatGPT(或其他人工智能工具)生成的文本、數(shù)字、圖像或圖形等不能在作品中使用。事實(shí)上,AIGC等人工智能技術(shù)應(yīng)用于知識(shí)生產(chǎn)并非“百害而無一利”,單純的“禁止使用”并不是學(xué)術(shù)界應(yīng)對(duì)技術(shù)變革的長遠(yuǎn)之策,學(xué)術(shù)出版機(jī)構(gòu)理應(yīng)創(chuàng)新審核機(jī)制和傳播方式以推進(jìn)人機(jī)共生進(jìn)程。
首先是審核環(huán)節(jié)由“事后審核”拓展為“事前審核+事后審核”。學(xué)術(shù)出版機(jī)構(gòu)以往是在知識(shí)生產(chǎn)后開展對(duì)成果的評(píng)審,取得質(zhì)量認(rèn)證的知識(shí)產(chǎn)品成為后續(xù)研究的知識(shí)基礎(chǔ),因而傳統(tǒng)學(xué)術(shù)知識(shí)生產(chǎn)實(shí)質(zhì)上是在學(xué)術(shù)出版機(jī)構(gòu)對(duì)流通性知識(shí)質(zhì)量嚴(yán)格把控的基礎(chǔ)上開展的。同樣地,學(xué)術(shù)出版機(jī)構(gòu)可以參與技術(shù)建構(gòu)過程以打造更加完備的技術(shù)與數(shù)據(jù)基礎(chǔ)。如此,學(xué)術(shù)出版機(jī)構(gòu)能夠協(xié)助技術(shù)的場(chǎng)景化改造以提升其知識(shí)生產(chǎn)專業(yè)度,并在互動(dòng)過程中消除原本因技術(shù)工具超出干預(yù)范圍而產(chǎn)生的恐懼和懷疑。其次,審核方式的技術(shù)化與協(xié)同化升級(jí),尤其體現(xiàn)于“事后審核”階段。學(xué)術(shù)出版機(jī)構(gòu)有必要及時(shí)對(duì)接針對(duì)AIGC內(nèi)容生產(chǎn)的甄別性技術(shù),例如谷歌開發(fā)的用于檢測(cè)并標(biāo)記偽造或經(jīng)篡改的數(shù)字內(nèi)容的工具“Reality Defender”[33],使知識(shí)產(chǎn)品的“人類創(chuàng)作性檢測(cè)”如同“重復(fù)率檢測(cè)”一樣普遍和精準(zhǔn)。當(dāng)然,技術(shù)暫時(shí)無法與人類的情感和價(jià)值判斷能力匹敵,人類在審核過程中的決定性地位必須得到強(qiáng)化,未來的審核方式極可能朝“技術(shù)初審+專家復(fù)審+主編終審”的復(fù)合型審核演變。同時(shí),出版機(jī)構(gòu)有必要運(yùn)用區(qū)塊鏈技術(shù)將永久公開且不可篡改的審核記錄添加至評(píng)審專家和編輯的個(gè)人信息身份池,以便對(duì)審核工作進(jìn)行肯定和監(jiān)督。此外,審核內(nèi)容應(yīng)由最終的文字成果溯源至實(shí)驗(yàn)階段的原始數(shù)據(jù)或材料,借助智能工具對(duì)實(shí)驗(yàn)過程進(jìn)行復(fù)現(xiàn)檢查[34],從而確??蒲腥藛T對(duì)知識(shí)生產(chǎn)過程的高度掌控。
學(xué)術(shù)出版機(jī)構(gòu)應(yīng)積極發(fā)揮在學(xué)術(shù)共同體信任中的橋梁作用。與作者交互時(shí),出版機(jī)構(gòu)應(yīng)對(duì)各種情況進(jìn)行合理注意與必要提醒,在出版合同中尤其強(qiáng)調(diào)作者使用AIGC等智能技術(shù)應(yīng)盡的責(zé)任和義務(wù),比如參考文獻(xiàn)核實(shí)義務(wù)、數(shù)據(jù)可重復(fù)性檢測(cè)義務(wù),并采取質(zhì)詢、警告、“拉黑”等策略處理不端行為。與讀者交互時(shí),出版機(jī)構(gòu)應(yīng)聯(lián)合內(nèi)容聚合商、圖書館等下游機(jī)構(gòu),通過單獨(dú)的數(shù)據(jù)集合理公開知識(shí)生產(chǎn)的必要性數(shù)據(jù),允許讀者監(jiān)督和反饋,并對(duì)人工智能參與的知識(shí)產(chǎn)品進(jìn)行特別標(biāo)注,保證讀者對(duì)其中技術(shù)參與程度與具體工作的知曉權(quán),幫助讀者做出是否信任該成果的獨(dú)立判斷。
(4)責(zé)任鏈治理:法律、政策和行業(yè)規(guī)范的規(guī)制
源自學(xué)術(shù)共同體內(nèi)外部環(huán)境的一系列治理機(jī)制同樣重要,其目的是通過責(zé)難和懲罰等手段督促知識(shí)生產(chǎn)中的智能技術(shù)使用行為更具可信性。
第一,制定《人工智能法》以確保責(zé)任治理有法可依,厘清智能技術(shù)有關(guān)行為主體的權(quán)利與責(zé)任,以此建立精準(zhǔn)問責(zé)機(jī)制與風(fēng)險(xiǎn)防控機(jī)制。人工智能技術(shù)產(chǎn)品應(yīng)憑借其智能化程度而具備不同類型的法律身份,以ChatGPT為代表的AIGC技術(shù)產(chǎn)品能夠進(jìn)行一定程度的邏輯推理與意思表示,在硬件設(shè)備支持下對(duì)人類生活造成實(shí)際影響,但它無法為自身行為承擔(dān)責(zé)任,因而確立其法律地位時(shí),既需要打破“人”與“物”二元對(duì)立,又不能將其置于與自然人或法人同等的地位,而應(yīng)界定為一種特殊的、有限的法律人格。財(cái)產(chǎn)是責(zé)任承擔(dān)的基礎(chǔ),AIGC技術(shù)產(chǎn)品應(yīng)當(dāng)在設(shè)計(jì)者與開發(fā)者的幫助下?lián)碛歇?dú)立的銀行賬戶和保險(xiǎn)基金賬戶,獲取一定比例的內(nèi)容生產(chǎn)收益,當(dāng)技術(shù)本身不穩(wěn)定引發(fā)侵權(quán)行為需要賠償時(shí),優(yōu)先使用技術(shù)產(chǎn)品自身擁有的財(cái)產(chǎn)[35]。借鑒“公司法人人格否認(rèn)制度”對(duì)股東濫用公司法人人格實(shí)施不正當(dāng)行為追究無限責(zé)任的規(guī)定,采用“刺破人工智能面紗”原則對(duì)AIGC技術(shù)實(shí)際控制人的行為予以規(guī)范,即根據(jù)算法模型、訓(xùn)練素材和輸入內(nèi)容等在侵權(quán)行為中的作用比重劃定各方責(zé)任[36]。為應(yīng)對(duì)潛在風(fēng)險(xiǎn)事件,《歐盟機(jī)器人民事法律規(guī)則》中推行的類似于機(jī)動(dòng)車風(fēng)險(xiǎn)轉(zhuǎn)移的人工智能強(qiáng)制責(zé)任保險(xiǎn)制度和賠償基金制度應(yīng)得到進(jìn)一步規(guī)范和推廣[37],即要求AIGC技術(shù)產(chǎn)品在投入使用之前必須投保責(zé)任險(xiǎn),當(dāng)保險(xiǎn)人不具有賠償能力時(shí),由賠償基金承擔(dān)此任,以有效保障風(fēng)險(xiǎn)事件受害者的合法權(quán)益。
第二,從執(zhí)法層面實(shí)行對(duì)學(xué)術(shù)出版領(lǐng)域AIGC技術(shù)有關(guān)主體的監(jiān)懲聯(lián)動(dòng)機(jī)制。由工業(yè)和信息化部、國家發(fā)展和改革委員會(huì)、國家新聞出版署等部門牽頭統(tǒng)一人工智能行業(yè)標(biāo)準(zhǔn),以登記備案方式賦予AIGC技術(shù)產(chǎn)品唯一編號(hào),綁定設(shè)計(jì)者與開發(fā)者等關(guān)鍵信息,從而呼應(yīng)其特殊法律主體身份。同時(shí),設(shè)立人工智能系統(tǒng)執(zhí)法與監(jiān)管機(jī)構(gòu),聯(lián)合國家新聞出版署對(duì)AIGC知識(shí)生產(chǎn)活動(dòng)進(jìn)行監(jiān)督。在不侵犯學(xué)術(shù)自由邊界的前提下,合理運(yùn)用罰款、暫停發(fā)表資格、限制學(xué)術(shù)活動(dòng)等措施對(duì)不當(dāng)行為實(shí)施主體進(jìn)行警示。以數(shù)據(jù)安全領(lǐng)域?yàn)槔?,歐盟發(fā)布《通用數(shù)據(jù)保護(hù)法案》,并設(shè)立專門的數(shù)據(jù)保護(hù)機(jī)構(gòu)作為監(jiān)管機(jī)構(gòu),對(duì)OpenAI等企業(yè)具有天價(jià)處罰權(quán)以督促其滿足數(shù)據(jù)合規(guī)要求[38],我國2023年組建的國家數(shù)據(jù)局也應(yīng)發(fā)力推動(dòng)數(shù)據(jù)的合規(guī)性、開放性和可利用性建設(shè),協(xié)助監(jiān)管機(jī)構(gòu)履行職能。
第三,在司法層面完善涉及AIGC技術(shù)及其作品的案件審判機(jī)制,其關(guān)鍵在于法官在充分理解糾紛生成邏輯基礎(chǔ)上進(jìn)行價(jià)值衡量并作出公正判決。然而,技術(shù)與法律之間的專業(yè)壁壘致使法官難以準(zhǔn)確把握糾紛邏輯,借鑒出版機(jī)構(gòu)對(duì)學(xué)術(shù)作品的審查思路,司法機(jī)關(guān)可以在保障自身審判權(quán)的前提下,引入專業(yè)人才與專業(yè)技術(shù)優(yōu)化審判體系與審判能力?!睹袷略V訟法》提出“專家輔助人制度”,即由當(dāng)事人申請(qǐng)、經(jīng)法院準(zhǔn)許,在特定領(lǐng)域有專門知識(shí)的人出庭輔助當(dāng)事人對(duì)訴爭(zhēng)案件事實(shí)中的專業(yè)問題提出意見[39]。該制度適用于由AIGC介入知識(shí)生產(chǎn)引發(fā)的案件處理,但必須提升可操作性。例如,經(jīng)政府機(jī)構(gòu)備案,相關(guān)行業(yè)協(xié)會(huì)聯(lián)合建立專家輔助人才庫,篩選出精通出版、法律與人工智能技術(shù)知識(shí)的專家,承認(rèn)其以輔助人身份出庭的資格;再如規(guī)范專家證言采信標(biāo)準(zhǔn)以評(píng)判專家意見可用性,將意見采納率添加至專家信息庫,以便對(duì)專家行為進(jìn)行監(jiān)督和激勵(lì)。司法機(jī)關(guān)自身應(yīng)積極向智能司法轉(zhuǎn)型,利用技術(shù)優(yōu)勢(shì)提升案件審理的客觀性、公正性與效率性,確保各種糾紛能夠得到有效解決。
第四,在學(xué)術(shù)出版行業(yè)層面成立倫理委員會(huì),完善學(xué)術(shù)倫理的自治性規(guī)范機(jī)制。2019年我國成立新一代人工智能治理專業(yè)委員會(huì),并于2021年發(fā)布《新一代人工智能倫理規(guī)范》,旨在解決與人工智能發(fā)展相伴而生的諸多倫理問題。如今智能技術(shù)對(duì)學(xué)術(shù)領(lǐng)域的沖擊程度空前,學(xué)術(shù)出版界應(yīng)在國家新聞出版署帶頭下建設(shè)行業(yè)領(lǐng)域的人工智能技術(shù)倫理委員會(huì),加快明確針對(duì)AIGC技術(shù)的倫理準(zhǔn)則,并推動(dòng)學(xué)術(shù)共同體在頻繁交互中持續(xù)提升親密性和表現(xiàn)的可見性,以同行自治方式推進(jìn)負(fù)責(zé)任的智能技術(shù)使用行為。
學(xué)術(shù)知識(shí)生產(chǎn)信任危機(jī)已成為全球性議題。早在2007年,美國和歐洲聯(lián)合舉辦以“科研誠信:培育負(fù)責(zé)任的科學(xué)研究”為主題的世界性會(huì)議,旨在建立更加可信的全球性學(xué)術(shù)出版環(huán)境。以ChatGPT為代表的AIGC浪潮下,中國應(yīng)積極拓展與各國的合作伙伴關(guān)系,協(xié)商打造高標(biāo)準(zhǔn)、國際化的法律、政策與行業(yè)規(guī)范,共同解決一些跨國界問題,推進(jìn)人工智能技術(shù)最大程度增進(jìn)全人類福祉。
人工智能技術(shù)的價(jià)值不會(huì)停留于技術(shù)本身的動(dòng)態(tài)優(yōu)化,其核心在于為特定場(chǎng)景帶來實(shí)實(shí)在在的改造和升級(jí)。本研究基于AIGC技術(shù)與學(xué)術(shù)知識(shí)生產(chǎn)的耦合性分析,針對(duì)AIGC介入知識(shí)生產(chǎn)活動(dòng)引發(fā)的信任危機(jī),從技術(shù)信任、人際信任和制度信任三維度重塑學(xué)術(shù)出版信任機(jī)制理論模型,圍繞“責(zé)任鏈”探索技術(shù)研發(fā)者、科研人員、學(xué)術(shù)出版機(jī)構(gòu)、行業(yè)協(xié)會(huì)、政府等主體參與信任機(jī)制構(gòu)建的實(shí)踐進(jìn)路,以期學(xué)術(shù)出版業(yè)更加從容地面對(duì)智能變革風(fēng)險(xiǎn),積極推進(jìn)智能技術(shù)在學(xué)術(shù)出版各環(huán)節(jié)的有效應(yīng)用。
本研究存在如下不足:一是僅著眼于學(xué)術(shù)知識(shí)生產(chǎn)環(huán)節(jié),對(duì)智能技術(shù)介入知識(shí)成果發(fā)表、傳播與評(píng)價(jià)等活動(dòng)引發(fā)的信任問題關(guān)注不夠;二是缺少對(duì)信任機(jī)制中各要素關(guān)系的實(shí)證分析,各主體實(shí)踐路徑的可行性與系統(tǒng)性有待進(jìn)一步驗(yàn)證。因此,后續(xù)研究可以重點(diǎn)關(guān)注以下問題:一方面,深入學(xué)術(shù)出版各環(huán)節(jié)探究技術(shù)介入導(dǎo)致的信任風(fēng)險(xiǎn)與機(jī)制變遷,逐步建立智能時(shí)代全局性的學(xué)術(shù)出版信任體系。無論人工智能嵌入學(xué)術(shù)出版哪個(gè)環(huán)節(jié),數(shù)據(jù)安全風(fēng)險(xiǎn)防范都應(yīng)成為信任建設(shè)的首要任務(wù)。目前清華大學(xué)、騰訊研究院已開展相關(guān)研討,將AIGC數(shù)據(jù)合規(guī)性建設(shè)提上日程。聚焦學(xué)術(shù)出版,研究者應(yīng)把握學(xué)術(shù)出版數(shù)據(jù)合規(guī)性建構(gòu)的模型框架,基于挑戰(zhàn)與機(jī)遇的評(píng)估探索各主體參與數(shù)據(jù)合規(guī)建設(shè)的有效途徑,尤其關(guān)注文獻(xiàn)情報(bào)機(jī)構(gòu)應(yīng)如何開展數(shù)據(jù)管理、檢測(cè)和事故處理等具體工作,為學(xué)術(shù)出版信任重建保駕護(hù)航。另一方面,持續(xù)跟蹤學(xué)術(shù)出版信任建設(shè)動(dòng)向,對(duì)技術(shù)、制度和人際層面的信任機(jī)制實(shí)施效果展開量化研究與實(shí)證分析,力圖為政產(chǎn)學(xué)研各界共同打造全新的學(xué)術(shù)出版信任格局探尋更加完備的方案,迎接智能參與學(xué)術(shù)出版時(shí)代的到來。
作者貢獻(xiàn)說明
王鵬濤:確定選題,設(shè)計(jì)研究思路,論文修改及定稿;
徐潤婕:完善研究方案,起草論文。