張 超 韓 虓 王 芳
(1.南開大學網(wǎng)絡社會治理研究中心 天津 300071)
(2.南開大學商學院信息資源管理系 天津 300071)
人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)是目前最引人注目的前沿技術(shù)之一,雖然尚未形成統(tǒng)一規(guī)范的定義,但產(chǎn)學研各界普遍認為AIGC 是利用人工智能技術(shù)根據(jù)用戶的個性化需求自動生成內(nèi)容(如文本、圖像和視頻)的新型生產(chǎn)方式[1-2]。隨著AIGC 算法的迭代發(fā)展,美國人工智能公司Open AI 于2022 年11 月30 日 發(fā)布了ChatGPT(Chat Generative Pre-trained Transformer)。作為AIGC 的技術(shù)代表,ChatGPT 不僅可以生成類似人類的對話,還可以完成包括論文撰寫、報告內(nèi)容生成、新聞編輯、情感分析、代碼編寫、多語言翻譯、答題解析等多種高難度任務[3]。這為人類知識的快速生產(chǎn)和廣泛復用提供了可能,同時也意味著Chat-GPT 技術(shù)打破了只有人類能夠生產(chǎn)和復用知識的局面[4],推動知識生產(chǎn)與知識復用方式的變革,標志著新一輪技術(shù)革命的開啟。
目前GPT 系列語言模型已從GPT-1 迭代到GPT-4。作為一種通用式的人工智能模型,ChatGPT已在多個不同的領(lǐng)域得到了廣泛的應用,包括教育、醫(yī)療、科研等。有報道稱,ChatGPT 在美國醫(yī)師執(zhí)照考試中成績均達到要求,且生成的答案具有洞察力[5]。此外,在學術(shù)界,已有學者通過與ChatGPT 的交互進行論文寫作,并將其列為共同作者進行科學論文的發(fā)表[6]。這些應用說明ChatGPT 已在知識生產(chǎn)與知識復用方面發(fā)揮著重要作用。然而,ChatGPT 強大的創(chuàng)造力是一把雙刃劍,給社會各領(lǐng)域知識生產(chǎn)和知識復用帶來顛覆性影響和深層次變革的同時,也隱藏著技術(shù)、倫理等方面的風險。以埃隆·馬斯克和蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)為主要代表的科技界人士聯(lián)名呼吁暫停訓練比GPT-4 更強大的人工智能模型[7];意大利個人數(shù)據(jù)保護局發(fā)表聲明,宣布禁止使用ChatGPT[8]?;诖耍疚脑趯hatGPT 核心技術(shù)及其特征優(yōu)勢進行闡述的基礎(chǔ)上,探討ChatGPT 給人類知識生產(chǎn)和知識復用帶來的影響與挑戰(zhàn),為思考ChatGPT 的影響和挑戰(zhàn)提供一個新的切入點。
ChatGPT 具有多項強大功能,是深度學習、無監(jiān)督學習、指令微調(diào)、多任務學習、上下文學習和強化學習等多種技術(shù)的集成[9]。其核心技術(shù)是生成式預訓練Transformer 模型GPT(Generative Pre-trained Transformer)[10]。2018 年,GPT-1 作為GPT 系列語言模型的開端,采用生成式預訓練Transformer 模型,通過利用未經(jīng)標記的語料庫進行語言模型的生成式預訓練,并針對各個特定任務進行差異性的微調(diào),顯著提升了自然語言理解和生成的能力[11]。2019 年,GPT-2 對模型訓練數(shù)據(jù)的質(zhì)量和規(guī)模有了較大的提升,重點解決了GPT-1 在下游任務使用時需要監(jiān)督微調(diào)訓練的問題,進一步提升了生成式預訓練語言模型的泛化能力[12]。2020 年,Open AI 發(fā)布了GPT-3,該模型參數(shù)高達1750億個。在技術(shù)路線上去掉了GPT-1 的微調(diào)步驟,可以在不需要特定任務訓練的情形下直接輸入自然語言當作指示,并具備了可以連續(xù)回答問題的能力[13]。2022 年,在GPT-3 模型的基礎(chǔ)上進行優(yōu)化后,Open AI 推出了ChatGPT 模型,該模型引入人工標注數(shù)據(jù)和強化學習兩項功能,根據(jù)手動標記語言模型產(chǎn)生的最佳回應以優(yōu)化其在特定任務中的表現(xiàn),同時通過近端策略優(yōu)化算法進行微調(diào),使其表現(xiàn)得更接近真人[14]。2023 年,Open AI 發(fā)布了最新的GPT- 4 語言模型,其使用多模態(tài)預訓練大模型,相比于GPT-3 具備了更強大的解決問題的能力,可以接受圖像作為輸入信息,通過視覺輸入能力整合信息,并實現(xiàn)場景分析、多模態(tài)文本輸出等功能[15]。
GPT 系列語言模型之所以具備強大的泛化能力與自然語言處理能力,離不開以Transformer 模型為基礎(chǔ)的技術(shù)架構(gòu)。Transformer 模型的巨大潛力帶來了GPT 系列語言模型在自然語言理解和自然語言生成兩方面的技術(shù)突破,該模型可以幫助探索自然語言空間和形式表示空間的內(nèi)在聯(lián)系[16]。有研究表明,在NLP 領(lǐng)域,Transformer 模型逐漸統(tǒng)一了所有應用[17],而在Transformer 模型中,注意力機制(Attention Mechanism)、多頭注意力以及編碼器-解碼器(Encoder-Decoder)的結(jié)構(gòu)發(fā)揮著核心作用,可以協(xié)助GPT 系列語言模型實現(xiàn)強大的自然語言處理功能。
注意力機制是由Treisman 等人提出的一種模擬人腦注意力機制的模型[18],它可以幫助確定需要關(guān)注哪些輸入信息,并將有限的信息處理資源分配給最重要的部分,以此來充分分析輸入信息。GPT 模型引入的自注意力機制,也就是將有限的資源分配給最重要的部分來處理信息,它通過給予輸入序列中不同位置的不同權(quán)重,使得模型能夠在處理序列數(shù)據(jù)時有選擇地關(guān)注重要的部分[17],極大程度地避免了在神經(jīng)網(wǎng)絡中使用遞歸,進而大大減少了在實際應用中所花費的時間,提高了對信息生成、整合、輸出的效率。
多頭注意力機制是對傳統(tǒng)的注意力機制進行了擴展和改進。在傳統(tǒng)的注意力機制中,只存在單一的注意力權(quán)重計算,而多頭注意力機制引入了多個并行的注意力頭(attention head),每個注意力頭都可以學習不同的關(guān)注權(quán)重,進而尋找在不同子空間中分布的不同注意力的不同角度的關(guān)聯(lián)[19]。GPT 系列語言模型利用多頭注意力機制,通過同時使用多個獨立的頭部,使其能夠關(guān)注不同的信息,并從中提取更加全面和豐富的特征[20],這樣可以提升模型的性能和泛化能力,在處理復雜的關(guān)系和長序列數(shù)據(jù)時更加有效,進而實現(xiàn)其強大的自然語言理解、處理能力。
為了避免循環(huán)與重復的卷積,GPT 模型中還采用了編碼器-解碼器的結(jié)構(gòu),這一架構(gòu)包含了連續(xù)堆疊的6 層編碼器和解碼器。通過編碼器和解碼器的組合,Transformer 模型能夠處理從序列到序列的任務,如文章續(xù)寫、機器翻譯等工作。編碼器將輸入序列編碼為上下文感知的特征表示,解碼器則根據(jù)這些表示逐步生成目標序列。該架構(gòu)的優(yōu)勢在于能夠并行計算和捕捉長距離的依賴關(guān)系,同時減少了對序列長度的敏感性[21],減少了重復卷積所帶來的相關(guān)資源浪費以及算力不足的問題。
ChatGPT 通過引入“人工標注數(shù)據(jù)+強化學習”的方法來持續(xù)微調(diào)預訓練語言模型[14],同時使用訓練獎勵模型(reward model,RM)。
訓練獎勵模型的主要目的是利用人工標注的訓練數(shù)據(jù)來訓練回報模型[22]。具體而言,隨機抽樣一批用戶提交的輸入指令,使用經(jīng)過人類反饋強化學習微調(diào)的模型對每個輸入指令生成多個不同的回答。然后將這些數(shù)據(jù)兩兩組合,并由標注人員按照不同維度的標準進行排序,給出結(jié)果的排名順序。使用這個排序結(jié)果數(shù)據(jù)來訓練回報模型,以幫助ChatGPT更好地理解人類的偏好,并在生成回答時更好地符合這些偏好。對于訓練好的獎勵模型,ChatGPT 采用近端策略優(yōu)化算法(Proximal Policy Optimization,PPO)來更新預訓練模型的參數(shù)。通過在數(shù)據(jù)集中隨機抽取問題,在近端策略優(yōu)化模型中生成回答,并利用訓練好的獎勵模型給出回答的質(zhì)量分數(shù),通過強化學習的方式更新PPO 模型的參數(shù),通過迭代,會訓練出更高質(zhì)量的預訓練模型。
ChatGPT 最初面向大眾時是基于GPT-3.5 模型,目前GPT 系列的最新版本是基于大規(guī)模預訓練的GPT-4 模型,可根據(jù)文本和圖像的多模態(tài)輸入,將人工標記和強化學習訓練相結(jié)合,完成各種對話任務。如它可以理解人類的各種指令,完成文本生成、代碼編寫和修改、圖像字幕、圖表推理、論文總結(jié)等任務。其突出的表現(xiàn)能力可總結(jié)如下:
一是多模態(tài)(語言和圖像)理解和文本生成。繼承自預訓練語言模型的能力,ChatGPT/GPT-4 可通過文本和圖像的提示來準確理解用戶的意圖,并將其轉(zhuǎn)化為計算機可以處理的形式[15]。這種能力使得ChatGPT/GPT-4 能夠應用于各種自然語言處理任務,如文本分類、命名實體識別、情感分析等[23]。此外,ChatGPT 可以接收一個初始句子,并以自回歸的方式逐步生成連貫的語言,包括摘要生成、長篇文章的自動生成等長文本的場景。并且在回答問題、機器翻譯、總結(jié)和潤色文本等多項文本生成任務中的表現(xiàn)已經(jīng)達到或超過了人類水平[24]。
二是推理能力強,可模擬人類語言特征。Chat-GPT 的訓練數(shù)據(jù)是從真實人類使用的語言中提取的,模型通過學習大量的語料庫,可以開發(fā)出類似于人類的語言特征,表現(xiàn)出與真正人類交流幾乎無異的聊天(對話)場景[25]。此外,ChatGPT 具有良好的推理能力,尤其擅長回答科學問題和復雜邏輯問題[26]。這得益于它強大的預訓練能力和文本理解能力。通過大規(guī)模文本數(shù)據(jù)的預訓練,特別是通過在復雜的語境中建立模型,能夠達到上下文信息理解和解釋文本的能力。這種能力使其在面對復雜的推理任務時具有優(yōu)勢。如ChatGPT 可以給出某個定理的證明,并根據(jù)邏輯鏈進行推理,按照用戶指定的邏輯鏈完成各種任務。
三是開放領(lǐng)域的通用性。ChatGPT 不受限于特定細分領(lǐng)域[27]。通常情況下,其他的自然語言處理技術(shù)只能針對特定領(lǐng)域的語言進行處理,如在醫(yī)學、法律等領(lǐng)域中。而ChatGPT 利用深度神經(jīng)網(wǎng)絡的優(yōu)勢,通過預訓練大模型和聚合語言數(shù)據(jù)集,能夠很好地理解語言規(guī)則、上下文信息和外部知識庫的知識,在各種專業(yè)測試和學術(shù)基準上的表現(xiàn)與人類相當[9]。如在醫(yī)療領(lǐng)域,ChatGPT 可用于篩選患有某種疾病的患者,并結(jié)合醫(yī)學知識庫提供建議和治療方案;在司法領(lǐng)域,ChatGPT 可以幫助律師撰寫法律文件,回答法律相關(guān)問題,并且它通過了一場模擬律師考試,得分在所有考生中排名前10%[28];在金融領(lǐng)域,ChatGPT 能夠分析市場趨勢、股票價格和證券交易等數(shù)據(jù),并給出有用的建議和決策。
知識生產(chǎn)是一種實踐性活動,指各類知識(如真理、原則、思想和信息等)的發(fā)明、創(chuàng)造、創(chuàng)新和復用的過程[29]。這一過程涵蓋了知識創(chuàng)造和知識產(chǎn)生兩種知識生產(chǎn)方式。知識創(chuàng)造指原創(chuàng)性知識的創(chuàng)造[29],研究人員利用扎實的理論基礎(chǔ)和科學方法,通過對真實世界的觀察、實驗、建模等手段,尋求新的見解和發(fā)現(xiàn),體現(xiàn)為“從0 到1”的知識生產(chǎn)方式。知識產(chǎn)生是指對已有知識基礎(chǔ)進行復用以生產(chǎn)知識,研究人員以既有知識庫為基礎(chǔ),通過對現(xiàn)有知識的重組、解釋和應用,推動知識的發(fā)展和進步[30],表現(xiàn)為“由1到N”的知識生產(chǎn)方式。ChatGPT 作為一種具備自主生成文本能力的AI 模型,對人類知識生產(chǎn)能力及知識生產(chǎn)過程產(chǎn)生了革新性的影響。
ChatGPT 的出現(xiàn)改變了傳統(tǒng)知識生產(chǎn)主體的格局,已發(fā)展出包括人類、機器和人機協(xié)同三種共存形態(tài),人類和智能機器的聯(lián)接形成了一個強大的超級智能體[31]。首先,人工智能大模型成為知識生產(chǎn)的重要角色。傳統(tǒng)意義上知識生產(chǎn)主體主要由學者、專家和研究人員等領(lǐng)域?qū)I(yè)人士組成,通過演繹推理、實證歸納等方法,在現(xiàn)有知識的基礎(chǔ)上推動新的知識創(chuàng)新[32]。然而,在計算機技術(shù)和大數(shù)據(jù)發(fā)展的推動下,ChatGPT 已具備多學科知識儲備和一定的邏輯推理和文本生成能力?;诖笠?guī)模預訓練模型和大數(shù)據(jù)集的學習,ChatGPT 不僅能夠及時獲取廣泛來源的各領(lǐng)域知識,還可以快速處理、理解并分析這些知識,并從中提取有用的信息和觀點,形成自己的見解。這一現(xiàn)象說明ChatGPT 能夠基于人類已有知識庫進行推理和歸納,甚至可以自主決策和知識創(chuàng)新[31]。因此,知識生產(chǎn)的角色不再局限于人類,而是向著人類與人工智能大模型共存的新形態(tài)發(fā)展[33]。
其次,除專業(yè)人士外的廣大用戶成為知識生產(chǎn)的重要參與者。傳統(tǒng)的知識生產(chǎn)門檻較高,普通個體缺乏嚴格的學術(shù)訓練,也不具備準確表達知識的能力,因此很難有效參與到知識生產(chǎn)的過程中[34]。然而,ChatGPT 的出現(xiàn)改變了這一局面。因具備強大的知識表達和處理能力,ChatGPT 擁有對語言的深入理解,經(jīng)過廣泛的文本訓練,可以基于給定的提示和語境生成類似專業(yè)人士回復的內(nèi)容[35]。因此,借助ChatGPT,任何個體只需要掌握一定的提示工程技巧,就可以引導大模型根據(jù)自身需求產(chǎn)生相應的知識[36]。這為廣大用戶的知識學習和知識生產(chǎn)提供了更多機會,擴大了參與知識生產(chǎn)的人群范圍。
ChatGPT 能夠打破各學科領(lǐng)域間的知識壁壘,促進多學科知識的融合和跨學科知識的出現(xiàn)??鐚W科研究是指超越一個已知學科邊界進行的涉及兩個或多個學科的研究活動[37],不僅能夠幫助研究人員獲得更多樣化的意見和思維模式,提出更好的研究問題[38],而且有助于擺脫流行的理論和范式,帶來開創(chuàng)性的進步[39]。然而,人類注意力的有限性限制了不同學科觀點的碰撞[40],且由于學科間的知識壁壘,學習和掌握外來學科的知識需要付出一定的時間成本和智力成本,阻礙了跨學科形式的知識生產(chǎn)。ChatGPT 作為AIGC 的代表,能夠快速理解各領(lǐng)域的專業(yè)知識。借助ChatGPT,研究人員可以通過對話的方式較容易獲取并理解不同學科領(lǐng)域的專業(yè)知識,節(jié)省了研究人員搜索并學習其他學科知識的時間。此外,ChatGPT 強大的推理能力可快速對不同知識內(nèi)容進行分析總結(jié),通過續(xù)寫文字、頭腦風暴和觀點討論,為研究人員后續(xù)的工作提供啟發(fā),從而極大地提升跨學科知識生產(chǎn)的效率。
此外,ChatGPT 在實現(xiàn)技術(shù)迭代的同時也擴充了訓練數(shù)據(jù)集的語料庫,為跨學科研究提供更加全面的知識庫參考。根據(jù)現(xiàn)有公開資料顯示,GPT-3 預訓練語料集主要由Common Crawl 數(shù)據(jù)集、Reddit 鏈接、書籍、期刊及英文維基百科數(shù)據(jù)等組成,而微調(diào)語料則主要源于GitHub 上的公共代碼庫[41]。ChatGPT/GPT-4 預訓練語料集在維持了GPT-3 的語料基礎(chǔ)上,還進行了大幅度的擴充和增強。這種大規(guī)模的數(shù)據(jù)集整合提供了更豐富的知識背景,使得ChatGPT /ChatGPT-4 有超越前一代模型的知識基礎(chǔ)和學習能力,能夠?qū)Ω鼜碗s的任務進行更高效的處理和更專業(yè)的解析。這不僅提高了模型的準確性和靈活性,也使得ChatGPT 能夠進一步促進跨學科領(lǐng)域的交流,推動人類各類知識的大融合。
隨著人工智能大模型ChatGPT 的應用,知識生產(chǎn)方式將會發(fā)生重大變革,演變?yōu)槿伺c機器的雙向賦能[42],實現(xiàn)人類和智能機器的協(xié)同創(chuàng)新[43]。具體來說,一方面,ChatGPT 能夠基于已有知識庫賦能從想法提出到問題解決的知識生產(chǎn)全過程,提高人類知識生產(chǎn)的效率。ChatGPT 可以自動從大量的文本中對多模態(tài)數(shù)據(jù)的關(guān)鍵信息進行抽取和分析,發(fā)現(xiàn)不同領(lǐng)域中隱藏的規(guī)律和原理,如基本的統(tǒng)計分析、分類和聚類分析等,提出新的研究問題。同時,ChatGPT也可以幫助研究人員更好地清洗和預處理數(shù)據(jù),如填充缺失值與去除噪聲等,從而提高科研數(shù)據(jù)的質(zhì)量。基于GPT-4 的圖像生成能力,GPT 系列模型還可以幫助研究人員更好地可視化處理數(shù)據(jù),如生成圖表、詞云等,從而大幅提升科研工作者的效率;另一方面,人類知識工作者負責對知識進行深層次的把握、推理和解釋,通過對話式交互將新的見解反饋給ChatGPT,提高知識生產(chǎn)的質(zhì)量和價值。應用ChatGPT 進行知識生產(chǎn)時,經(jīng)過嚴謹?shù)倪壿嬐评砗团行运伎迹祟惪梢詾镃hatGPT 的知識生產(chǎn)提供反饋信息,促進ChatGPT 的強化學習和優(yōu)化升級,進而有助于ChatGPT 生成更貼合人類和社會發(fā)展需求的高價值知識。這一雙向賦能規(guī)律使得人類和機器在知識生產(chǎn)過程中相互促進[44],體現(xiàn)了人類知識螺旋式上升的發(fā)展過程。
知識復用是指組織或個人通過特定的方法或技術(shù)手段,對已有知識進行重復利用的過程,以實現(xiàn)特定目標并增加知識的價值[45]。知識復用可分為四個階段,包括知識搜索、知識評估、知識重組和知識生產(chǎn)[46]。這一過程允許知識復用者將現(xiàn)有知識在不同情境下進行組合應用,在實現(xiàn)知識創(chuàng)新方面發(fā)揮著重要作用。ChatGPT 的本質(zhì)就是對已有的知識進行搜索、歸納、重組和再利用[47],進而幫助用戶解決問題。因此,ChatGPT 可以說是目前最大的知識復用者,通過將語料庫中的知識直接或加工后間接地傳遞給用戶,極大地推動了人類對知識的復用。
傳統(tǒng)的知識搜索主要依賴于人類的記憶和手動檢索能力,這種方式存在著信息獲取效率低下和數(shù)據(jù)庫限制的問題。ChatGPT 的出現(xiàn)提升了知識搜索的速度、廣度及智能化水平。首先,ChatGPT 具備強大的算力和豐富的預訓練知識,可以根據(jù)知識復用者提供的問題和關(guān)鍵詞快速搜索到專業(yè)性知識,大大提高了知識搜索的效率和范圍;其次,基于海量豐富的語料庫,ChatGPT 可以將多學科知識整合并形成連貫性的回復,幫助知識復用者突破領(lǐng)域限制,檢索到更廣泛而準確的知識,拓寬了知識搜索的渠道;最后,ChatGPT 的出現(xiàn)扭轉(zhuǎn)了過去以“記憶”能力為主的局面,強調(diào)“對語料檢索和理解”的能力。傳統(tǒng)搜索和獲取知識的方式通常需要大量的閱讀、培訓和記憶,ChatGPT 的應用則強調(diào)準確的檢索和深入的理解。面對接入人類知識庫的端口,一個準確的問題便可以滿足人類獲取任何知識的需求,這要求用戶提出的問題足夠清晰,為ChatGPT 在海量知識庫中的搜尋提供明確的指引。當ChatGPT 作出回答后,用戶不再需要對它提供的答案進行記憶,而是需要仔細地閱讀、理解和判斷,以評估知識的適用性。這種轉(zhuǎn)變使得知識復用者從重復機械的勞動轉(zhuǎn)變?yōu)閯?chuàng)造性活動[42],因為他們不再需要將大量精力用于簡單的記憶和重復性任務,而是將重點放在理解和應用知識的能力上。
知識復用者是否選擇復用知識取決于他們自身對復用知識價值的認知判斷。他們需要評估知識的相關(guān)性、準確性、有效性以及知識的可學習性和可改進性[46]。傳統(tǒng)的知識評估往往依賴于知識復用者的主觀判斷,其依據(jù)的信息來源往往是有限的,因此存在知識評估的主觀性和片面性問題。ChatGPT的智能生成能力為解決知識評估的問題提供了全新的途徑和工具。首先,知識復用者可以從多個角度與ChatGPT 進行對話交互,對它的回復提出質(zhì)疑,以檢驗知識的準確性和有效性;其次,ChatGPT 的智能對話生成能力允許知識復用者根據(jù)回答進行更深入的思考和更細致的追問,這一雙向賦能過程可以幫助知識復用者理解和評估知識的可學習性和可改進性,從而更好地判斷其是否適合用于特定場景。
首先,ChatGPT 是基于已有的人類語言數(shù)據(jù)集進行訓練的模型,其所產(chǎn)生的文本本身可以被視為一種知識的重新組合;其次,知識復用者可以利用ChatGPT 生成的既有知識作為創(chuàng)作的起點,通過與ChatGPT 的對話式交互,借助ChatGPT 的觀點促進自身對已有知識重新組合的創(chuàng)造性思維的發(fā)展,產(chǎn)生差異化的重組想法;最后,ChatGPT 廣泛而豐富的語料庫能夠幫助知識復用者獲取到更多樣化的知識,這可以擴展他們自身的認知空間,并且可能會獲得一些他們之前不知道或難以自行生成的知識,引導并啟發(fā)他們產(chǎn)生新的觀點和見解,進而有助于知識的生產(chǎn)。
對現(xiàn)有知識要素的重組能夠產(chǎn)生新穎性的科學知識[48]。在此過程中,說明所參考知識要素的準確來源是必不可少的,這可以提高生成知識的可信度[49]。ChatGPT 參與知識生產(chǎn)的主要方式是將人類現(xiàn)有的知識進行重新組合,由于缺乏人類的思考能力[50],其生成的知識均屬于已知范圍,不具備“創(chuàng)造”的成分[30],因此生成的知識不屬于原創(chuàng)性知識。不僅如此,這些知識的參考來源并不清楚。一是因為Chat-GPT 生成的文本不帶有引用來源;二是ChatGPT 的訓練數(shù)據(jù)來自網(wǎng)絡中現(xiàn)有的大量信息源,包括書籍、文章、圖片、音頻等,這使得人工追溯其參考內(nèi)容的出處幾乎是不可能的。此外,面對同一個問題的多種不同回答,很難判斷ChatGPT 是否抄襲。這會導致知識生產(chǎn)者無意間的作弊行為,對教學和學術(shù)誠信產(chǎn)生不利影響?!犊茖W》(Science)的主編赫伯特·索普(Herbert Holden Thorp)以學術(shù)期刊負責人的身份聲明:禁止在該期刊上發(fā)表的論文中使用ChatGPT 或任何其他人工智能工具生成的任何文本[51]。
剽竊源于版權(quán)問題。剽竊不僅僅是在文字上的復制抄襲,還包括他人創(chuàng)意、方法、圖形以及其他任何有關(guān)智力的產(chǎn)品[52]。高效率和高質(zhì)量的響應使得ChatGPT 的知識生產(chǎn)能力或已達到或超過人類的水平[24]。當使用者運用ChatGPT 進行知識生產(chǎn)時,常常會發(fā)現(xiàn)它所生成的文本令人感到驚奇和出乎意料,超出了使用者的期望和知識范圍,若直接進行引用則會帶來剽竊的風險。因此,研究人員如果直接應用ChatGPT 進行知識生產(chǎn)與復用,生成的內(nèi)容則很可能與已有的受版權(quán)保護的作品相似,進而產(chǎn)生侵權(quán)的風險。由于ChatGPT 不具備法律實體身份,無法實際承擔責任,因此這種侵權(quán)可能會轉(zhuǎn)嫁給知識復用者[53]。這導致研究人員無意間破壞了學術(shù)倫理規(guī)范,并可能受到相應的懲罰。
利用ChatGPT 的知識生產(chǎn)與復用可能會產(chǎn)生偏見。大語言模型嚴重依賴訓練數(shù)據(jù),由于ChatGPT 不具備思考能力,這導致訓練數(shù)據(jù)的偏見會體現(xiàn)在ChatGPT 的知識輸出中。目前,ChatGPT 的訓練數(shù)據(jù)和編碼過程可能包含有關(guān)性別、種族、民族和殘疾狀況的偏見[53],這會使得ChatGPT 產(chǎn)生包含不公平或歧視性觀點的輸出。此外,大語言模型遵循用戶的提示,根據(jù)訓練的數(shù)據(jù),通過預測最有可能的單詞生成句子。這種能力也面臨著被扭曲的風險,即有人用刻意編織的提示引導語言模型,躲避ChatGPT 的安全機制,誘導其生成支持種族主義、陰謀論等文本?;谥R生產(chǎn)與復用的視角,根據(jù)這些有缺陷的數(shù)據(jù)所形成的帶有偏見的輸出可能導致生成知識的失衡和片面性,這不僅會挑戰(zhàn)知識的嚴謹性和權(quán)威性,還會對特定群體造成負面影響,加劇社會中的不平等和不公正。因此,在使用訓練數(shù)據(jù)時,研究人員應該有意識地避免強化或放大這些偏見。這需要對數(shù)據(jù)進行篩選、平衡和調(diào)整,以確保模型訓練結(jié)果的公正、包容和多樣化。
ChatGPT 可能會憑空“捏造”知識。ChatGPT 模型的輸出是基于已有知識的復用,本質(zhì)上是通過概率和語言規(guī)則來生成文本,而不是經(jīng)過深思熟慮和實證研究得出的結(jié)論。即使ChatGPT 能夠提供詳盡的解釋和推理,但它不能真正理解問題的背景、條件和復雜性。基于這一過程產(chǎn)生的知識存在虛假或捏造的情況[47],通過大量傳播后造成錯誤認知,使人們對知識的正確性和可靠性產(chǎn)生懷疑,甚至會誤導用戶。因此,對于涉及復雜情境或準確性要求較高的領(lǐng)域,應謹慎使用ChatGPT 生成的知識,并保持批判的思維,將其作為一個工具而非權(quán)威來源。
ChatGPT 的知識生產(chǎn)與復用可能導致知識泛濫且質(zhì)量參差不齊。隨著技術(shù)的發(fā)展,大模型會變成一種普遍性的生產(chǎn)力工具,所有用戶都可以通過大模型來進行巨量的知識生產(chǎn)[34]。知識生產(chǎn)主體多樣化使得專家和學者在整個知識生成過程中的作用不斷被稀釋,進而可能會導致知識的泛濫和低質(zhì)量化[34]。此外,由于用戶的輸入和反饋對于生成的內(nèi)容起著至關(guān)重要的作用,如果用戶提供了不準確或不負責任的信息,或者沒有充分驗證和審查生成的內(nèi)容,那么ChatGPT 則可能將接收到的錯誤信息進行廣泛傳播,導致人類知識庫中的知識質(zhì)量參差不齊,進而影響知識的權(quán)威性。
ChatGPT 的學習和訓練主要是以英文及西方知識體系為基礎(chǔ),它往往傾向于生成與西方文化相關(guān)的內(nèi)容和觀點[54]。因此,其他語言和文化的存在可能被忽視或邊緣化。第一,ChatGPT 的訓練數(shù)據(jù)主要來源于英文數(shù)據(jù)庫,一方面對于非英語用戶而言,可能受到語言障礙的影響,因為翻譯和解釋跨語言語境的問題可能會導致信息的失真或誤解;另一方面ChatGPT 的回復主要基于西方文化和理論觀點產(chǎn)生,其他文化背景下的使用者可能無法得到較為全面和準確的回應,這意味著非英語用戶可能無法充分參與到知識創(chuàng)造的過程中,限制了多元知識的傳遞和生成。
第二,從學術(shù)研究的觀點出發(fā),目前學術(shù)界的基礎(chǔ)理論多源于西方文化,通常是基于西方成熟理論對不同文化背景的現(xiàn)實問題展開討論。然而,這存在理論的適用性和可推廣性問題。因為異質(zhì)性的文化背景會產(chǎn)生差異化的認知和需求,導致很多研究結(jié)論不具有普適性。映射到ChatGPT 的知識生產(chǎn)與復用中,ChatGPT 所參考的知識內(nèi)容大多源于西方知識體系,這限制了ChatGPT 在特定領(lǐng)域或文化背景下的適應能力。這不僅會導致ChatGPT 所生成知識與用戶自身文化背景的不匹配,而且在某種程度上,通過知識滲透,可能會導致其他語言和文化的話語權(quán)力受到擠壓和削弱,進而加劇話語權(quán)的不平等。因此,努力提升ChatGPT 在多語言和跨文化方面的能力是至關(guān)重要的。這需要更多關(guān)于其他語言和文化的多樣化訓練數(shù)據(jù),以及相應的研究和開發(fā)工作。通過增加對非英語用戶需求的關(guān)注,并加強與多語言社區(qū)的合作,可以促進跨文化交流和知識的平等。
知識生產(chǎn)與復用是社會發(fā)展和人類進步的重要推動力,以ChatGPT 為代表的AIGC 技術(shù)為知識生產(chǎn)和復用提供了新的工具和手段。然而,技術(shù)進步是一把雙刃劍,ChatGPT 的出現(xiàn)也會帶來知識產(chǎn)權(quán)保護爭議、知識權(quán)威性降低、誤導性知識惡意傳播、知識話語權(quán)力等新挑戰(zhàn)。為應對這些挑戰(zhàn),需要建立新的知識生產(chǎn)與復用治理規(guī)則,包括:進一步建立健全知識產(chǎn)權(quán)保障體系,政產(chǎn)學研共同協(xié)商創(chuàng)建和實施設立全新的認證或許可制度,開發(fā)能夠智能檢測ChatGPT 生成內(nèi)容的技術(shù),確保知識產(chǎn)權(quán)歸屬方的權(quán)益不被侵犯;減少對AI 生成內(nèi)容的過度依賴,提升自身學習能力和創(chuàng)造力,同時積極與專業(yè)知識持有者進行探討交流,避免人工智能輸出內(nèi)容的潛在誤導;加強AIGC 的治理,突出人類在知識生產(chǎn)與復用中的核心作用,將ChatGPT 視為一種輔助性學習工具而非權(quán)威來源,提升批判性思維能力,助力新問題的發(fā)現(xiàn)以及更深入地思考。