摘要:由OpenAI公司推出的ChatGPT作為當下最火的智能聊天機器人,使人工智能再次成為人們討論的熱點話題,尤其4.0版本的表現(xiàn)令人震撼,其應(yīng)用范圍不再限于聊天本身,在政治、經(jīng)濟、文化等領(lǐng)域也有不俗的影響力。文章闡述ChatGPT的發(fā)展歷程,聚焦于新聞業(yè),探究ChatGPT在改變新聞傳播的主體、提高新聞內(nèi)容的生產(chǎn)效率、檢查新聞報道的真實性等方面的影響,以及ChatGPT可能對新聞媒體崗位產(chǎn)生的沖擊。同時,深入思考ChatGPT存在的新聞倫理道德問題和潛在法律隱患等,并從提升新聞內(nèi)容的創(chuàng)新性與新聞工作者的創(chuàng)造力,在模型訓(xùn)練方面有針對性地增加準確、專業(yè)的數(shù)據(jù)輸入,適度使用ChatGPT來提高生產(chǎn)效率和針對其使用制定相關(guān)的法律法規(guī)四個角度,提出應(yīng)對策略。
關(guān)鍵詞:ChatGPT;新聞業(yè);機遇;挑戰(zhàn)
中圖分類號:TP18;G219.2 文獻標識碼:A 文章編號:1004-9436(2023)14-00-04
2023年,ChatGPT在互聯(lián)網(wǎng)上的爆火使人工智能再次成為人們討論的熱點話題。ChatGPT自推出后,僅兩個月便收獲了超過1億的月活用戶,成為歷史上增長最快的消費級應(yīng)用程序。美國企業(yè)家埃隆·馬斯克稱ChatGPT的出現(xiàn)可以比肩iPhone的發(fā)明,比爾·蓋茨認為它的誕生不亞于互聯(lián)網(wǎng)和個人電腦的問世。
目前,國內(nèi)外的許多學(xué)者對ChatGPT展開了相關(guān)研究。方興東指出,“從傳播學(xué)視角看,ChatGPT帶來的社會影響與沖擊,本質(zhì)上是人類信息傳播范式的重大轉(zhuǎn)變,它改變了人的生活方式和整個社會的運行方式”[1]。美國波士頓大學(xué)計算與數(shù)據(jù)科學(xué)學(xué)院教授韋斯利·J.懷爾德曼總結(jié)道:“ChatGPT為人類日常生活帶來的便利將會涵蓋學(xué)習(xí)、工作等多個方面,它的飛速發(fā)展將對科研、商業(yè)、政治和人際關(guān)系等領(lǐng)域產(chǎn)生深遠而持久的影響?!保?]上海市計算機學(xué)會網(wǎng)絡(luò)專委會副主任陳陽認為,“新聞媒體對ChatGPT的報道和社交媒體對其內(nèi)容的快速傳播,對ChatGPT的出圈起到了明顯的作用”[3]。
可以說,前人的相關(guān)研究使人們對ChatGPT有了初步認識,但ChatGPT對新聞業(yè)影響的相關(guān)研究較少,因此本文從多個方面分析ChatGPT對新聞業(yè)產(chǎn)生的影響,并提出觀點與建議。
1 ChatGPT的發(fā)展歷程
ChatGPT的核心是GPT技術(shù)模型。在ChatGPT出現(xiàn)前,已有GPT-1、GPT-2、GPT-3三代GPT模型。ChatGPT是基于GPT-3.5架構(gòu)開發(fā)的對話AI模型,2023年3月最新推出的GPT-4模型為ChatGPT提供了更豐富的訓(xùn)練數(shù)據(jù)集,ChatGPT的未來值得期待。
1.1 GPT-1/2/3階段
GPT-1(約5GB訓(xùn)練文本,1.17億參數(shù)量)于2018年問世。2019年底,OpenAI公司推出了GPT-2(約40GB訓(xùn)練文本,15億參數(shù)量),但由于訓(xùn)練文本和參數(shù)量有限,其并沒有十分出彩的表現(xiàn)。2020年推出的GPT-3憑借約45TB的訓(xùn)練文本、1750億的參數(shù)量,成為當時最強大的語言模型[4]。海量的參數(shù)使GPT-3不僅在模式分析、問卷調(diào)查、機器翻譯等傳統(tǒng)NLP任務(wù)中擁有優(yōu)勢,還在數(shù)字算法、文章生成等領(lǐng)域嶄露頭角。
1.2 GPT-4階段
2023年3月,OpenAI公司推出最新款人工智能模型GPT-4。由于在參數(shù)量方面較GPT-3.5增加了10倍,GPT-4在多模態(tài)輸入與輸出、智能程度、創(chuàng)造力和適應(yīng)力等方面都實現(xiàn)了跨越式的提升?;贕PT-4架構(gòu)的ChatGPT在人機交互體驗、信息數(shù)據(jù)與圖像處理、文本預(yù)測推理等方面的發(fā)展前景值得期待。
2 ChatGPT給新聞業(yè)帶來的機遇
ChatGPT的應(yīng)用場景非常廣闊,在醫(yī)療保健、教育、社交媒體、營銷等熱門領(lǐng)域具有很高的應(yīng)用價值。雖然目前ChatGPT并沒有在我國的新聞業(yè)得到大規(guī)模的使用,但筆者推測ChatGPT在未來將為新聞業(yè)帶來以下三個方面的機遇。
2.1 改變新聞傳播的主體
ChatGPT正在將新聞傳播的主體從人類轉(zhuǎn)變成人工智能??梢源竽懙仡A(yù)測,在不久后的將來,人們對新聞的獲取可以通過與人工智能互動的方式實現(xiàn)。人機問答方式區(qū)別于網(wǎng)絡(luò)搜索引擎的搜索功能,可以提供一些具有創(chuàng)意的內(nèi)容生成,并根據(jù)每個人對信息需求的差異,對信息進行個性化的整合與智能化的生成,實現(xiàn)高度個性化的新聞傳播。
2.2 提高新聞內(nèi)容生產(chǎn)效率
經(jīng)過大量數(shù)據(jù)的訓(xùn)練,ChatGPT學(xué)習(xí)并總結(jié)了文本中特定字詞的分布規(guī)律和概率,在文本生成的過程中,依據(jù)輸入的內(nèi)容推測需要生成的字詞。基于AIGC(AI Generated Content,即人工智能生成內(nèi)容)高效率、低成本的特點,ChatGPT可以被使用在一些特定的新聞內(nèi)容生產(chǎn)環(huán)節(jié)。
首先,針對一些程式化的題材,ChatGPT可以調(diào)用訓(xùn)練數(shù)據(jù)中的相關(guān)模板,快速地生成一篇標準的新聞報道,簡化新聞內(nèi)容生產(chǎn)流程,提高新聞生產(chǎn)效率。
其次,在一些專業(yè)性較強的新聞報道中,ChatGPT可以迅速準確地提供專業(yè)信息,避免新聞工作者在工作中因“知識盲區(qū)”而出現(xiàn)事實性錯誤。但是,由于目前ChatGPT的訓(xùn)練數(shù)據(jù)還停留在2021年,對某些領(lǐng)域最前沿的信息難以辨別,所以使用ChatGPT進行新聞報道的過程中需要注意信息的時效性。
最后,ChatGPT的使用流程簡便,有學(xué)者指出,
“ChatGPT的接入和試用成本低,在易用性方面,ChatGPT的交互邏輯簡明直接,只需輸入指令便可即刻獲得答復(fù)”。用戶通過人機問答的形式,可以在線上快速獲取信息,同時打破了時空限制,提高了生產(chǎn)效率。
2.3 檢查新聞報道的真實性
真實性是新聞的生命,新聞報道中的每一個具體事實都應(yīng)符合客觀實際。ChatGPT不僅可以生產(chǎn)新聞,還可以通過大數(shù)據(jù)的調(diào)用反向檢查新聞的真實性。崔保國、鄧小院認為,“ChatGPT可以借助強大的數(shù)據(jù)搜索與識別能力,對信息傳播的途徑進行分析,進而反向推測信息的可信程度,最終對新聞報道的真實性作出判斷”[5]。
在互聯(lián)網(wǎng)時代,虛假新聞傳播亂象時常發(fā)生,利用好ChatGPT檢查新聞?wù)鎸嵭缘墓δ?,提高人工智能對信息搜查的準確度與辨識力,將對整個新聞業(yè)的未來發(fā)展起到至關(guān)重要的作用。
3 ChatGPT給新聞業(yè)帶來的挑戰(zhàn)
萬物都有兩面性,ChatGPT在給人們帶來便利的同時,也帶來一些挑戰(zhàn)。對此,許多學(xué)者提出了自己的觀點和思考,本文總結(jié)三個具有代表性的問題并展開探討。
3.1 新聞媒體崗位的緊缺
ChatGPT在新聞業(yè)的普及使用,可能會導(dǎo)致一些重復(fù)性較強的工作崗位減少。喻國明提出,“ChatGPT在中短期內(nèi)功能性擴張的主要方向為:歸納性的文字類工作、代碼開發(fā)相關(guān)工作、圖像生成領(lǐng)域、智能客服類工作”[6]。對新聞業(yè)來說,新聞編輯等崗位受到的沖擊最大。經(jīng)過大數(shù)據(jù)的訓(xùn)練之后,ChatGPT在文字歸納、整理、生成等方面的效率明顯高于人類,越來越多的媒體機構(gòu)開始使用機器進行新聞報道的編輯,重復(fù)性強的文字基礎(chǔ)類工作很有可能在未來被ChatGPT或更加先進的人工智能完全替代。
但目前的主流觀點認為,記者、新聞策劃等主觀思考性較強的職業(yè)不會因ChatGPT的出現(xiàn)而被淘汰。新民晚報記者邵寧認為,“記者不是傳聲筒、復(fù)讀機,記者從事的是創(chuàng)造性的勞動,擁有一雙‘新聞眼的記者是不會被淘汰的”[7]。吳雙在《別怕,和ChatGPT一起奔向未來》一文中提到,“ChatGPT的思考能力和判斷能力目前是有限的,人類在不斷的自我反思、自我糾正之中逐步形成批判性的思維能力是當前技術(shù)水平下ChatGPT所無法企及的”[8]。ChatGPT目前最大的局限在于無法實現(xiàn)“自主思考”,這也是人工智能并未真正完全替代人類的原因。如果在未來人工智能被賦予了“自主思考”的能力,那么更多新的社會問題甚至是倫理問題會隨之出現(xiàn),這是一個值得研究的議題。
3.2 新聞倫理道德的挑戰(zhàn)
目前ChatGPT并不具備獨立思考的能力,ChatGPT的數(shù)據(jù)輸出依靠后臺大量的訓(xùn)練數(shù)據(jù),如果輸入的訓(xùn)練數(shù)據(jù)帶有偏見、歧視性的價值觀,那么ChatGPT的輸出內(nèi)容就很容易出現(xiàn)偏見與歧視。如果不加辨別地將其運用到新聞內(nèi)容的生產(chǎn)中,可能會產(chǎn)生不良的社會影響。早在2016年,微軟公司推出的人工智能Tay便因鼓吹種族清洗而被下架。2022年12月,清華大學(xué)交叉信息研究院開展了有關(guān)AI模型性別歧視水平的評估項目,實驗對象是ChatGPT的前身GPT-2,測試結(jié)果顯示,GPT-2有70.59%的概率將教師預(yù)測為男性,將醫(yī)生預(yù)測為男性的概率為64.03%。實驗團隊的帶頭人于洋說:“AI會重男輕女,愛白欺黑(種族歧視)。”[5]對此,OpenAI公司稱已盡力設(shè)計了許多道德準則,并引導(dǎo)ChatGPT對許多帶有偏見、不道德的惡意提問進行否定回答。這種做法能否確保ChatGPT不再輸出帶有偏見或歧視性的語句,仍有待后續(xù)檢驗。
ChatGPT還容易“說謊”。我國學(xué)者指出,“ChatGPT建立在一個盡量有問必答的預(yù)設(shè)原則之上,假如問一個基于它目前知識庫所無法回答的問題,那么它便會自行編造一個答案,這就注定了它有說謊的可能性”[9]。ChatGPT等語言模型并不理解自己在說什么,它們只是從二手信息里尋找可能有用的信息,并將其整合、輸出。這些輸出的答案很可能含有錯誤的信息,甚至完全是在一本正經(jīng)地胡說八道。
對ChatGPT的盲目使用,容易使人們陷入“圖靈陷阱”。從新聞業(yè)角度來看,“圖靈陷阱”即在新聞工作中過度依賴ChatGPT進行新聞的生產(chǎn)加工及報道。如果不加限制地使用人工智能代替人去完成工作,那么人的自主性最終將被機器剝奪。中國社會科學(xué)院哲學(xué)研究所研究員段偉文認為,“之所以會出現(xiàn)‘圖靈陷阱,是因為智能和自動化系統(tǒng)沒有做到‘以人為本,人工智能的部署往往使人類被迫適應(yīng)‘智能化,它的結(jié)果沒有使機器人性化,反而使人變得機器化”[10]。
3.3 版權(quán)及其他法律問題
版權(quán)歸屬是ChatGPT浪潮中備受關(guān)注的一個話題。從新聞出版領(lǐng)域來看,ChatGPT生成的文本是否具有版權(quán)?使用ChatGPT寫出的稿件能否直接用于新聞出版?由誰來承擔(dān)相應(yīng)的責(zé)任?新聞業(yè)是否擁有針對人工智能應(yīng)用的相關(guān)規(guī)則體系?這些問題都值得關(guān)注與探討。華東政法大學(xué)知識產(chǎn)權(quán)學(xué)院的叢立先、李泳霖認為,生成內(nèi)容在著作權(quán)法上可視為“代表設(shè)計者或訓(xùn)練者意志的創(chuàng)作行為”,只要滿足“獨創(chuàng)性”的要求,即具備“可版權(quán)性”[11]。同理,如果使用ChatGPT生產(chǎn)的內(nèi)容符合版權(quán)法要求的獨創(chuàng)性、可復(fù)制性要件,就應(yīng)該認定其具有版權(quán)。未來版權(quán)發(fā)展將呈現(xiàn)多元化、包容性趨勢。隨著創(chuàng)作主體越來越復(fù)雜,ChatGPT及其他人工智能的生產(chǎn)內(nèi)容將有可能被授權(quán)。
AI的文本生成能力強大,新聞內(nèi)容剽竊問題愈加嚴重。美國波士頓大學(xué)的懷德爾曼教授認為,“剽竊的道德準則似乎比較清晰、易鑒定,但ChatGPT等自然語言處理工具帶來的隱患,使剽竊的概念變得更加復(fù)雜”;美國語言學(xué)家喬姆斯基認為,“ChatGPT訪問海量數(shù)據(jù),并將其按照一定的規(guī)律串聯(lián)到一起,看起來像是人類的思考,其實本質(zhì)上就是抄襲”。新聞工作者利用ChatGPT對其他文本內(nèi)容進行摘錄,并通過AI的內(nèi)容整合技術(shù)處理,最終生成自己所需的內(nèi)容。這個過程雖然為新聞工作者節(jié)省了許多精力,但本質(zhì)上只是一種“搬運”,并未直接經(jīng)過新聞工作者的獨立思考。新聞工作者最基本的一項技能就是寫作能力,如果缺乏足夠的鍛煉,過分依賴人工智能,那么對今后整個新聞業(yè)的發(fā)展是不利的。
作為一款交流型功能應(yīng)用,ChatGPT具有很強的宣傳引導(dǎo)性。若被不善使用,就很容易引發(fā)信息詐騙、新聞造假等違法現(xiàn)象。ChatGPT通過大數(shù)據(jù)訓(xùn)練以及人工反饋進行學(xué)習(xí),一旦接收了不良信息,就很容易形成錯誤的導(dǎo)向,誤導(dǎo)使用者。新聞業(yè)作為國家的重要宣傳事業(yè),對傳播內(nèi)容的價值正確性具有較高的要求。目前的ChatGPT要在新聞業(yè)實現(xiàn)廣泛普及,仍具有一定的法律風(fēng)險。
4 應(yīng)對ChatGPT挑戰(zhàn)的策略
針對ChatGPT給新聞業(yè)帶來的挑戰(zhàn),本文從新聞內(nèi)容、數(shù)據(jù)輸入、使用頻次、法律法規(guī)四個方面提出相應(yīng)的對策。
4.1 提升新聞內(nèi)容的創(chuàng)新性與新聞工作者的創(chuàng)造力
提高新聞內(nèi)容的創(chuàng)新性與新聞工作者的創(chuàng)造力是應(yīng)對ChatGPT對新聞媒體崗位沖擊的最優(yōu)解。機器是“死”的,而人是“活”的。ChatGPT目前只能進行一些較低級的內(nèi)容生成,生成的內(nèi)容往往千篇一律、缺乏創(chuàng)新。新聞工作者可以利用這一點,提高自身創(chuàng)造力和批判性思維能力,生產(chǎn)出更多具有創(chuàng)新性的新聞內(nèi)容,不斷提高新聞內(nèi)容的質(zhì)量,在避免自己的崗位被ChatGPT等人工智能替代的同時,客觀上促進新聞業(yè)的發(fā)展,形成良性循環(huán)。
4.2 有針對性地增加準確、專業(yè)的數(shù)據(jù)輸入
ChatGPT的前期訓(xùn)練數(shù)據(jù)是海量的,其中難免混入一些垃圾數(shù)據(jù)和錯誤數(shù)據(jù)。針對此類情況,可以有針對性地向ChatGPT輸入準確的數(shù)據(jù)以引導(dǎo)與矯正。同時,ChatGPT在內(nèi)容生產(chǎn)過程中暴露出的專業(yè)性較差、深度不足等問題,也可以通過特定的數(shù)據(jù)輸入得到改善。優(yōu)化后的ChatGPT將在新聞內(nèi)容生產(chǎn)等環(huán)節(jié)顯現(xiàn)出更多的可能性,報道內(nèi)容生成的專業(yè)性、深度將明顯提升。
4.3 適度使用ChatGPT來提高生產(chǎn)效率
人類發(fā)明人工智能,最終目的必然是使其為人類所用。將ChatGPT視為工作助手,適度運用到日常的新聞工作中,可以提高新聞內(nèi)容的生產(chǎn)效率,減輕新聞工作者在資料搜索與整理、文字編輯等方面的工作壓力。當下,ChatGPT只是一個功能性較強的聊天互動型機器人,無法完全替代人類完成工作,如果人類過度依賴ChatGPT開展工作,就有可能掉入前文所述的“圖靈陷阱”。
4.4 制定相關(guān)法律法規(guī)對AI的使用與開發(fā)進行規(guī)范
科技是不斷向前發(fā)展的,在未來會有更多與ChatGPT類似的人工智能出現(xiàn)在人們生活的各個方面,因此制定相關(guān)法律法規(guī)對其進行管理顯得尤為重要。對新聞業(yè)來說,AI生成內(nèi)容的版權(quán)歸屬、AI在新聞傳播中是否承擔(dān)風(fēng)險與責(zé)任等問題,都是制定法律法規(guī)時需要重點關(guān)注的內(nèi)容。
5 結(jié)語
本文分析了ChatGPT的發(fā)展歷程,然后從新聞傳播主體的改變、提高新聞內(nèi)容生產(chǎn)效率、檢查新聞報道的真實性三個角度分析其給新聞業(yè)帶來的機遇,并從新聞媒體崗位、新聞倫理道德、新聞法律三個方面闡述其給新聞業(yè)帶來的挑戰(zhàn),再針對挑戰(zhàn)提出優(yōu)化新聞內(nèi)容、增加數(shù)據(jù)輸入、控制使用頻次、制定法律法規(guī)的應(yīng)對策略。相關(guān)人員應(yīng)理性認識ChatGPT給新聞業(yè)帶來的機遇和挑戰(zhàn),相信ChatGPT帶來的是解放,而不是枷鎖。
參考文獻:
[1] 方興東. ChatGPT爆紅確立智能傳播的主流地位[N].中國社會科學(xué)報,2023-03-07(003).
[2] 韋斯利·J.懷爾德曼.與機器共情:將人類意圖與智能工具相結(jié)合[N].中國社會科學(xué)報,2023-03-06(008).
[3] 孫美娟,張譯心. ChatGPT:熱話題需要冷思考[N].中國社會科學(xué)報,2023-03-07(002).
[4] 沈威. ChatGPT形成機理與問題應(yīng)對[N].中國社會科學(xué)報,2023-03-07(007).
[5] 崔保國,鄧小院. ChatGPT給傳媒業(yè)帶來機遇和挑戰(zhàn)[N].中國社會科學(xué)報,2023-03-07(003).
[6] 喻國明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態(tài):從ChatGPT到全面智能化時代的未來[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,44(5):81-90.
[7] 邵寧. ChatGPT來了,我會失業(yè)嗎?[N].新民晚報,2023-02-09(007).
[8] 吳雙.別怕,和ChatGPT一起奔向未來[N].人民郵電,2023-02-23(006).
[9] 熊明輝.多維考察ChatGPT[N].中國社會科學(xué)報,2023-03-06(005).
[10] 段偉文.積極應(yīng)對ChatGPT的倫理挑戰(zhàn)[N].中國社會科學(xué)報,2023-03-07(007).
[11] 叢立先,李泳霖.聊天機器人生成內(nèi)容的版權(quán)風(fēng)險及其治理:以ChatGPT的應(yīng)用場景為視角[J].中國出版,2023(5):16-21.
作者簡介:李懿宸(2003—),男,江蘇南京人,本科在讀,研究方向:廣播電視學(xué)。
基金項目:本論文為2020年度國家社科基金一般項目“公共事件中網(wǎng)絡(luò)抗爭性話語的生成機制及公共治理”階段成果,項目編號:20BXW109