• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      變革與風險:ChatGPT模型對新聞生產(chǎn)的重塑

      2023-12-10 04:06:42李御任
      視聽 2023年11期
      關(guān)鍵詞:人工智能模型

      ◎李御任

      2023 年2 月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)了《數(shù)字中國建設(shè)整體布局規(guī)劃》,提出數(shù)字中國建設(shè)的整體框架,明確指出建設(shè)數(shù)字中國是數(shù)字時代推進中國式現(xiàn)代化的重要引擎,要全面賦能經(jīng)濟社會發(fā)展。ChatGPT 模型作為人工智能發(fā)展過程中的一個重要里程碑,其在經(jīng)濟數(shù)字化、產(chǎn)業(yè)數(shù)字化等方面打開了新的思路,為我國新型人工智能算法的下一步發(fā)展指出了方向。因此,發(fā)展好、用好并管好ChatGPT 系列模型,對建設(shè)數(shù)字中國具有重要意義。美國人工智能研究公司OpenAI推出的人工智能技術(shù)驅(qū)動的自然語言處理工具ChatGPT,能夠理解和學習人類語言并與人類進行對話,甚至能完成新聞、劇本等內(nèi)容輸出任務(wù),為信息產(chǎn)業(yè)帶來巨大變革。①在新聞生產(chǎn)領(lǐng)域,ChatGPT 模型給人類帶來了福音,但也敲響了警鐘,需要引起高度重視。人類在關(guān)注技術(shù)層面創(chuàng)新的同時,也要及時規(guī)避其中隱藏的風險。

      一、ChatGPT模型的發(fā)展歷程與技術(shù)邏輯

      要厘清ChatGPT 的發(fā)展歷程,不得不提生成式人工智能(Generative Artificial Intelligence),其旨在通過模擬人類思維和創(chuàng)造力來生成新的內(nèi)容,如文本、圖像、音頻等。事實上,ChatGPT 是生成式人工智能的典型應(yīng)用。生成式人工智能的發(fā)展歷程可以追溯到20世紀五六十年代的早期計算機研究,其發(fā)展歷程可以分為以下四個階段。第一,早期研究(20世紀50年代—20 世紀80 年代)。當時的科學家們試圖使用計算機生成語言和音樂,然而,由于缺乏有效的算法,這些嘗試的效果有限。第二,統(tǒng)計語言模型階段(20世紀90 年代)。隨著計算機硬件性能的提升和統(tǒng)計方法的發(fā)展,研究者開始使用統(tǒng)計語言模型來生成文本。第三,馬爾可夫鏈和隨機過程(20世紀90年代—21世紀00 年代)。研究者開始將生成式人工智能與馬爾可夫鏈和隨機過程相結(jié)合,以更好地模擬和生成復(fù)雜的語言結(jié)構(gòu)。馬爾可夫鏈是一種數(shù)學模型,可以根據(jù)當前狀態(tài)和轉(zhuǎn)移概率預(yù)測下一個狀態(tài)。第四,深度學習階段和預(yù)訓(xùn)練模型(2010 年至今)。深度學習技術(shù)的興起對生成式人工智能的發(fā)展產(chǎn)生了重大影響。深度學習使用人工神經(jīng)網(wǎng)絡(luò)來模擬人腦的工作原理,并通過多層次的神經(jīng)網(wǎng)絡(luò)學習復(fù)雜的數(shù)據(jù)模式,預(yù)訓(xùn)練模型如OpenAI 的GPT (Generative Pre-trained Transformer)采用了Transformer 架構(gòu),成為一種功能強大的對話生成系統(tǒng)。

      ChatGPT的技術(shù)邏輯基于GPT模型,這是一種基于Transformer 架構(gòu)的語言生成模型,其通過預(yù)訓(xùn)練、微調(diào)、上下文理解,使得ChatGPT 能夠流暢地與人類進行對話。首先,ChatGPT 通過大規(guī)模的無監(jiān)督預(yù)訓(xùn)練來學習語言的統(tǒng)計規(guī)律和語義表達。模型使用了大量的互聯(lián)網(wǎng)文本數(shù)據(jù)進行預(yù)訓(xùn)練,通過自監(jiān)督學習任務(wù)來捕捉詞語之間的關(guān)聯(lián)和句子的上下文信息。這個預(yù)訓(xùn)練階段使ChatGPT 學習到豐富的語言知識。在預(yù)訓(xùn)練完成后,ChatGPT 通過在特定任務(wù)上進行有限度的微調(diào)來提高其性能。對于對話生成任務(wù),模型使用了對話數(shù)據(jù)集進行微調(diào)。在微調(diào)過程中,模型根據(jù)輸入的對話歷史和當前的對話內(nèi)容來生成回復(fù)。通過與真實人類生成的回復(fù)進行比較,模型的參數(shù)逐步優(yōu)化,以生成更準確、連貫和合適的回復(fù)。其次,Chat-GPT 通過閱讀和理解輸入的對話歷史來建立上下文。模型利用Transformer 架構(gòu)中的自注意力機制,對不同詞語之間的關(guān)系進行建模,并將對話歷史編碼成一個向量表示。此外,在理解了上下文后,ChatGPT 使用訓(xùn)練得到的模型參數(shù)來生成回復(fù)。模型采用自回歸的方式,逐個詞語地生成輸出。在生成過程中,模型基于當前的上下文和之前已生成的詞語,使用概率分布來預(yù)測下一個最合適的詞語。這個過程不斷迭代,直到生成完整的回復(fù)。

      二、ChatGPT賦能背景下新聞生產(chǎn)面臨的機遇

      首先,突破模板化限制。在新聞生產(chǎn)領(lǐng)域,機器人寫作始終是學界和業(yè)界關(guān)注的焦點。早在2014 年,美國聯(lián)合通訊社(The Associated Press)就將人工智能技術(shù)運用到體育賽事報道中?!皺C器人寫作”能夠部分解放人力資源,生產(chǎn)過程更加高效化。然而,自機器人寫作誕生開始,模板化始終是其繞不開的問題。機器人寫作通過事先編輯好新聞模板,在事件發(fā)生時直接填充數(shù)據(jù),從而快速生成一篇新聞。因此,模板化的填充式寫作難免受到批評。但ChatGPT 的出現(xiàn)有望突破這一窠臼。盡管ChatGPT 的語言模型依然基于模板,但其通過增加語法積累,進行不同語言表達風格的學習,通過調(diào)整采樣參數(shù),使得模型能夠了解問題的背景和語境,這就使得人工智能生成內(nèi)容從生硬的模板生成過渡到生動的語言模仿,即便是對于同一問題的提問,ChatGPT 也能夠給出不同的答案。因此,ChatGPT 在新聞生產(chǎn)中的應(yīng)用能夠突破此前備受苛責的模板化限制。

      其次,提升新聞客觀性。新聞客觀性從原初意義上要求對事實領(lǐng)域和價值領(lǐng)域、事實判斷和價值判斷作出嚴格的區(qū)分。②ChatGPT 能夠與人類進行對話,其原因在于預(yù)先對大量文本進行了學習和訓(xùn)練。因此,只要ChatGPT 的學習語料事先經(jīng)過審查,未出現(xiàn)價值觀偏差的內(nèi)容,并確保訓(xùn)練數(shù)據(jù)集中包含各種來源和觀點的文章,就能夠在一定程度上提升ChatGPT的公正立場,使得其對于不同事件的回答均能保持不偏不倚的態(tài)度,從而提高ChatGPT 模型在新聞寫作中的客觀性。同時,ChatGPT 模型依靠算法和數(shù)據(jù)庫生產(chǎn)新聞,用大模型替代記者進行新聞寫作,減少了個人主觀因素對新聞生產(chǎn)造成的影響,提高了ChatGPT內(nèi)容生產(chǎn)的客觀性。此外,通過引入事實和證據(jù),當模型出現(xiàn)不準確或有爭議的回答時,及時提醒其出現(xiàn)的偏見和立場,使得ChatGPT 模型能夠及時修正錯誤,也能起到提升新聞客觀性的作用,以及對所有觀點保持客觀態(tài)度。

      最后,轉(zhuǎn)變新聞生產(chǎn)方式。人工智能的發(fā)展,使得以“人”為主導(dǎo)的新聞編輯室變成“人”與“人工智能”共存的新聞編輯室。ChatGPT 模型的出現(xiàn),則將上述新聞生產(chǎn)方式向前推進了一大步。ChatGPT 對新聞生產(chǎn)方式的革新,可能表現(xiàn)在新聞內(nèi)容策劃與推廣、傳播效果評估以及內(nèi)容創(chuàng)作等方面。基于ChatGPT 模型,人工智能技術(shù)能夠收集用戶的行為習慣,及時調(diào)整新聞報道方式和頁面呈現(xiàn)方式,自動生成新聞報道策劃方案,指導(dǎo)甚至主導(dǎo)新聞內(nèi)容的策劃與推廣。傳統(tǒng)媒體在量化新聞傳播效果方面存在困難,新型人工智能技術(shù)卻能實時抓取數(shù)據(jù),使媒體能夠根據(jù)實時傳播效果調(diào)整傳播策略和呈現(xiàn)方式。ChatGPT 模型的革新不僅僅體現(xiàn)在文字方面,未來可能還表現(xiàn)在視頻創(chuàng)作及圖片創(chuàng)作方面,根據(jù)受眾需求,自動剪輯視頻和生成海報,從而顛覆了傳統(tǒng)的新聞生產(chǎn)方式。

      三、ChatGPT賦能下新聞生產(chǎn)的風險

      (一)缺乏人文關(guān)懷

      人文關(guān)懷脫胎于歐洲14世紀—16世紀文藝復(fù)興時期的人文主義思想,它與中世紀的神學相對立,要求把人從封建迷信中解放出來,其核心是解放人性,肯定人的價值、人的尊嚴和人格完整。③盡管人工智能在新聞生產(chǎn)領(lǐng)域具有突破模板化限制、提升新聞客觀性、轉(zhuǎn)變新聞生產(chǎn)方式等優(yōu)點,但ChatGPT 模型并不完美,尤其在人文關(guān)懷缺失方面表現(xiàn)突出。從目前ChatGPT 對熱點事件、歷史人物等方面的回答來看,ChatGPT 模型的訓(xùn)練數(shù)據(jù)可能反映了社會的偏見和不平等,如果不及時加以糾正,這些偏見可能會被不斷強化和擴大,導(dǎo)致不公平和歧視的結(jié)果。同時,Chat-GPT模型只能理解語義,往往缺乏對情感的理解和回應(yīng)能力,而情感表達是交流與溝通中的重要組成部分。在與用戶互動的過程中,系統(tǒng)可能無法適當?shù)乩斫夂突貞?yīng)用戶的情感需求,從而影響用戶的完整體驗。最后,當ChatGPT 模型出現(xiàn)錯誤或產(chǎn)生不良后果時,社會上往往缺乏明確的責任和追究機制,這可能導(dǎo)致無法追蹤問題的源頭,也無法提供合適的補救措施。

      (二)存在虛假信息風險

      作為一個語言模型,ChatGPT 無法驗證和辨別輸入的信息是否真實可靠。首先,它缺乏對現(xiàn)實世界事件的實時了解,也無法檢查事實的準確性。因此,模型有時可能會提供看似合理但實際上是虛假的答案。同時,盡管ChatGPT 能夠理解上下文,但它的理解能力仍然是有限的。模型可能無法完全理解復(fù)雜的問題或上下文,并因此產(chǎn)生含糊或錯誤的答案。其次,ChatGPT 在回答問題時可以生成多個不同的樣本,其中一些可能是虛假的答案。這是因為模型在訓(xùn)練過程中使用了隨機性和采樣技術(shù),使得輸出結(jié)果在一定程度上呈現(xiàn)出多樣化。這意味著在同一個問題上,模型的不同運行可能會給出不同的答案。最后,ChatGPT對輸入中的指令和提示非常敏感,可能會通過簡單調(diào)整或變換提示的方式來產(chǎn)生不同的答案。這意味著模型可能會根據(jù)提示的偏見或要求來生成虛假的答案。

      (三)版權(quán)和隱私爭議待解

      人工智能生成內(nèi)容的版權(quán)問題由來已久,ChatGPT模型因其在算法、數(shù)據(jù)挖掘方面的巨大優(yōu)勢,將版權(quán)問題推向高潮,著名語言學家喬姆斯基甚至認為ChatGPT 是高科技剽竊。但也有學者稱,應(yīng)當以“開放”為作品保護的基本態(tài)度,建立起“投資—機器學習—作品生成—再投資”的版權(quán)創(chuàng)造正向循環(huán)。④目前而言,關(guān)于ChatGPT 模型的版權(quán)問題,無論學界還是業(yè)界均未達成一致。此外,利用ChatGPT 模型生產(chǎn)新聞還存在隱私問題,當用戶與ChatGPT交互時,其輸入的內(nèi)容和模型的響應(yīng)可能會被記錄和存儲。這些數(shù)據(jù)可能包含個人信息、敏感內(nèi)容或其他私密信息。ChatGPT 存儲的用戶交互數(shù)據(jù)可能被用于改進模型的訓(xùn)練或研究目的。這可能涉及對數(shù)據(jù)進行分析、共享或合并到其他數(shù)據(jù)集之中。由于數(shù)據(jù)存儲和傳輸?shù)膹?fù)雜性,ChatGPT存在潛在的信息泄露風險。惡意攻擊者可能會試圖訪問存儲的數(shù)據(jù),導(dǎo)致用戶的個人信息泄露。由于Chat-GPT的開放性,模型可能被用于傳播誤導(dǎo)性信息、虛假新聞、仇恨言論或其他不良內(nèi)容。這可能對用戶和社會造成負面影響,并帶來潛在的隱私問題。

      四、ChatGPT賦能背景下新聞生產(chǎn)的發(fā)展策略

      (一)解決情感落地問題

      通常來說,情感是人腦對于事物價值特性的主觀反映。人工智能的出現(xiàn),使得人類能夠復(fù)制自身的復(fù)制品,但精神世界如何構(gòu)造始終是一個難題,這一問題在ChatGPT 模型中即表現(xiàn)為缺乏人文關(guān)懷。心理學家提出心智預(yù)測模型的概念,其能夠自下而上地對即將接收到的信息提出預(yù)設(shè),并實現(xiàn)與外在環(huán)境的互動。受此影響,學者們開始討論人工智能技術(shù)如何表現(xiàn)出情感。安迪·克拉克提出“面向行動”的預(yù)測加工模型,其可以對傳遞指令信息的神經(jīng)進行編碼,推進情感計算的研究,為實現(xiàn)人工智能技術(shù)情感化提供了新的思路。目前而言,有關(guān)情感模型的構(gòu)建盡管仍然停留在理論中,但放眼未來,人工智能技術(shù)的完善必然要實現(xiàn)技術(shù)與人文的深度融合,這種融合不只是人文學科單方面對先進技術(shù)手段的需要,在更深層次意義上,它也是科技本身發(fā)展的需要。因此,在科學技術(shù)蓬勃發(fā)展的背景下,“數(shù)字人文”(Digital Humanities)悄然興起。值得注意的是,“數(shù)字人文”始終以“人文”為目的,以“技術(shù)”為手段,為人類自由全面發(fā)展提供新的可能。

      (二)建立監(jiān)管與評估體系

      ChatGPT 為實現(xiàn)新聞生產(chǎn)智能化、智慧化和數(shù)字化提供了新的可能,但有關(guān)虛假信息和隱私保護等問題依然需要引起重視。因此,推進ChatGPT 良性發(fā)展,首先需要制定明確的規(guī)則和準則,以指導(dǎo)ChatGPT的使用。這些規(guī)則包括禁止發(fā)布仇恨言論、暴力內(nèi)容或其他違法行為,以及鼓勵尊重、包容和積極的交流等。其次,開發(fā)監(jiān)測和過濾機制,對ChatGPT 生成的內(nèi)容進行實時監(jiān)測??梢允褂藐P(guān)鍵詞過濾、機器學習算法或人工審核等方法來識別和過濾潛在的問題內(nèi)容。再次,建立用戶反饋和舉報機制,讓用戶能夠報告違規(guī)行為或問題內(nèi)容。這樣可以讓用戶參與監(jiān)管過程,并幫助改善ChatGPT 的性能和安全性。此外,定期對ChatGPT 的使用情況進行審查和審計,包括審查生成的對話記錄、評估監(jiān)管措施的有效性,并進行必要的改進。最后,給用戶提供更多的控制權(quán),允許他們自定義ChatGPT 的行為和偏好。例如,讓用戶選擇過濾敏感內(nèi)容的級別、設(shè)置對話的主題范圍等。

      (三)填補法規(guī)與倫理空白

      ChatGPT 的誕生,引發(fā)了人們對隱私泄露、偏見歧視等倫理與法規(guī)問題的擔憂,要想實現(xiàn)ChatGPT 的穩(wěn)步發(fā)展,必然要填補法規(guī)與倫理漏洞。首先,通過立法明確新型人工智能的責任主體。歐盟于2021年發(fā)布的《人工智能法案》(Artificial Intelligence ACT),對我國AI層面的立法具有啟示意義。其次,限制敏感內(nèi)容。對于可能涉及敏感主題的問題或內(nèi)容,ChatGPT應(yīng)該被設(shè)置為不提供詳細或深入的回答。例如,當涉及醫(yī)療、法律或心理健康問題時,ChatGPT 可以提供一般性的信息,但不應(yīng)該替代專業(yè)人士的意見。再次,開發(fā)倫理框架,確保ChatGPT 的行為符合道德準則。這種框架可以包括確保模型不歧視、不傳播錯誤信息、不促進暴力或仇恨等。從次,建立監(jiān)督和反饋機制來持續(xù)評估和改進ChatGPT 的行為,包括定期的審查、用戶反饋的收集和處理,以及與專業(yè)人士和社區(qū)合作以獲取反饋。最后,努力使ChatGPT 的行為和決策過程更加透明和可解釋,通過記錄模型的決策過程、提供回答的依據(jù)或來源,并向用戶解釋給出特定回答的原因。

      五、結(jié)語

      19 世紀中葉以來,科學技術(shù)廣泛滲透到社會的各個領(lǐng)域,有關(guān)技術(shù)理性與人文理性的討論此起彼伏。美國學者塞拉斯認為,“在描述和解釋世界方面,科學是萬物的尺度”,表現(xiàn)為無視一切非理性因素的極端理性主義。而后現(xiàn)代主義者如???、德里達等人將矛頭直指技術(shù)理性,他們把“摧毀”“沖突”“消解”看作是“一種生成”“一種創(chuàng)造”,而“不再渴望業(yè)已永遠失落的家園”。⑤應(yīng)該說,上述兩大發(fā)展戰(zhàn)略存在內(nèi)在矛盾,也有相互促進的方面。ChatGPT 的誕生,再次將技術(shù)理性與人文理性之間的關(guān)系提上日程。通過對這一問題的思考,筆者認為,發(fā)展好、用好并管好ChatGPT 模型,關(guān)鍵在于平衡好技術(shù)理性與人文理性的關(guān)系,確立人類能夠駕馭技術(shù)的價值理性。正如馬克思在《〈黑格爾法哲學批判〉導(dǎo)言》中指出:“人是人的最高本質(zhì),人就是自己的上帝,而不是技術(shù)的附庸與目的實現(xiàn)的工具?!雹抟虼耍瑥男侣勆a(chǎn)領(lǐng)域討論ChatGPT 模型的發(fā)展,一方面要用好新型人工智能技術(shù)帶來的機遇,另一方面要規(guī)避技術(shù)可能帶來的風險,做到技術(shù)服務(wù)于“人”。

      注釋:

      ①李御任,翟紅蕾.ChatGPT 模型的輿論風險及應(yīng)對策略研究[J].視聽,2023(05):7-10.

      ②褚金勇.“新聞客觀性”的歷史脈絡(luò)、邏輯向量與現(xiàn)代啟示[J].青年記者,2019(18):29-30.

      ③張鶴,王巨臣.新聞報道的人文關(guān)懷[J].現(xiàn)代視聽,2011(12):63-65.

      ④叢立先,李泳霖.生成式AI的作品認定與版權(quán)歸屬——以ChatGPT的作品應(yīng)用場景為例[J].山東大學學報(哲學社會科學版),2023(04):1-11.

      ⑤王治河.撲朔迷離的游戲——后現(xiàn)代哲學思潮研究[M].北京:社會科學文獻出版社,1998:12.

      ⑥中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯選集(第1卷)[M].北京:人民出版社,1972.

      猜你喜歡
      人工智能模型
      一半模型
      我校新增“人工智能”本科專業(yè)
      p150Glued在帕金森病模型中的表達及分布
      重要模型『一線三等角』
      重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      3D打印中的模型分割與打包
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      海宁市| 沭阳县| 柏乡县| 甘泉县| 南充市| 涡阳县| 宝鸡市| 孝昌县| 新蔡县| 申扎县| 海门市| 东至县| 温州市| 嵊州市| 浏阳市| 凯里市| 台安县| 许昌县| 巴南区| 福贡县| 乌苏市| 佛坪县| 凌源市| 夏邑县| 平邑县| 成武县| 都江堰市| 巧家县| 平塘县| 宁明县| 高安市| 莆田市| 裕民县| 庆元县| 天长市| 拜城县| 平江县| 田林县| 烟台市| 广河县| 屯昌县|