• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      我國應(yīng)用ChatGPT輔助行政決策算法危機(jī)治理的探索與思考

      2023-10-24 23:47:20張欣高天書
      現(xiàn)代管理科學(xué) 2023年5期
      關(guān)鍵詞:生成式人工智能數(shù)字政府

      張欣 高天書

      [摘要]探討ChatGPT輔助行政決策的可能性,提前預(yù)判其可能帶來的危機(jī)并提出相應(yīng)的治理對策。以文獻(xiàn)分析為方法,就ChatGPT輔助行政決策進(jìn)行了可能性分析,并基于其技術(shù)特性探討ChatGPT輔助行政決策可能導(dǎo)致的算法危機(jī)。ChatGPT存在雙面性,可能引發(fā)行政決策的安全性、科學(xué)性與公正性危機(jī),因此要從多個層面防范其應(yīng)用于行政決策當(dāng)中的風(fēng)險。為了規(guī)范ChatGPT在實(shí)際中的運(yùn)用,要從強(qiáng)化ChatGPT輔助行政決策的監(jiān)督機(jī)制、優(yōu)化ChatGPT輔助行政決策的技術(shù)保障機(jī)制、搭建ChatGPT輔助行政決策的主體機(jī)制三個方面著手,引導(dǎo)ChatGPT輔助行政決策走上良性健康的發(fā)展軌道。

      [關(guān)鍵詞]ChatGPT;生成式人工智能;行政決策;數(shù)字政府;算法危機(jī)

      一、 引言

      十九屆四中全會提出,“建立健全運(yùn)用互聯(lián)網(wǎng)、高新科技手段、生成式人工智能等技術(shù)手段進(jìn)行行政管理的制度規(guī)則”1,數(shù)字政府建設(shè)的持續(xù)推進(jìn)需要不斷利用新的技術(shù)革命成果。2022年11月Open AI公司推出聊天機(jī)器人程序ChatGPT引起了廣泛的社會關(guān)注。根據(jù)國家互聯(lián)網(wǎng)信息辦公室于2023年4月11日發(fā)布的關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》第二條的規(guī)定,所謂生成式人工智能,是指生成文本、圖片、聲音、視頻等內(nèi)容技術(shù)以回應(yīng)提示工程的一種人工智能系統(tǒng)。從目前來看,學(xué)界關(guān)于生成式人工智能的探討主要圍繞兩大方面:一是生成式人工智能在各行各業(yè)的應(yīng)用前景,目前討論最多的是生成式人工智為教育領(lǐng)域革新創(chuàng)造的機(jī)遇[1-3];二是生成式人工智能的應(yīng)用可能引發(fā)的風(fēng)險,主要有著作權(quán)風(fēng)險[4]、國家安全風(fēng)險[5]、法律規(guī)制風(fēng)險[6-7]等等。總體來看,目前關(guān)于生成式人工智能的研究較少關(guān)注到行政治理領(lǐng)域,部分研究數(shù)字政府建設(shè)與ChatGPT相結(jié)合的文獻(xiàn)雖對此有所涉及2,但是未深入至行政決策的各個子系統(tǒng)當(dāng)中。實(shí)際上,行政決策內(nèi)部程序控制嚴(yán)格,以信息為手段,行政決策可分為幾個不同的部分,每個部分都可能涉及對信息的收集、分析與運(yùn)用,而ChatGPT正是一個超強(qiáng)的人工智能算法系統(tǒng),其所有的外部功能表現(xiàn)實(shí)質(zhì)上都可歸于其背后對數(shù)據(jù)或信息的強(qiáng)大分析能力。在此背景下,探討如何利用ChatGPT輔助行政決策,為新時代國家治理現(xiàn)代化提供最新的技術(shù)驅(qū)動具有重要意義。

      二、 ChatGPT輔助行政決策的理論邏輯

      從系統(tǒng)論的角度看,現(xiàn)代行政決策系統(tǒng)包括四個子系統(tǒng),即行政決策中樞系統(tǒng)、行政決策咨詢系統(tǒng)、行政決策信息系統(tǒng)和行政決策審批控制系統(tǒng),其最終目標(biāo)旨在提升政府行政決策質(zhì)效、實(shí)現(xiàn)社會公共利益。隨著以ChatGPT為代表的生成式人工智能的迭代與完善,數(shù)字技術(shù)在輔助行政裁量、收集決策信息、配置行政資源等方面為算法行政決策的發(fā)展提供了新視野。

      1. ChatGPT優(yōu)化行政決策中樞系統(tǒng)的運(yùn)行

      ChatGPT的應(yīng)用有助于提升行政決策中樞系統(tǒng)運(yùn)行的科學(xué)性。行政決策中樞系統(tǒng)在行政決策過程中居于核心地位,主要負(fù)責(zé)識別決策內(nèi)容,確定決策過程的可行性和可能性,明確決策目標(biāo),組織、協(xié)調(diào)決策過程的展開和決策方案的設(shè)計(jì),評估、選擇決策方案以及監(jiān)督?jīng)Q策執(zhí)行。行政決策中樞系統(tǒng)類似于人類的“大腦”,負(fù)責(zé)領(lǐng)導(dǎo)、組織、協(xié)調(diào)行政決策的全過程,而ChatGPT具有高度的擬人性,能夠在配合行政決策中樞系統(tǒng)運(yùn)行的同時提升其科學(xué)化程度。

      一方面,ChatGPT能夠提升行政決策程序的科學(xué)性。在傳統(tǒng)的行政決策活動中,決策主體需要搜集大量相關(guān)信息,經(jīng)過反復(fù)推理與論證才能作出決策。并且,由于決策主體認(rèn)知差異、主觀偏好和程序差異等因素,行政決策程序繁冗復(fù)雜,決策內(nèi)容也極易帶有主觀色彩。ChatGPT能夠利用預(yù)訓(xùn)練語言模型(LM)生成初始文本,再通過數(shù)據(jù)訓(xùn)練打分模型(RM)對其進(jìn)行判別、標(biāo)注,以模型回答和人類滿意程度為內(nèi)容對標(biāo)注語料進(jìn)行微調(diào),進(jìn)而使用強(qiáng)化學(xué)習(xí)(RL)以打分模型為借力繼續(xù)優(yōu)化初始語言模型,最終輸出較為精準(zhǔn)且符合人類要求的文本內(nèi)容。另一方面,ChatGPT能夠?qū)崿F(xiàn)行政決策內(nèi)容的科學(xué)性。ChatGPT擁有海量的預(yù)訓(xùn)練數(shù)據(jù)庫,GPT-3 的參數(shù)量為 1750 億個,GPT-4的參數(shù)量增加至約一萬億個[8]。相較于GPT-3,GPT-4的數(shù)據(jù)庫規(guī)模更大,可參考的數(shù)據(jù)信息涵蓋范圍更廣。并且,ChatGPT依托于大型語言模型(LLM),能夠進(jìn)行自主學(xué)習(xí),依托于底層的預(yù)訓(xùn)練數(shù)據(jù)庫對決策問題進(jìn)行系統(tǒng)性認(rèn)識,并基于已有的人類偏好數(shù)據(jù)和關(guān)聯(lián)政務(wù)數(shù)據(jù)科學(xué)確認(rèn)決策目標(biāo),依據(jù)打分模型進(jìn)行微調(diào),以模型對生成文本的評判能力為評估決策方案提供數(shù)據(jù)支撐。

      2. ChatGPT優(yōu)化行政決策咨詢系統(tǒng)的運(yùn)行

      ChatGPT的應(yīng)用有助于提高行政決策咨詢系統(tǒng)運(yùn)行的民主性。行政決策咨詢系統(tǒng)可以理解為行政決策智庫,系統(tǒng)組成人員主要是專門領(lǐng)域的專家學(xué)者,其以自身科學(xué)的專業(yè)知識、專業(yè)技能以及豐富的實(shí)踐經(jīng)驗(yàn)為行政決策主體提供智識支持,為制定和優(yōu)化行政決策方案提供專業(yè)建議和理論參考。民主性是重大行政決策程序的價值目標(biāo)之一[9],是維護(hù)行政相對人利益和社會公共利益的重要手段。

      一方面,ChatGPT能夠有效提升咨詢系統(tǒng)的獨(dú)立性,減少政府部門和行政機(jī)制的干預(yù)。ChatGPT具有一定的技術(shù)門檻,在GPT-3模型中包括96層Transformer解碼器,以下一個詞預(yù)測的方式進(jìn)行無監(jiān)督生成式預(yù)訓(xùn)練,以此獲得文本自動生成能力[10]。在ChatGPT的算法設(shè)計(jì)架構(gòu)中,政府部門和舊有的行政體制無法從中途對行政咨詢過程進(jìn)行不當(dāng)干預(yù),在一定程度上保證了咨詢系統(tǒng)的獨(dú)立性和自主性。另一方面,ChatGPT能夠增強(qiáng)行政咨詢過程的交互性,保證智庫人員的民主參與。行政機(jī)關(guān)可以借助Codex模型生成代碼,通過Insert&Edit模型對已生成的文本內(nèi)容進(jìn)行插入或修改,智庫人員可以借助InstructGPT模型進(jìn)行微調(diào),生成合理性程度更高的答案。相較于現(xiàn)有的智能平臺和智能對話方式,ChatGPT的擬人化程度更高,更能夠增強(qiáng)行政機(jī)關(guān)和智庫人員參與咨詢的具身化體驗(yàn)。

      3. ChatGPT優(yōu)化行政決策信息系統(tǒng)的運(yùn)行

      ChatGPT的應(yīng)用能夠有效提升行政決策信息系統(tǒng)運(yùn)行的準(zhǔn)確性。行政決策信息系統(tǒng)的主要功能是為決策收集、儲存、加工、傳遞信息,為決策方案的制定和決策結(jié)果的產(chǎn)生提供信息基礎(chǔ)。首先,在信息輸入階段,ChatGPT能夠打破“信息孤島”,實(shí)現(xiàn)數(shù)據(jù)信息的共建共享。在政務(wù)服務(wù)過程中,各層級、各區(qū)域部門之間的信息來源互相無關(guān)聯(lián)、信息平臺之間保持獨(dú)立的信息庫,在信息處理方面聯(lián)動性較差,加上有關(guān)信息的運(yùn)用只能在單一的平臺中應(yīng)用,從而使信息不能夠被互相傳遞,進(jìn)而出現(xiàn)“信息孤島”[11]。ChatGPT的介入能夠有效破除舊有技術(shù)系統(tǒng)的掣肘,將政務(wù)數(shù)據(jù)、社會數(shù)據(jù)和網(wǎng)絡(luò)數(shù)據(jù)納入預(yù)訓(xùn)練數(shù)據(jù)庫,以信息共享機(jī)制和通過一站式服務(wù)平臺為行政決策提供信息數(shù)據(jù)集參考。其次,在信息處理階段,ChatGPT能夠憑借強(qiáng)大的算力提升信息處理速度。ChatGPT使用GPT-3.5模型訓(xùn)練的總算力消耗約3640 PF-days(即按每秒一千萬億次計(jì)算,運(yùn)行3640天)[12],相較于舊有的信息處理系統(tǒng)而言,擁有更強(qiáng)的算力和更快的數(shù)據(jù)處理速度。在超級算力加持而產(chǎn)生的量變下,ChatGPT擁有更優(yōu)質(zhì)的信息處理能力和更強(qiáng)大的創(chuàng)造能力[13]。最后,在信息輸出階段,ChatGPT的上下文關(guān)聯(lián)能力和預(yù)測能力能夠提高信息輸出能力和決策預(yù)測能力。GPT-3模型利用Zero-Shot、One-Shot和Few-Shot,可以理解自然語言并據(jù)此進(jìn)行推理,進(jìn)而誘導(dǎo)模型輸出答案[10]。當(dāng)前,基于信息處理任務(wù)類型的不同,上述模型的應(yīng)用場域和輸出結(jié)果也存在差異。ChatGPT基于Transformer這一生成式預(yù)訓(xùn)練轉(zhuǎn)換器,在決策信息處理過程中,能夠利用解碼器(Decoder)根據(jù)已有的信息參數(shù)預(yù)測數(shù)據(jù)的變化態(tài)勢和決策結(jié)果,從而提升信息輸出的效率和可用性。

      4. ChatGPT優(yōu)化行政決策審批控制系統(tǒng)的運(yùn)行

      ChatGPT的應(yīng)用有助于實(shí)現(xiàn)行政決策審批控制系統(tǒng)運(yùn)行的高效性。行政決策審批控制系統(tǒng)是行政決策的終端子系統(tǒng),其主要負(fù)責(zé)依法對行政決策的有效性進(jìn)行審查批準(zhǔn)。傳統(tǒng)的行政決策審批活動涉及多個行政機(jī)關(guān),且各個行政機(jī)關(guān)的決策審批程序存在差異,以及相關(guān)行政機(jī)關(guān)的審批權(quán)限受到嚴(yán)格限制,上述因素嚴(yán)重降低了行政決策審批效率和行政決策執(zhí)行效率。伴隨民主政治和公共治理需求的變化,我國行政決策模式逐漸由管理主義模式向參與式治理模式轉(zhuǎn)變[14]。

      一方面,ChatGPT能夠輔助簡化行政決策審批流程,縮短審批時間,提高審批效率。在傳統(tǒng)行政活動中,信息不對稱和信息溝通不暢成為影響行政治理效能的重要因素。伴隨算法自動化決策的產(chǎn)生,上述問題得到有效緩解,政府權(quán)力運(yùn)行的廣度、深度和密度得到增強(qiáng)[15]。例如,上海市實(shí)施“一網(wǎng)通辦”改革后,接入事項(xiàng)3600項(xiàng),累計(jì)辦件量達(dá)3.07億,讓三省一市企業(yè)群眾享受到了“同城服務(wù)”1。順應(yīng)這一發(fā)展趨勢,運(yùn)用ChatGPT將進(jìn)一步提升政府服務(wù)效率。ChatGPT能夠?qū)崿F(xiàn)信息共享,有助于行政決策審批主體與審批事項(xiàng)相關(guān)主體進(jìn)行溝通、協(xié)調(diào);同時,ChatGPT具備自然語言理解與生成能力、上下文學(xué)習(xí)能力,能夠不受物理時間與空間的限制,輸出符合人類需要的高質(zhì)量結(jié)果,在一站式服務(wù)平臺中加快完成行政決策審批流程。另一方面,ChatGPT能夠增強(qiáng)行政決策審批的民主化參與,提高執(zhí)行效率。InstructGPT模型相較于Transformer或GPT-3,具備更加自然、真實(shí)、中立的內(nèi)容生成特性[10]。依托該模型,行政決策審批內(nèi)容能夠在最小程度上受到審批主體的主觀偏好等因素的不當(dāng)襲擾。同時,利用ChatGPT的高度擬人性和交互性,可以增強(qiáng)社會公眾對行政決策的認(rèn)知和理解,促進(jìn)行政決策的貫徹執(zhí)行。

      三、 ChatGPT輔助行政決策的算法危機(jī)

      ChatGPT等自然語言處理模型的出現(xiàn),為決策者提供了強(qiáng)大的信息抓取和處理能力。然而這種強(qiáng)大的能力也引發(fā)了行政決策的算法危機(jī)。具體而言,可以分為三方面的危機(jī):決策的安全性危機(jī)、決策的科學(xué)性危機(jī)以及決策的公正性危機(jī)。

      1. ChatGPT強(qiáng)大的信息抓取力引發(fā)決策的安全性危機(jī)

      在使用ChatGPT進(jìn)行決策輔助的過程中,由于ChatGPT抓取信息的能力十分強(qiáng)大,可能導(dǎo)致信息過度收集、信息產(chǎn)生泄露等安全性危機(jī),具體如下:

      ChatGPT輔助行政決策時具有信息泄露的風(fēng)險。ChatGPT在處理信息時,需要從各種數(shù)據(jù)源中抓取和分析大量的信息,同時這種信息抓取的過程也帶來了信息泄露的風(fēng)險[16]。如果未能妥善保護(hù)抓取的信息,可能會被未經(jīng)授權(quán)的人員訪問、使用或泄露,從而導(dǎo)致決策的隱私和安全受到威脅。當(dāng)代的信息環(huán)境智能化與自動化高度結(jié)合,從而加大了ChatGPT在數(shù)據(jù)過程中的安全風(fēng)險,包括數(shù)據(jù)來源、提取、展示等[17]。首先,關(guān)于數(shù)據(jù)來源方面,只要用戶啟用了ChatGPT的應(yīng)用,就會產(chǎn)生公司敏感信息方面的痕跡也就可能面臨數(shù)據(jù)泄露的風(fēng)險。假如這些敏感信息源屬于國家級別,泄密的可能性將會是100%。比如據(jù)《Economist》報導(dǎo),三星半導(dǎo)體員工疑似因使用ChatGPT,導(dǎo)致在三起不同事件中泄露公司機(jī)密。調(diào)查原因皆因員工將公司機(jī)密資訊輸入ChatGPT而導(dǎo)致。其次,在數(shù)據(jù)提取的階段,ChatGPT利用大數(shù)據(jù)功能將所錄入的數(shù)據(jù)信息存儲至系統(tǒng)內(nèi)再在需要使用的時候進(jìn)行隨時提取,這就有可能導(dǎo)致在錄入之時已經(jīng)被相關(guān)用戶所獲取,從而導(dǎo)致這種非授權(quán)共享出現(xiàn)數(shù)據(jù)泄露的風(fēng)險。所以不要把ChatGPT當(dāng)作可靠的“機(jī)器人”。例如,亞馬遜公司律師曾警告員工在進(jìn)行與數(shù)據(jù)有關(guān)聯(lián)的工作時不使用ChatGPT,原因在于ChatGPT會將接觸到的錄入數(shù)據(jù)視為訓(xùn)練信息,進(jìn)而導(dǎo)致數(shù)據(jù)被動泄密的可能性以及削弱公司的核心競爭力。最后,ChatGPT在輔助行政決策時會受到信息虛假的干擾。由于ChatGPT的信息抓取能力強(qiáng)大,它可能會從各種數(shù)據(jù)源中抓取虛假或失實(shí)的信息,并在決策過程中誤導(dǎo)決策者。虛假信息的干擾可能導(dǎo)致決策的錯誤和不準(zhǔn)確,進(jìn)而影響決策的結(jié)果和效果[18]。ChatGPT的特性中最突出的就是與高含金量偽造技術(shù)的結(jié)合。這種高含金量偽造技術(shù)整合文本、音頻、視頻等格式進(jìn)行聯(lián)想、模仿與學(xué)習(xí)功能進(jìn)而產(chǎn)出以假亂真的政府文書,通過網(wǎng)絡(luò)載體進(jìn)行誤導(dǎo),引發(fā)輿情。假如心術(shù)不正的人利用ChatGPT現(xiàn)有的強(qiáng)大數(shù)據(jù)功能將其與高含金量偽造技術(shù)整合使用,輕則影響個人的信息安全問題,重則帶來政治、經(jīng)濟(jì)、法律、社會等多領(lǐng)域的危害。比如,在學(xué)術(shù)領(lǐng)域,抄襲率是一項(xiàng)非常重要的指標(biāo),假如大量的學(xué)生只是把ChatGPT當(dāng)作寫作論文的工具,那么學(xué)術(shù)造假現(xiàn)象會越來越嚴(yán)重,不僅影響學(xué)術(shù)論文的質(zhì)量,而且?guī)淼臐撛谛陨鐣L(fēng)氣危害是必然的,而且將會是巨大的。

      ChatGPT在輔助行政決策時會面臨惡意攻擊和篡改的風(fēng)險。惡意攻擊者可以通過篡改抓取的信息,操縱決策的過程和結(jié)果,從而達(dá)到其自身的目的。以一個普通上班族為例,ChatGPT所具備的強(qiáng)大編碼功能可以使一名普通上班族變成熟練的程序員。這就會加大安全風(fēng)險,因?yàn)閹缀跞魏稳嗽贑hatGPT的“協(xié)助”下都能熟悉地操作數(shù)據(jù)系統(tǒng)達(dá)成個人目的。如果運(yùn)用ChatGPT的目的是不道德的,那么將會加大泄密的機(jī)率,影響社會安全。有證據(jù)顯示,一部分網(wǎng)絡(luò)攻擊者利用ChatGPT創(chuàng)建新的木馬實(shí)現(xiàn)信息竊取,然而這一過程并不需要攻擊者具備編程的技能。他們利用ChatGPT對數(shù)據(jù)庫強(qiáng)制性竊取,一般方法是通過已公開的用戶名和不斷調(diào)試的密碼組合進(jìn)行撞庫。除此之外,他們利用ChatGPT編寫的網(wǎng)絡(luò)釣魚郵件進(jìn)行惡意攻擊。考慮到ChatGPT是智能生成式軟件擅長模仿人類思維方式,通過編寫網(wǎng)絡(luò)釣魚郵件以正常的文本格式就能避開掃毒軟件的檢測,經(jīng)過編寫的網(wǎng)絡(luò)釣魚郵件所隱含的欺騙性是非常大的。

      2. ChatGPT弱化的信息鑒別力引發(fā)決策的科學(xué)性危機(jī)

      ChatGPT輔助行政決策不僅會引起安全性危機(jī),ChatGPT強(qiáng)大的能力也引發(fā)了決策的科學(xué)性危機(jī)。由于ChatGPT弱化的信息鑒別力,存在著信息準(zhǔn)確性、可信度和科學(xué)性的問題[19]。具體如下:

      首先,ChatGPT自身具有局限性。ChatGPT是基于大規(guī)模訓(xùn)練數(shù)據(jù)的生成式模型,其輸出結(jié)果是通過學(xué)習(xí)大量文本數(shù)據(jù)得出的。然而,根據(jù)技術(shù)自身的風(fēng)險屬性,任何技術(shù)的使用都會導(dǎo)致安全和不安全這兩種結(jié)果趨向。因此,這種生成式模型存在一定的局限性,包括對數(shù)據(jù)質(zhì)量的依賴、對語義理解的限制以及對背景知識的不完全掌握等[20]。這些局限性可能導(dǎo)致ChatGPT在決策中產(chǎn)生錯誤的結(jié)論,從而引發(fā)科學(xué)性危機(jī)。因?yàn)镃hatGPT的回答是基于已有的文本數(shù)據(jù),這意味著它的回答受到數(shù)據(jù)集的限制。如果數(shù)據(jù)集中存在偏見、錯誤或不準(zhǔn)確的信息,模型可能會重復(fù)這些錯誤或偏見,給出錯誤的結(jié)果[21]。這對需要準(zhǔn)確和可靠信息的領(lǐng)域,例如醫(yī)學(xué)、法律或金融等,可能會帶來風(fēng)險,并且ChatGPT沒有真正的理解能力。它只是通過觀察大量文本數(shù)據(jù)中的模式和概率來生成回答。因此,當(dāng)遇到復(fù)雜的或需要深入理解的信息行為時,ChatGPT提供的答案準(zhǔn)確率會降低。它只能根據(jù)已有的模式和知識進(jìn)行推理和回答,而無法進(jìn)行創(chuàng)造性思考或靈活應(yīng)對。此外,ChatGPT也容易受到輸入數(shù)據(jù)的影響。如果用戶提供的問題或語句存在歧義或不完整,模型可能會給出模棱兩可或不準(zhǔn)確的回答。這是因?yàn)槟P蜎]有直接與現(xiàn)實(shí)世界進(jìn)行交互,無法主動尋求澄清或進(jìn)一步的信息。

      其次,ChatGPT信息鑒別力存在缺失問題。由于ChatGPT的生成式特性,它在處理復(fù)雜問題時容易受到信息的誤導(dǎo)和不準(zhǔn)確性的影響。ChatGPT可能會無法準(zhǔn)確理解問題的關(guān)鍵點(diǎn),或者在生成回答時受到特定數(shù)據(jù)集的偏見影響。這種缺失的信息鑒別力可能導(dǎo)致決策者在面臨復(fù)雜問題時無法得到準(zhǔn)確、全面和可靠的信息支持,從而影響決策的科學(xué)性。

      再次,信息的準(zhǔn)確性存在問題。由于ChatGPT是通過大量的訓(xùn)練數(shù)據(jù)來生成回答的,它的回答往往是基于統(tǒng)計(jì)概率的推測而非準(zhǔn)確的事實(shí)。這就帶來了信息準(zhǔn)確性的問題。在決策過程中,如果依賴ChatGPT提供的信息進(jìn)行決策,可能會受到錯誤和不準(zhǔn)確信息的干擾,導(dǎo)致決策的不準(zhǔn)確和錯誤。比如輸入“如何做魚香肉絲”這個問題,搜索引擎是找到已經(jīng)存在于互聯(lián)網(wǎng)上的做法,并把結(jié)果排序,而ChatGPT給出的是看起來像“做法”的一段文字,與搜索引擎給出的做法不同,它不是從一個完整的做菜秘籍得來的,而是算法根據(jù)每個字的概率和上下文,重新排列一個字一個詞而產(chǎn)生的。用戶看到了一個完整的做法,但這個做法卻從來沒有存在過。這意味著ChatGPT只是創(chuàng)造了一段做菜的文字,并不一定具有準(zhǔn)確性。ChatGPT模型綜合使用了in-contextlearning、RLHF等模型,其中一部分模型是用類似對英語完形填空的方法來訓(xùn)練的。所以,ChatGPT是文字編碼和概率組合的游戲,不是準(zhǔn)確的事實(shí)信息,其準(zhǔn)確度存在一定的可質(zhì)疑性。

      此外,信息的可信度存在問題。ChatGPT模型是基于大量的訓(xùn)練數(shù)據(jù)而生成的,它可能會從不可靠的數(shù)據(jù)源中抓取信息,并將其作為回答提供給用戶。這就帶來了信息可信度的問題,用戶很難判斷ChatGPT提供的信息是否可信。比如,人們之間進(jìn)行交流的時候,不會重復(fù)問對方同一個問題。人的思想是一致的,說出來的話是一致的。ChatGPT則不同,如果問了一個問題,覺得它回答得不好,你可以重復(fù)問同樣的問題,直到得到滿意的答案。ChatGPT算法的隨機(jī)性,讓它每次給出的答案都不一樣,會有完全相反的觀點(diǎn)。這也就導(dǎo)致信息具有不可信的可能性。

      最后,決策的科學(xué)性存在問題。ChatGPT的訓(xùn)練數(shù)據(jù)主要來自互聯(lián)網(wǎng),其中包含了大量的非科學(xué)性和誤導(dǎo)性的信息。這就帶來了科學(xué)性的問題。如果決策者依賴ChatGPT提供的信息進(jìn)行決策,可能會受到非科學(xué)性信息的誤導(dǎo),導(dǎo)致決策的不科學(xué)和不合理。

      3. ChatGPT強(qiáng)大的技術(shù)吸引力引發(fā)決策的公正性危機(jī)

      ChatGPT作為一種強(qiáng)大的自然語言處理基礎(chǔ)模型,在決策過程中的應(yīng)用越來越豐富[22]。然而,也正是由于其技術(shù)優(yōu)勢,ChatGPT可能引發(fā)決策的公正性危機(jī)。

      第一,信息的偏見與歧視問題。ChatGPT是基于大規(guī)模預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型,具有強(qiáng)大的語言生成和理解能力[23]。它可以通過學(xué)習(xí)大量的文本數(shù)據(jù),自動生成準(zhǔn)確、流暢的回答,并提供有關(guān)問題的詳細(xì)解釋。這種技術(shù)優(yōu)勢使ChatGPT在決策過程中成為一種強(qiáng)大的工具,吸引了廣泛的應(yīng)用。但是ChatGPT的訓(xùn)練數(shù)據(jù)通常來自互聯(lián)網(wǎng),其中可能存在信息的偏見和歧視,這些偏見和歧視可能會影響ChatGPT的回答結(jié)果,導(dǎo)致決策結(jié)果的不公正性。

      第二,特定數(shù)據(jù)集的影響。ChatGPT的回答結(jié)果可能受到特定數(shù)據(jù)集的影響,缺乏對多樣性和包容性的理解。ChatGPT是通過學(xué)習(xí)大量的文本數(shù)據(jù)進(jìn)行訓(xùn)練的,如果訓(xùn)練數(shù)據(jù)集缺乏多樣性和包容性,模型在生成回答時可能會存在偏見,對某些群體或議題的回答結(jié)果可能不公正。首先,訓(xùn)練數(shù)據(jù)集中的偏見和歧視可能會被模型學(xué)習(xí)和反映出來。如果數(shù)據(jù)集中存在對特定群體的歧視性觀點(diǎn)、刻板印象或偏見,模型可能會學(xué)習(xí)到這些信息,便可能形成數(shù)字時代的“數(shù)據(jù)歧視”[24],并在回答問題時產(chǎn)生不公正的結(jié)果。例如,如果訓(xùn)練數(shù)據(jù)中存在性別歧視的言論,模型可能會在回答與性別相關(guān)的問題時傳遞這種歧視。有論者提出,一旦某一算法承擔(dān)了過量的個人價值和偏好,那么依托于這一算法而實(shí)現(xiàn)的統(tǒng)計(jì)分析結(jié)果就很難確保其正義性[25]。其次,模型通過觀察大量文本數(shù)據(jù)中的語言模式和概率分布來生成回答。如果在訓(xùn)練數(shù)據(jù)中存在某些群體的不平衡表示,模型可能會在回答問題時偏向于這些群體的觀點(diǎn)或立場。這可能導(dǎo)致對其他群體的歧視或偏見,從而產(chǎn)生不公正的回答。此外,模型也可能受到社會和文化偏見的影響。訓(xùn)練數(shù)據(jù)通常是從互聯(lián)網(wǎng)上收集而來,而互聯(lián)網(wǎng)上存在各種各樣的偏見和歧視觀點(diǎn)。模型可能會在回答問題時重復(fù)這些觀點(diǎn),而不考慮其是否公正或準(zhǔn)確。

      第三,隱私和安全問題。ChatGPT的模型結(jié)構(gòu)和算法可能存在潛在的隱私和安全問題。如果未能妥善管理和保護(hù)用戶的個人信息和敏感數(shù)據(jù),可能會對決策的公正性產(chǎn)生負(fù)面影響[26]。首先,如果個人信息被不當(dāng)?shù)赜糜跊Q策,可能導(dǎo)致對不同個體的不平等對待。例如,如果根據(jù)個人信息做出決策而忽視其他相關(guān)因素,可能導(dǎo)致特定群體或個人被不公正地排斥或限制他們的機(jī)會。其次,個人信息的不當(dāng)使用可能會侵犯用戶的隱私權(quán)。如果個人信息被濫用、泄露或未經(jīng)授權(quán)地使用,用戶可能會感到被侵犯,從而對決策系統(tǒng)失去信任。這可能會對決策的公正性產(chǎn)生負(fù)面影響,因?yàn)橛脩舨辉僭敢馓峁?zhǔn)確和全面的信息。最后,如果決策系統(tǒng)只依賴于特定類型的個人信息,而忽視其他重要的數(shù)據(jù)來源,可能會導(dǎo)致決策偏差。個人信息的不完整或不準(zhǔn)確可能會導(dǎo)致決策的不準(zhǔn)確性和不公正性,從而對用戶產(chǎn)生負(fù)面影響。

      四、 ChatGPT輔助行政決策中算法危機(jī)的治理路徑

      “任何事物都有兩面性”的特質(zhì)在ChatGPT這一新興人工智能技術(shù)上體現(xiàn)得尤為明顯。雖然ChatGPT有助于協(xié)調(diào)運(yùn)行行政決策的各個系統(tǒng),并對其進(jìn)行技術(shù)賦能,但是因?yàn)槠渥陨淼募夹g(shù)特性,ChatGPT在輔助行政決策過程中可能引發(fā)諸多危機(jī)。但也不能“因噎廢食”,而是要針對其可能引發(fā)的危機(jī)進(jìn)行有效的治理,將風(fēng)險發(fā)生的可能性降至最低。

      1. 強(qiáng)化ChatGPT輔助行政決策的監(jiān)督機(jī)制

      第一,應(yīng)該制定和完善相關(guān)法律法規(guī),以規(guī)制人工智能(ChatGPT)帶來的包括國家數(shù)據(jù)信息和個人數(shù)據(jù)信息的安全風(fēng)險。近年來,我國陸續(xù)頒布了《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護(hù)法》等法律規(guī)范,但關(guān)于數(shù)據(jù)權(quán)屬、價值和交易規(guī)則等數(shù)據(jù)要素的基礎(chǔ)性法律制度還有所欠缺。人工智能領(lǐng)域欠缺專門規(guī)范,尤其是相應(yīng)的設(shè)計(jì)規(guī)范和預(yù)防規(guī)制,相關(guān)部門對人工智能的法律、法規(guī)、規(guī)章和技術(shù)標(biāo)準(zhǔn)應(yīng)該進(jìn)行合理規(guī)劃,以避免ChatGPT帶來的潛在風(fēng)險。此外,相關(guān)部門也應(yīng)該出臺相應(yīng)的文件,以彌補(bǔ)監(jiān)管制度的空缺。比如,在輔助行政決策的過程中,根據(jù)我國《中華人民共和國個人信息保護(hù)法》第13條的規(guī)定,信息處理者方需要征得個人同意才能處理個人信息。然而,相關(guān)部門對“個人做到知情同意”的認(rèn)定存在不確定性,因此,除了制定和完善相關(guān)法律法規(guī),應(yīng)加大對ChatGPT所屬科技巨頭的監(jiān)管力度,才能更好地治理ChatGPT輔助行政的工作。

      第二,如果網(wǎng)絡(luò)公開環(huán)境中的數(shù)據(jù)存在虛假,錯誤和誤導(dǎo)性的信息,會導(dǎo)致ChatGPT呈現(xiàn)不準(zhǔn)確的內(nèi)容,從而對ChatGPT輔助行政決策產(chǎn)生消極影響。因此,凈化網(wǎng)絡(luò)環(huán)境是確保ChatGPT呈現(xiàn)準(zhǔn)確內(nèi)容的重要一環(huán)。一方面,相關(guān)部門應(yīng)繼續(xù)加大對網(wǎng)絡(luò)環(huán)境的監(jiān)管力度,從源頭上預(yù)防虛假、錯誤信息的流入。另一方面,中國公民的網(wǎng)絡(luò)道德意識需要強(qiáng)化。除了聯(lián)合政府、網(wǎng)絡(luò)運(yùn)營商以及學(xué)校等多個渠道的力量作用在讓公民意識到在上網(wǎng)過程中要以積極的、開放的、公平公正的、客觀的心態(tài)進(jìn)行網(wǎng)絡(luò)活動,有關(guān)方要借助科技、行政、法律等手段為用戶提供健康的上網(wǎng)環(huán)境,使每位公民把道德意識放在上網(wǎng)活動中的首位。另外,還應(yīng)加強(qiáng)對ChatGPT所屬開發(fā)者的監(jiān)督管理以及出臺相關(guān)的監(jiān)管制度,明確責(zé)任情形以及追責(zé)形式,強(qiáng)化ChatGPT的追責(zé)建構(gòu)。尤其是要監(jiān)管由ChatGPT產(chǎn)生的錯誤信息而造成嚴(yán)重后果的情況,加大對違法違規(guī)行為的懲罰力度,以起到監(jiān)督和警示的作用。這一措施也可以間接鼓勵和督促開發(fā)者對ChatGPT的完善,比如提高ChatGPT對網(wǎng)絡(luò)信息和數(shù)據(jù)的鑒別和篩選能力,最大限度避免ChatGPT產(chǎn)生錯誤的信息從而誤導(dǎo)行政決策。

      第三,我國應(yīng)對相關(guān)部門的運(yùn)行和管理進(jìn)行優(yōu)化(人員規(guī)劃,責(zé)任劃分等),以確保行政決策結(jié)果的公正性。我國目前對人工智能的監(jiān)管為多部門監(jiān)管。人工智能涉及領(lǐng)域多,不同領(lǐng)域和部門在實(shí)施監(jiān)管的過程會有所交集,但是,監(jiān)管主體過多則會導(dǎo)致,各個部門只注重在與自身利益關(guān)聯(lián)大的情況下參與監(jiān)管以及執(zhí)法工作;相對地,當(dāng)面對與自身利益小的或者是復(fù)雜的情況,相關(guān)部門則出現(xiàn)工作懈怠或者是避而不談的情況。如果ChatGPT出錯導(dǎo)致決策失誤,在輔助行政決策中直接取代政府人員進(jìn)行判斷,也會導(dǎo)致各部門以ChatGPT運(yùn)行失誤而推諉責(zé)任。因此,除了對相關(guān)監(jiān)管部門進(jìn)行優(yōu)化,有必要建立一套監(jiān)督機(jī)制對各部門進(jìn)行監(jiān)管,防止工作資源分配不均。此外,我國也應(yīng)當(dāng)加大相關(guān)政府從業(yè)人員對ChatGPT知識、技能的專業(yè)培訓(xùn),防止工作人員在行政決策上過度依賴ChatGPT,以規(guī)避行政決策結(jié)果缺乏公正性等問題。

      2. 優(yōu)化ChatGPT輔助行政決策的技術(shù)保障機(jī)制

      當(dāng)前,為了對有關(guān)人工智能技術(shù)和信息數(shù)據(jù)進(jìn)行完善的監(jiān)管,我國根據(jù)自身的信息化成熟度建立了較為完備的法律體系,例如《新一代人工智能倫理規(guī)范》《個人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等。即在當(dāng)前的法律框架下,ChatGPT輔助行政決策過程中產(chǎn)生的技術(shù)風(fēng)險能夠得到有效管理。然而,法律法規(guī)的嚴(yán)格監(jiān)管尚未被證明是最為有效的技術(shù)保障機(jī)制,僅一味地監(jiān)管和懲處,也會制約ChatGPT人工智能技術(shù)的發(fā)展進(jìn)步。因此,完善的ChatGPT輔助行政決策保障機(jī)制是不可或缺的,應(yīng)當(dāng)堅(jiān)持以技術(shù)高質(zhì)量發(fā)展為導(dǎo)向,研發(fā)出更高水平的技術(shù)保障機(jī)制,將算法保障、技術(shù)保障、嵌入保障相關(guān)的法律法規(guī)融入ChatGPT模型、算法和應(yīng)用程序的各個環(huán)節(jié),將技術(shù)風(fēng)險進(jìn)行前置管理。因此,ChatGPT輔助行政決策的技術(shù)保障機(jī)制應(yīng)當(dāng)重點(diǎn)關(guān)注技術(shù)源頭。

      ChatGPT技術(shù)企業(yè)應(yīng)當(dāng)發(fā)揮技術(shù)“急先鋒”作用。目前來看,研發(fā)ChatGPT人工智能技術(shù)的企業(yè)多為資金和技術(shù)實(shí)力雄厚大型企業(yè),它們擁有充足的資本積累和鮮明的技術(shù)優(yōu)勢,在完善ChatGPT技術(shù)保障方面反應(yīng)較為及時,因此技術(shù)企業(yè)應(yīng)當(dāng)堅(jiān)持底線意識,嚴(yán)格堅(jiān)持有關(guān)法律法規(guī)。技術(shù)企業(yè)在對ChatGPT模型、算法、數(shù)據(jù)庫進(jìn)行更新時,應(yīng)當(dāng)加強(qiáng)對信息內(nèi)容的篩選,必要時通過第三方介入的方式對ChatGPT技術(shù)進(jìn)行實(shí)時監(jiān)督。例如,在ChatGPT輔助行政決策的實(shí)踐中涉及個人信息安全問題時,技術(shù)企業(yè)和相關(guān)第三方應(yīng)當(dāng)主動進(jìn)行技術(shù)風(fēng)險評估,并出具風(fēng)險評估報告,踐行法律法規(guī)規(guī)定的權(quán)利義務(wù),堅(jiān)守技術(shù)底線。同時,ChatGPT技術(shù)企業(yè)還應(yīng)當(dāng)定期開展審查工作,對ChatGPT模型、算法、數(shù)據(jù)庫進(jìn)行核驗(yàn),以確保在技術(shù)層面上不出現(xiàn)違反倫理道德和算法歧視的問題。

      在ChatGPT行政決策人機(jī)交互過程中,行為人應(yīng)當(dāng)梳理技術(shù)安全意識和個人信息保護(hù)意識,杜絕在人機(jī)交互的過程中輸入敏感信息、在ChatGPT自我學(xué)習(xí)時將敏感信息和行政決策相融合,干擾ChatGPT輔助行政決策數(shù)據(jù)庫的更新,進(jìn)而引發(fā)技術(shù)風(fēng)險。因此,ChatGPT輔助行政決策中的行為人也應(yīng)當(dāng)堅(jiān)守底線意識,合法合規(guī)地使用ChatGPT,不得在使用過程中輸入違法違規(guī)、涉密涉險的信息,也不得誘導(dǎo)ChatGPT生成錯誤的、歧視的、違法的行政決策。

      3. 搭建ChatGPT輔助行政決策的主體機(jī)制

      搭建ChatGPT輔助行政決策的主體機(jī)制是為了明確ChatGPT和行政主體在行政決策治理中的角色定位和功能,并確保ChatGPT的輔助性質(zhì),以保障行政機(jī)關(guān)及相關(guān)從業(yè)人員在行政決策中的主導(dǎo)地位。

      首先,要明確ChatGPT的輔助性質(zhì)。作為人工智能輔助工具,ChatGPT的目的是提供信息和分析的支持,以輔助行政決策的制定。ChatGPT并不具備決策權(quán)和決策能力,其作用是提供數(shù)據(jù)和分析結(jié)果,為決策者提供參考和建議。

      其次,要保障行政機(jī)關(guān)及相關(guān)從業(yè)人員在行政決策中的主導(dǎo)地位。行政機(jī)關(guān)承擔(dān)著行政決策的責(zé)任和權(quán)威,應(yīng)保持對決策的主導(dǎo)權(quán)和對決策過程的控制。ChatGPT的角色是為決策者提供信息和分析,而非替代決策者的角色。在建立主體機(jī)制中,應(yīng)明確ChatGPT的使用范圍和限制,確保其在輔助決策過程中的合法性和合規(guī)性。同時,要建立ChatGPT使用的規(guī)范和準(zhǔn)則,以確保其輸出信息的準(zhǔn)確性、客觀性和可靠性。

      再次,確保行政決策的透明和公正也是主體機(jī)制的重要方面。決策者應(yīng)清楚披露ChatGPT在決策過程中的使用情況,包括輸入的數(shù)據(jù)、分析的方法和結(jié)果等,以保障決策的公正性和可追溯性。同時對ChatGPT的算法原則進(jìn)行披露,包括每次升級更新后說明。提升大眾對ChatGPT決策過程和結(jié)果的認(rèn)知。

      最后,建立跨學(xué)科的專家團(tuán)隊(duì),由相關(guān)領(lǐng)域的專家包括法學(xué)、計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、心理學(xué)等,組成團(tuán)隊(duì)對ChatGPT進(jìn)行監(jiān)督和評估。這樣可以確保ChatGPT在輔助行政決策中的合理應(yīng)用和持續(xù)改進(jìn)。同時政府在使用ChatGPT輔助決策的過程中,應(yīng)持續(xù)對其決策過程和結(jié)果進(jìn)行反思,社會公眾也應(yīng)具有反饋和建議權(quán)。通過多主體參與監(jiān)管和評估,促進(jìn)ChatGPT輔助行政決策能力不斷提升。通過打造這樣的主體機(jī)制,我們可以確保在行政決策過程中,ChatGPT的輔助作用能夠被合理運(yùn)用;保障行政主體及相關(guān)從業(yè)人員的主導(dǎo)地位;提高行政決策的透明性和質(zhì)量,為公共治理提供更好的支持。

      五、 結(jié)語

      盡管以ChatGPT為代表的生成式人工智能是弱人工智能時代的一次重大技術(shù)躍遷,但是,它所具有的弱人工智能本質(zhì)決定了其對行政決策的影響并非顛覆性的,因而也不必夸張其應(yīng)用的意義。在具體應(yīng)用層面,應(yīng)當(dāng)結(jié)合具體情況探索其在行政決策當(dāng)中的應(yīng)用領(lǐng)域、應(yīng)用目標(biāo)和應(yīng)用路徑。要秉持務(wù)實(shí)理性的觀點(diǎn)認(rèn)識生成式人工智能參與行政決策的技術(shù)躍遷、可能危機(jī)與治理路徑,加快我國自主的生成式人工智能在數(shù)字政府建設(shè)領(lǐng)域的應(yīng)用培育。

      參考文獻(xiàn):

      [1] 高琳琦.生成式人工智能在個性化學(xué)習(xí)中的應(yīng)用模式[J].天津師范大學(xué)學(xué)報(基礎(chǔ)教育版),2023(4):36-40.

      [2] 曹輝,趙梓含.ChatGPT的特質(zhì)研判,教育審思與風(fēng)險應(yīng)對——基于“知識—主體—立場”的視角[J].現(xiàn)代教育管理,2023(7):75-84.

      [3] 姜華,王春秀,楊暑東.生成式AI在教育領(lǐng)域的應(yīng)用潛能,風(fēng)險挑戰(zhàn)及應(yīng)對策略[J].現(xiàn)代教育管理,2023(7):66-74.

      [4] 王遷.再論人工智能生成的內(nèi)容在著作權(quán)法中的定性[J].政法論壇,2023(4):16-33.

      [5] 黃日涵,姚浩龍.被重塑的世界?ChatGPT崛起下人工智能與國家安全新特征[J].國際安全研究,2023(4):82-106.

      [6] 王惠敏,許峰,蔡士林.ChatGPT應(yīng)用的風(fēng)險迭代與法律因應(yīng)研究[J/OL].電子政務(wù),(2023-06-29).https://kns.cnki.net/kcms2/detail/11.5181.TP.20230628.1331.008.html.

      [7] 王遷.再論人工智能生成的內(nèi)容在著作權(quán)法中的定性[J].政法論壇,2023(4):16-33.

      [8] 吳清.ChatGPT熱度下滑OpenAI推安卓版“續(xù)熱”[N].中國經(jīng)營報,2023-07-31(C03).

      [9] 江國華,梅揚(yáng).行政決策法學(xué)論綱[J].法學(xué)論壇,2018(2):58-69.

      [10] 錢力,劉熠,張智雄,等.ChatGPT的技術(shù)基礎(chǔ)分析[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2023,7(3):6-15.

      [11] 陳文.政務(wù)服務(wù)“信息孤島”現(xiàn)象的成因與消解[J].中國行政管理,2016(7):10.

      [12] 朱光輝,王喜文.ChatGPT的運(yùn)行模式,關(guān)鍵技術(shù)及未來圖景[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,44(4):113-122.

      [13] 令小雄,王鼎民,袁健. ChatGPT爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,44(4):123-136.

      [14] 王錫鋅,章永樂.我國行政決策模式之轉(zhuǎn)型——從管理主義模式到參與式治理模式[J].法商研究,2010(5):3-12.

      [15] 張凌寒.算法自動化決策與行政正當(dāng)程序制度的沖突與調(diào)和[J].東方法學(xué),2020(6):4-17.

      [16] 杜昕怡,肖澤晟.人工智能算法輔助行政決策的法治風(fēng)險及其化解路徑[J].學(xué)習(xí)論壇,2023(3):122-130.

      [17] 周智博.ChatGPT模型引入我國數(shù)字政府建設(shè):功能,風(fēng)險及其規(guī)制[J].山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(3):144-154.

      [18] 宋華琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大學(xué)學(xué)報(社會科學(xué)版),2018,21(6):82-90.

      [19] 趙覺珵.ChatGPT是顛覆性突破?專家:它提供的答案在準(zhǔn)確性等方面還有局限[EB/OL].[2023-02-10](2023-08-10).https://world.huanqiu.com/article/4BdfQl1qcAM.

      [20] 黃璜.賦物以“智”,賦治以“慧”:簡論ChatGPT與數(shù)字政府建設(shè)[J].學(xué)海,2023(2):35-40.

      [21] 王懷勇,鄧若翰.算法行政:現(xiàn)實(shí)挑戰(zhàn)與法律應(yīng)對[J].行政法學(xué)研究,2022(4):104-118.

      [22] 於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國法律評論,2023(2):1-20.

      [23] 蘇明,陳·巴特爾.數(shù)據(jù)驅(qū)動下的人工智能知識生產(chǎn)[J].中國科技論壇,2021(11):51-56.

      [24] 黃雨晴.中國數(shù)字鴻溝的成因與賦權(quán)式治理[J].學(xué)習(xí)與實(shí)踐,2022(9):23-33.

      [25] 陳偉光,袁靜.人工智能全球治理:基于主體、結(jié)構(gòu)和機(jī)制的分析[J].國際觀察,2018(4):23-37.

      [26] 李茜.智媒時代在線政務(wù)服務(wù)的ChatGPT化研究[J].武漢工程職業(yè)技術(shù)學(xué)院學(xué)報,2023,35(2):53-57.

      作者簡介:張欣(1981-),男,河北公安警察職業(yè)學(xué)院副教授,研究方向?yàn)榫瘎?wù)指揮與戰(zhàn)術(shù)專業(yè);高天書(1997-),男,中國政法大學(xué)“2011計(jì)劃”司法文明協(xié)同創(chuàng)新中心博士研究生,研究方向?yàn)樗痉ㄎ拿鳌?/p>

      (收稿日期:2023-06-06? 責(zé)任編輯:蘇子寵)

      猜你喜歡
      生成式人工智能數(shù)字政府
      挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會議綜述
      生成式人工智能重塑教育及教師應(yīng)對之道
      人機(jī)共生時代國際傳播的理念升維與自主敘事體系構(gòu)建
      對外傳播(2023年4期)2023-05-21 20:52:16
      生成式人工智能的教育應(yīng)用與展望
      深圳建設(shè)“數(shù)字政府” 為城市治理現(xiàn)代化賦能
      數(shù)字時代視域下政府服務(wù)轉(zhuǎn)型研究
      如何打造“數(shù)字政府”
      小康(2018年24期)2018-08-28 02:35:30
      打造政府?dāng)?shù)據(jù)共享平臺,加快“數(shù)字政府”建設(shè)
      凌源市| 长岭县| 黄浦区| 葫芦岛市| 同心县| 西平县| 江华| 达日县| 大渡口区| 福清市| 黄大仙区| 托里县| 铜梁县| 东丽区| 锡林浩特市| 义马市| 临颍县| 台江县| 扬州市| 麻栗坡县| 石棉县| 竹山县| 武清区| 綦江县| 铜陵市| 德庆县| 正安县| 托里县| 弋阳县| 湘阴县| 垫江县| 万宁市| 高尔夫| 文化| 滦南县| 阿克陶县| 花莲市| 乐安县| 大丰市| 铜陵市| 探索|