• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      全生命周期視角下的生成式人工智能治理框架研究

      2024-02-25 00:00:00黃煒張玉瀅劉勇張瑞
      圖書與情報 2024年6期
      關(guān)鍵詞:生成式人工智能全生命周期

      摘" "要:為推動生成式人工智能的健康發(fā)展,防范其潛在風(fēng)險,文章構(gòu)建了一個基于全生命周期的生成式人工智能治理框架,旨在通過對技術(shù)要素與主體要素的治理協(xié)同,實現(xiàn)技術(shù)進步與社會價值的和諧統(tǒng)一。首先,通過文獻分析將生成式人工智能的風(fēng)險分為技術(shù)安全風(fēng)險、社會倫理與法律風(fēng)險、信息傳播風(fēng)險三類,并理清這些風(fēng)險在全生命周期各階段的具體表現(xiàn);其次,從數(shù)據(jù)資源、算力資源、算法模型三個方面分析治理的技術(shù)要素,并從政府、企業(yè)、社會三個層面分析治理的主體要素;再次,基于各階段的風(fēng)險表現(xiàn)以及技術(shù)與主體要素的分析,構(gòu)建全生命周期視角下的生成式人工智能治理框架;最后,依托治理框架對生成式人工智能在虛假信息傳播案例和國家監(jiān)管方面的典型案例進行深入討論,展示了該框架的實際可行性和有效性,以期為生成式人工智能的綜合治理提供理論指導(dǎo)和實踐參考。

      關(guān)鍵詞:全生命周期;生成式人工智能;技術(shù)治理;主體治理;治理框架

      中圖分類號:D922.17" "文獻標(biāo)識碼:A" "DOI:10.11968/tsyqb.1003-6938.2024074

      Research on the Generative Artificial Intelligence Governance Framework from the Perspective of the Full Life Cycle

      Abstract In order to promote the healthy development of generative artificial intelligence and prevent its potential risks, this paper constructs a generative artificial intelligence governance framework based on the full life cycle, aiming to achieve the harmonious unity of technological progress and social value through the governance coordination of technical elements and subject elements. First, through literature analysis, the paper divides the risks of generative artificial intelligence into three categories: technical security risks, social ethics and legal risks, and information dissemination risks, and clarifies the specific manifestations of these risks at various stages of the full life cycle; secondly, the technical elements of governance are analyzed from three aspects: data resources, computing resources, and algorithm models, and the subject elements of governance are analyzed from three levels: government, enterprise, and society; thirdly, based on the risk manifestations at each stage and the analysis of technical and subject elements, a generative artificial intelligence governance framework is constructed from the perspective of the full life cycle; finally, based on the governance framework, the paper conducts an in-depth discussion of typical cases of generative artificial intelligence in 1 information dissemination cases and national supervision, demonstrating the practical feasibility and effectiveness of the framework, in order to provide theoretical guidance and practical reference for the comprehensive governance of generative artificial intelligence.

      Key words full life cycle; generative artificial intelligence; technology governance; subject governance; governance framework

      在當(dāng)今技術(shù)革新的浪潮中,以ChatGPT為代表的生成式人工智能(Generative Artificial Intelligence,GAI)技術(shù)迅猛發(fā)展,其應(yīng)用范圍已逐步滲透至多個領(lǐng)域,顯著提高了社會生產(chǎn)效率和生活便利性[1]。然而,其造福人類社會的同時,也暴露出一系列潛在風(fēng)險[2],如數(shù)據(jù)安全風(fēng)險、算法歧視、虛假信息傳播等。這些風(fēng)險不僅威脅個人隱私和信息安全,也對社會穩(wěn)定、經(jīng)濟發(fā)展和意識形態(tài)安全構(gòu)成挑戰(zhàn)。針對這些問題,我國高度重視生成式人工智能的治理工作,在構(gòu)建適應(yīng)生成式人工智能特點的治理體系方面積極探索,先后出臺了《生成式人工智能服務(wù)管理暫行辦法》和《生成式人工智能服務(wù)安全基本要求》等重要文件,對生成式人工智能的算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化等方面提出了明確要求[3-4]。

      在學(xué)界,國內(nèi)外也對生成式人工智能的風(fēng)險與治理展開了深入研究,并提出了多種治理策略。然而,現(xiàn)有研究多聚焦于單一風(fēng)險或特定領(lǐng)域,對生成式人工智能全生命周期風(fēng)險的系統(tǒng)分析和治理框架的研究尚顯不足。因此,本文旨在從全生命周期視角出發(fā),對生成式人工智能的風(fēng)險進行全面梳理,理清各階段的風(fēng)險特征,分析治理的技術(shù)與主體要素,構(gòu)建了一個以技術(shù)要素為基礎(chǔ)、多主體要素參與的協(xié)同治理框架。結(jié)合生成式人工智能的虛假信息傳播和國家治理監(jiān)管案例,將理論框架應(yīng)用于模型訓(xùn)練、服務(wù)發(fā)布、內(nèi)容生成和內(nèi)容傳播四個階段,以期為生成式人工智能的健康發(fā)展提供理論指導(dǎo)和實踐參考。

      1" "生成式人工智能的風(fēng)險分類

      生成式人工智能作為一項新興技術(shù),為社會帶來巨大進步的同時也伴隨著諸多潛在風(fēng)險。國內(nèi)外相關(guān)學(xué)者對其風(fēng)險進行了廣泛研究與討論。張峰等探討了人工智能應(yīng)用伴生的社會倫理風(fēng)險,認為ChatGPT等應(yīng)用的迅速發(fā)展引發(fā)了違背社會秩序的倫理問題[5]。在生成作品的原創(chuàng)性和著作權(quán)的歸屬問題上,李月泉和劉娟認為生成式人工智能不應(yīng)被視為獨立的權(quán)利主體,只有包含人類獨創(chuàng)性的生成內(nèi)容才能被認定為作品[6]。此外,王延川和趙靖指出生成式人工智能可能加劇意識形態(tài)撕裂、操縱與解構(gòu)的風(fēng)險,對國家意識形態(tài)安全構(gòu)成威脅[7]。因此,本文基于對各類生成式人工智能風(fēng)險的研判,歸納整理相關(guān)文獻,總結(jié)出生成式人工智能風(fēng)險分類(見表1)。

      1.1" " 技術(shù)安全風(fēng)險

      技術(shù)安全風(fēng)險主要涉及到生成式人工智能在數(shù)據(jù)訓(xùn)練、算法模型等技術(shù)端所引發(fā)的風(fēng)險。根據(jù)相關(guān)文獻,技術(shù)安全風(fēng)險源自三個方面。一是大模型在數(shù)據(jù)收集和處理過程中形成的數(shù)據(jù)安全風(fēng)險,在這些過程中,可能因數(shù)據(jù)分布不均衡、主觀偏見或技術(shù)漏洞而引發(fā)安全隱患,如數(shù)據(jù)泄露、數(shù)據(jù)失真等;二是算法層面的不透明、難理解等特點導(dǎo)致的生成式算法風(fēng)險,由于算法缺乏可解釋性,生成式人工智能可能帶有意識形態(tài)偏向,導(dǎo)致其生成的內(nèi)容呈現(xiàn)出重復(fù)性和偏好性特征,加固了原有算法推薦的邊界,使得信息環(huán)境更加封閉;三是不法分子通過技術(shù)手段非法惡意攻擊或竊取敏感信息、創(chuàng)建惡意軟件及不良APP的開發(fā)和傳播等一系列技術(shù)濫用風(fēng)險。

      1.2" " 社會倫理與法律風(fēng)險

      生成式人工智能在推動社會進步、經(jīng)濟發(fā)展的同時,不可避免地出現(xiàn)了價值觀念偏頗、社會結(jié)構(gòu)失衡等社會倫理與法律風(fēng)險,該類風(fēng)險主要源自三個層面:一是生成內(nèi)容在價值觀念、思想意識及政治傾向輸出時伴隨的意識形態(tài)風(fēng)險。生成式人工智能的內(nèi)容生成依賴操控者對算法技術(shù)的應(yīng)用,一旦操控者為不法分子或國外敵對勢力,其可能生成特定思想和價值導(dǎo)向的內(nèi)容,引發(fā)更大的群體極化風(fēng)險,使受眾對主流意識形態(tài)產(chǎn)生偏見,影響國家意識形態(tài)安全。二是生成式人工智能技術(shù)在賦能社會經(jīng)濟發(fā)展時所帶來的經(jīng)濟風(fēng)險。一方面技術(shù)進步導(dǎo)致部分傳統(tǒng)崗位被機器取代,引發(fā)就業(yè)結(jié)構(gòu)調(diào)整和大量失業(yè),不同行業(yè)和職位間的收入差距逐漸拉大;另一方面模型訓(xùn)練等過程中的高能耗問題以及由此可能產(chǎn)生的環(huán)境負面影響也亟待引起關(guān)注。三是以知識產(chǎn)權(quán)、隱私權(quán)侵犯風(fēng)險及訓(xùn)練數(shù)據(jù)、生成內(nèi)容的合法性為表現(xiàn)的法律風(fēng)險。生成式人工智能對海量數(shù)據(jù)的依賴,不僅會涉及到未經(jīng)授權(quán)收集、使用、披露或處理個人信息的行為,還會涉及到訓(xùn)練數(shù)據(jù)集的合法性問題,其來源是否正規(guī)、是否包含敏感信息,以及是否存在侵犯他人隱私權(quán)或其他權(quán)利的風(fēng)險。

      1.3" " 信息傳播風(fēng)險

      信息傳播風(fēng)險通常發(fā)生在數(shù)據(jù)收集的初始階段和內(nèi)容傳播的末端,主要體現(xiàn)在兩方面:一是以信息繭房、過濾氣泡、數(shù)字鴻溝為代表的信息壁壘問題。個體在面對海量信息時,往往傾向于接受與自己相似的觀點,而生成式人工智能的精準(zhǔn)算法推送進一步減少了個體接觸多元信息的機會。算法根據(jù)用戶的喜好、搜索行為等信息,為其篩選可能感興趣的內(nèi)容,同時屏蔽其他觀點,使用戶陷入由算法“定制”的信息環(huán)境。這種現(xiàn)象造成了社會群體在信息獲取、使用以及信息通信技術(shù)(ICT)受益程度上的顯著差異。二是虛假信息、不良信息傳播及信息泛濫導(dǎo)致的傳播風(fēng)險。一方面,生成式人工智能可能在個人、群體或社會中傳播錯誤的、誤導(dǎo)性的信息;另一方面,其高效生成內(nèi)容的能力可能導(dǎo)致信息過載,使得公眾難以辨別真?zhèn)危黾有畔⒑Y選的難度。

      本文將生成式人工智能的風(fēng)險分為三類,但這些風(fēng)險通常并非單獨出現(xiàn),而是貫穿于全生命周期的各個環(huán)節(jié),且可能在不同階段交織、演變。這些復(fù)雜的風(fēng)險關(guān)系要求從全生命周期的視角進行系統(tǒng)的分析。為此,本文結(jié)合阿里巴巴人工智能治理研究中心對生成式人工智能的風(fēng)險分析與劃分結(jié)果[31],構(gòu)建了生成式人工智能的全生命周期風(fēng)險架構(gòu)圖(見圖1),呈現(xiàn)了生成式人工智能在各階段的風(fēng)險表現(xiàn),能夠全面揭示風(fēng)險在各階段的分布特點,為后續(xù)的風(fēng)險治理提供清晰的結(jié)構(gòu)框架。

      2" "生成式人工智能的治理要素分析

      生成式人工智能的治理需要圍繞技術(shù)要素與主體要素兩大核心展開,形成雙重優(yōu)化與協(xié)同推進的綜合治理框架。首先,技術(shù)治理以海量數(shù)據(jù)、龐大算力和智能算法三大核心要素為切入點,以確保生成式人工智能的基礎(chǔ)穩(wěn)固與安全發(fā)展。在嚴格遵循國內(nèi)外現(xiàn)行生成式人工智能治理政策法規(guī)的基礎(chǔ)上,本文依據(jù)《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》)、《生成式人工智能服務(wù)安全基本要求》、歐盟《人工智能法案》等頂層治理的要求,進一步拓展主體要素的協(xié)同治理,整合政府、企業(yè)和社會的多元力量,共同構(gòu)筑一個全面而嚴謹?shù)闹卫眢w系。

      2.1" " 技術(shù)要素

      針對各類生成式人工智能風(fēng)險,本文依托吳沈括提出的生成式人工智能發(fā)展三大核心要素:海量數(shù)據(jù)、龐大算力、智能算法[32],以技術(shù)為基石構(gòu)建生成式人工智能技術(shù)治理體系,致力于推動關(guān)鍵技術(shù)的廣泛應(yīng)用。

      2.1.1" "數(shù)據(jù)資源

      訓(xùn)練數(shù)據(jù)集是生成式人工智能的基礎(chǔ),亦是一種聚合型權(quán)益客體,可以成為規(guī)制生成式人工智能的重要切入點。然而,現(xiàn)有規(guī)制框架卻呈現(xiàn)出風(fēng)險防范形式化的現(xiàn)象,對于數(shù)據(jù)偏倚、數(shù)據(jù)泄露、數(shù)據(jù)失真等問題依然難以有效解決,可以從實施數(shù)據(jù)質(zhì)量評估與清洗、利用加密與匿名化技術(shù)來治理以上風(fēng)險。首先考慮數(shù)據(jù)質(zhì)量評估與清洗,一方面要建立定期的數(shù)據(jù)質(zhì)量評估流程,使用自動化工具和手動檢查相結(jié)合的方法來檢測數(shù)據(jù)的準(zhǔn)確性、完整性和一致性;另一方面是在評估過程中,對發(fā)現(xiàn)的問題數(shù)據(jù)進行清洗,包括去除重復(fù)記錄、糾正錯誤信息、填補缺失值和過濾無關(guān)數(shù)據(jù)等。其次是實施加密與匿名化技術(shù)。加密是對存儲和傳輸?shù)臄?shù)據(jù)實施加密,確保數(shù)據(jù)在靜止和移動狀態(tài)下均受到保護。匿名化則是對個人數(shù)據(jù)進行匿名化處理,移除或轉(zhuǎn)換直接標(biāo)識符(如姓名、地址、電話號碼等),以及任何可以用來直接識別個人的信息。此外,使用數(shù)據(jù)脫敏技術(shù)對敏感信息進行掩蓋或變形,確保即使在數(shù)據(jù)被訪問時,也不會泄露個人身份或敏感信息。

      2.1.2" "算力資源

      算力,即計算機的計算能力,通常用于表征計算機或其他計算設(shè)備的基本性能指標(biāo)。在技術(shù)治理體系內(nèi)通常扮演著重要角色。然而,通過算力優(yōu)化以提高數(shù)據(jù)處理效率的同時,諸如成本、能源消耗、算力資源安全性等風(fēng)險與挑戰(zhàn)亦不容忽視。鑒于此,從三個方面實施治理策略。首先是實施算力資源管理系統(tǒng),使用自動化調(diào)度算法來優(yōu)化資源分配,根據(jù)任務(wù)優(yōu)先級和需求動態(tài)調(diào)整資源,同時采用云服務(wù)和分布式計算來提高資源利用率。其次是建立和維護安全的基礎(chǔ)設(shè)施,涵蓋物理安全、網(wǎng)絡(luò)安全和數(shù)據(jù)保護等方面,定期進行安全審計和風(fēng)險評估,建立災(zāi)難恢復(fù)計劃和備份系統(tǒng)。最后是采用節(jié)能技術(shù)和綠色能源解決方案,通過優(yōu)化數(shù)據(jù)中心的設(shè)計與運營,提高能源利用效率并推行碳足跡管理及減排策略。

      2.1.3" "算法模型

      針對生成式算法相關(guān)風(fēng)險,如算法黑箱、算法歧視等,可以從算法模型的三個方面進行有效規(guī)避。一是增強算法透明度和可解釋性。通過優(yōu)先選擇或開發(fā)易于解釋的模型,如決策樹、線性模型等,或者在復(fù)雜模型(如深度學(xué)習(xí)模型)中嵌入解釋性組件,還可以為每個算法模型創(chuàng)建詳細的文檔,包括模型的目的、設(shè)計原理、使用的數(shù)據(jù)、預(yù)期的使用場景和限制等。二是進行公平性審計,技術(shù)人員定期進行算法公平性審計,檢查算法輸出是否存在不公平的偏見或歧視。三是采用技術(shù)手段(如對抗性訓(xùn)練、模型正則化)來提高模型的魯棒性,進而實現(xiàn)模型加固的目的。

      2.2" " 主體要素

      在當(dāng)前生成式人工智能風(fēng)險快速演進的背景下,傳統(tǒng)的單一主體治理模式已顯不足,亟需構(gòu)建多方主體協(xié)同參與的治理體系。本文從政府、企業(yè)和社會三個維度構(gòu)建了一個有機協(xié)同治理體系(見圖2)。在該體系中,政府擔(dān)任引領(lǐng)和主導(dǎo)的角色,企業(yè)和社會則承擔(dān)起關(guān)鍵的支撐職能。政府負責(zé)監(jiān)督企業(yè)依法合規(guī)運作,并通過制定相關(guān)政策,促進社會對生成式人工智能技術(shù)的理解與接納;企業(yè)和社會力量應(yīng)全方位、多渠道地參與到政府生成式人工智能相關(guān)法律法規(guī)的制定過程中,積極提出建議和策略。

      2.2.1" "政府層面

      政府作為國家公共行政權(quán)力的象征和執(zhí)行主體,是實現(xiàn)生成式人工智能有效治理的關(guān)鍵力量。

      第一,政府需要重視生成式人工智能的監(jiān)管,設(shè)立監(jiān)管機構(gòu),通過機構(gòu)來有效治理生成式人工智能風(fēng)險,同時增強監(jiān)管力度并鼓勵創(chuàng)新。傳統(tǒng)的政府監(jiān)管模式對于層出不窮的生成式人工智能風(fēng)險有著分散性、滯后性等弊病,影響行業(yè)發(fā)展。政府層面的監(jiān)管應(yīng)該從監(jiān)督模型訓(xùn)練、服務(wù)審查與監(jiān)管、加強對傳播平臺的監(jiān)管三個視角出發(fā)。首先,在監(jiān)督模型訓(xùn)練方面,監(jiān)管機構(gòu)需重點關(guān)注數(shù)據(jù)使用的合法性和模型輸出的合規(guī)性。機構(gòu)必須制定嚴格的訓(xùn)練數(shù)據(jù)篩選標(biāo)準(zhǔn),以此來確保數(shù)據(jù)來源合法、無偏見,并定期對模型進行審計,保證其輸出結(jié)果不違反法律法規(guī)和社會倫理觀念。其次,機構(gòu)必須保障生成式人工智能服務(wù)的安全性與可靠性。針對新發(fā)布的服務(wù),機構(gòu)應(yīng)進行內(nèi)容審查,確保其恪守主流價值觀;對已發(fā)布的服務(wù),機構(gòu)要實施持續(xù)監(jiān)控策略,及時發(fā)現(xiàn)并處理潛在風(fēng)險。最后,機構(gòu)還要加強對傳播平臺的監(jiān)管,明確其應(yīng)該擔(dān)負的責(zé)任,建立高效的舉報與處理機制,對違規(guī)內(nèi)容進行快速響應(yīng),并且推動跨部門協(xié)作形成監(jiān)管合力,對違規(guī)平臺進行處罰,凈化網(wǎng)絡(luò)環(huán)境。

      第二,政府通過制定法律法規(guī)來有效規(guī)制生成式人工智能風(fēng)險。2017年,人工智能首次被納入我國政府工作報告,報告提出要加快人工智能等技術(shù)的研發(fā)和轉(zhuǎn)化,并培育壯大新興產(chǎn)業(yè)。同年7月,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,為人工智能的長遠發(fā)展奠定政策基礎(chǔ)。隨后2019年,國務(wù)院相繼發(fā)布《新一代人工智能治理原則》和《新一代人工智能倫理規(guī)范》。2021年,國家互聯(lián)網(wǎng)信息辦公室聯(lián)合公安部等四部門聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》。2022年,深圳與上海兩地提出要建立人工智能倫理(專家)委員會,并采用風(fēng)險分類分級機制對人工智能進行管理[33]。通過對歷次治理法規(guī)的整理研究,本文發(fā)現(xiàn)以往對于生成式人工智能治理的法律法規(guī)多借鑒于傳統(tǒng)治理方式進行立法,但生成式人工智能具有瞬息萬變的特點,因此傳統(tǒng)的立法手段對于生成式人工智能治理缺乏一定的針對性。我國的立法治理可以從生成式人工智能的全生命周期出發(fā),依據(jù)各階段已經(jīng)發(fā)生和潛在的風(fēng)險,從模型合法性、服務(wù)合法性、內(nèi)容合法性、傳播合法性、責(zé)任歸屬權(quán)五個維度構(gòu)建全面的立法管理體系,爭取早日形成一種持續(xù)有效的治理策略。

      第三,政府應(yīng)制定生成式人工智能戰(zhàn)略規(guī)劃并進行戰(zhàn)略引領(lǐng),嚴格依照《辦法》相關(guān)要求,支持行業(yè)組織、企業(yè)、公共文化機構(gòu)等在生成式人工智能技術(shù)創(chuàng)新、數(shù)據(jù)資源建設(shè)、轉(zhuǎn)化應(yīng)用、風(fēng)險防范等方面開展協(xié)作,確保生成式人工智能新技術(shù)的成長之路始終與國家的最高利益保持同步。政府應(yīng)制定技術(shù)創(chuàng)新與產(chǎn)業(yè)升級戰(zhàn)略,通過明確技術(shù)發(fā)展方向與產(chǎn)業(yè)升級目標(biāo),及時提供資金政策激勵研發(fā)創(chuàng)新;搭建產(chǎn)學(xué)研平臺加速成果轉(zhuǎn)化,促進產(chǎn)業(yè)鏈協(xié)同,有效推動生成式人工智能技術(shù)與產(chǎn)業(yè)深度融合;強化人才培養(yǎng)與引進,建立監(jiān)測評估機制,構(gòu)建與完善產(chǎn)業(yè)生態(tài)系統(tǒng),實現(xiàn)經(jīng)濟結(jié)構(gòu)的優(yōu)化和技術(shù)的全面進步。

      2.2.2" "企業(yè)層面

      在生成式人工智能治理的關(guān)鍵領(lǐng)域,企業(yè)的發(fā)展與治理實踐緊密相連。作為技術(shù)創(chuàng)新的驅(qū)動者,企業(yè)不僅在促進技術(shù)進步方面發(fā)揮著基礎(chǔ)性作用,還是推動行業(yè)實現(xiàn)健康、可持續(xù)發(fā)展的關(guān)鍵力量。因此,本文將從樹立“科技向善”的企業(yè)文化、建立健全的安全評估與反饋機制、構(gòu)建生成式人工智能行業(yè)標(biāo)準(zhǔn)、技術(shù)治理常態(tài)化四個方面進行具體分析。

      首先,樹立“科技向善”的企業(yè)文化理念至關(guān)重要。企業(yè)文化是其核心競爭力的根基,也是戰(zhàn)略支撐和企業(yè)的精神源泉。健全的企業(yè)文化不僅能夠塑造正確的價值觀,更能激發(fā)員工的創(chuàng)新精神,促進企業(yè)技術(shù)和管理的持續(xù)革新,從而鞏固并提升企業(yè)的市場競爭力。基于此,可從“四項基本原則”來建立“科技向善”的企業(yè)文化,并依此高效管理生成式人工智能的相關(guān)風(fēng)險。一是公正性與多樣性原則。在初始訓(xùn)練過程中,涉及大量數(shù)據(jù)資源的收集與整合,其中不乏混雜著質(zhì)量參差不齊的數(shù)據(jù)。因此,企業(yè)必須嚴格審核數(shù)據(jù)集的來源與質(zhì)量,應(yīng)用去偏見技術(shù),降低算法可能帶來的歧視風(fēng)險。二是透明性與可解釋性原則。企業(yè)應(yīng)當(dāng)發(fā)布算法透明度報告,詳細闡釋算法的工作機制和決策邏輯,便于用戶更好地理解并監(jiān)督算法的運作。三是責(zé)任與合規(guī)性原則。依照監(jiān)管部門要求,企業(yè)在服務(wù)發(fā)布后需要動態(tài)監(jiān)測其合規(guī)性,自動化糾正任何偏離合規(guī)標(biāo)準(zhǔn)的行為。四是安全和隱私保護原則,建立內(nèi)容過濾機制防止不良信息傳播,同時應(yīng)用差分隱私等技術(shù)保護用戶隱私。

      其次,企業(yè)應(yīng)當(dāng)建立健全的安全評估與反饋投訴機制來確保技術(shù)安全、增強用戶信任、實現(xiàn)合規(guī)經(jīng)營以及塑造行業(yè)規(guī)范。一是設(shè)立倫理與偏見審查委員會,對模型訓(xùn)練中可能引入的偏見和歧視性內(nèi)容進行審查和糾正。二是在服務(wù)正式發(fā)布前進行全面安全評估,包括但不限于代碼審查、漏洞掃描、滲透測試等,確保系統(tǒng)無重大安全隱患。三是建立自動與人工相結(jié)合的內(nèi)容審核系統(tǒng),實時批量審核生成內(nèi)容,防止輸出違法、有害或誤導(dǎo)性信息。四是建立便捷的用戶反饋渠道,鼓勵用戶對生成內(nèi)容及服務(wù)質(zhì)量進行反饋,及時收集并處理用戶投訴和建議。

      最后,從構(gòu)建行業(yè)標(biāo)準(zhǔn)和技術(shù)治理常態(tài)化兩個方面完善企業(yè)層面的治理措施。在行業(yè)標(biāo)準(zhǔn)構(gòu)建方面,一是需要制定統(tǒng)一的API接口準(zhǔn)則,方便開發(fā)者接入和使用,提升服務(wù)的易用性和兼容性;二是需要設(shè)定算法效率和準(zhǔn)確性的基本標(biāo)準(zhǔn),確保算法能夠在多樣化應(yīng)用場景中穩(wěn)定運行,提供高效、精準(zhǔn)的服務(wù),滿足用戶需求。在技術(shù)治理常態(tài)化方面,一是實行數(shù)據(jù)合規(guī)性審查,確保訓(xùn)練數(shù)據(jù)來源合法,同時對敏感信息進行脫敏處理,避免個人隱私泄露;二是進行技術(shù)安全與合規(guī)測試,對代碼進行安全審計,排除惡意代碼或漏洞,同時嚴格監(jiān)控模型訓(xùn)練過程,確保其符合行業(yè)標(biāo)準(zhǔn)和法律法規(guī),有效提升透明度與合法性。

      2.2.3" "社會層面

      在生成式人工智能的主體治理體系中,除了政府與企業(yè)發(fā)揮關(guān)鍵治理作用外,社會也同樣是核心治理主體,以下從四個方面探討社會層面的治理路徑。

      一是設(shè)立公眾教育與參與機制。新興技術(shù)的使用不應(yīng)局限于少數(shù)群體,更需要全民參與,確保技術(shù)成果的共享性和普惠性。為增強公眾的法律素養(yǎng),社會應(yīng)組織法律知識專題講座與研討會,聚焦生成式人工智能相關(guān)法律法規(guī)(如數(shù)據(jù)保護法、版權(quán)法等),幫助公眾理解相關(guān)法律條文,并依法維權(quán)。與此同時,為確保技術(shù)開發(fā)符合高標(biāo)準(zhǔn)和高質(zhì)量要求,社會必須培養(yǎng)專業(yè)模型訓(xùn)練師,開展系統(tǒng)性的價值觀教育與專業(yè)技能培訓(xùn),從根本上保障技術(shù)的可信性。

      二是專注于文化與價值觀的塑造。技術(shù)發(fā)展的最終目的是提升人類福祉、推動社會和諧發(fā)展。生成式人工智能技術(shù)廣泛應(yīng)用的同時產(chǎn)生大量內(nèi)容,其中夾雜的價值觀偏差、輿論導(dǎo)向等問題嚴重威脅著主流文化的健康發(fā)展。社會力量應(yīng)積極研究并制定正確的人工智能文化與價值觀導(dǎo)向原則,在初始訓(xùn)練階段即注入正確的文化和價值觀語料,確保其在內(nèi)容生成中恪守社會主流價值觀,避免出現(xiàn)偏見或歧視。同時,應(yīng)定期對生成內(nèi)容進行有效監(jiān)控與評估,保證其符合社會期望和倫理規(guī)范,并及時調(diào)整相關(guān)算法和訓(xùn)練策略,以維護技術(shù)發(fā)展的社會價值底線。

      三是強化市場與社會責(zé)任。這一舉措將通過四方面實現(xiàn):完善生成式人工智能產(chǎn)品交易市場、明確用戶行為規(guī)范、建立生成式人工智能行業(yè)協(xié)會以及設(shè)定生成式人工智能系統(tǒng)認證標(biāo)準(zhǔn)。第一,加強生成式人工智能產(chǎn)品交易市場的建設(shè),確立一個公平、公正、透明的市場競爭環(huán)境,為高質(zhì)量產(chǎn)品和服務(wù)的出現(xiàn)奠定基礎(chǔ);第二,社會組織向公眾普及應(yīng)用生成式人工智能的行為規(guī)范,促使用戶更加負責(zé)任地使用技術(shù);第三,推動成立專門的生成式人工智能行業(yè)協(xié)會或聯(lián)盟,制定行業(yè)自律規(guī)范,鼓勵企業(yè)之間進行交流與合作,共同提高行業(yè)標(biāo)準(zhǔn);第四,制定并實施生成式人工智能系統(tǒng)認證標(biāo)準(zhǔn),構(gòu)建認證體系,對達標(biāo)的產(chǎn)品和服務(wù)進行認證并發(fā)放證書,為消費者提供可靠的決策參考。

      四是促進社會組織協(xié)同增效,調(diào)動各界力量共同應(yīng)對生成式人工智能風(fēng)險,營造和諧穩(wěn)定的社會環(huán)境。細梳社會組織參與生成式人工智能風(fēng)險治理的職能(見圖3)可以發(fā)現(xiàn),高校等研究團隊發(fā)揮其學(xué)術(shù)影響力,積極研究相關(guān)風(fēng)險并提出防范策略,舉辦學(xué)術(shù)交流活動,助力社會各界更好地理解和應(yīng)對生成式人工智能帶來的機遇與挑戰(zhàn);慈善基金會和互聯(lián)網(wǎng)發(fā)展基金會等機構(gòu)聯(lián)合成立生成式人工智能社會基金會,提供資源和資金支持。大學(xué)生志愿者和社會服務(wù)團隊也應(yīng)積極投身相關(guān)工作,依托基層力量開展風(fēng)險預(yù)防和監(jiān)控,提升社會的自我保護能力。

      3" "生成式人工智能的治理框架構(gòu)建

      在探討生成式人工智能的全生命周期管理時,阿里巴巴人工智能治理研究中心將其細分為:模型訓(xùn)練、服務(wù)發(fā)布、內(nèi)容生成以及內(nèi)容傳播四個階段。本文基于這一全生命周期視角,結(jié)合前文所述生成式人工智能在整個生命周期中的風(fēng)險表現(xiàn),依托技術(shù)與主體雙重治理要素,構(gòu)建了一個以技術(shù)為基礎(chǔ)、政府引領(lǐng)、企業(yè)與社會共同參與的生成式人工智能協(xié)同治理框架(見圖4)。其中,G、S、F分別代表政府、社會、企業(yè)三方,G1、S1、F1分別表示三方的一級治理職能,G11、S11、F11分別表示三方的二級治理職能(具體各階段風(fēng)險與治理職能見表2)。

      強大的數(shù)據(jù)、算力、算法是研發(fā)生成式人工智能的核心技術(shù),貫穿于生成式人工智能研發(fā)和運用的整個生命流程,對應(yīng)誘發(fā)風(fēng)險的技術(shù)邏輯為“來源于數(shù)據(jù)”“加劇于算法”“溢出于模型”[34]。鑒于此,治理主體應(yīng)當(dāng)以技術(shù)為核心基礎(chǔ),致力于數(shù)據(jù)與算力、算法的全鏈條、全覆蓋治理,確保底層技術(shù)創(chuàng)新研發(fā)中融入可信賴的價值觀,并保障倫理要求在生成式人工智能全生命周期中得到內(nèi)化。首先,在數(shù)據(jù)層面,著重強調(diào)實施數(shù)據(jù)質(zhì)量評估與清洗的重要性,并采用加密與匿名化技術(shù)以保障數(shù)據(jù)安全。針對語料庫數(shù)據(jù)管理,確立具體的管理指標(biāo)和操作規(guī)則以控制訓(xùn)練數(shù)據(jù)的質(zhì)量;引入數(shù)據(jù)加密、密鑰管理和訪問控制等核心技術(shù),以有效降低數(shù)據(jù)泄露、篡改和破壞的風(fēng)險。其次,在算力層面,致力于建立算力資源管理系統(tǒng)、增強算力基礎(chǔ)設(shè)施的安全性、推動綠色能源在算力資源中的應(yīng)用,以確保資源的穩(wěn)定可靠,提升資源管理效率,促進可持續(xù)發(fā)展。最后,在算法層面,主要是增強算法透明度和可解釋性,并進行公平性審計。相關(guān)方通過詳細記錄算法編輯痕跡(包括算法變量、決策基本規(guī)則和因素權(quán)重、算法運行邏輯等)以提升算法透明度與可解釋性;創(chuàng)建專用于審計算法公平性的數(shù)據(jù)集及評估指標(biāo),客觀公平地對算法進行評價;采用對抗訓(xùn)練、數(shù)據(jù)增強和模型正則化等技術(shù),增強模型抵御干擾和攻擊的能力。

      3.1" " 模型訓(xùn)練階段

      模型訓(xùn)練階段是確立模型性能與安全性的關(guān)鍵時期。然而,在訓(xùn)練數(shù)據(jù)的收集、處理、分析以及算法的設(shè)計、執(zhí)行過程中,諸多因素可能導(dǎo)致數(shù)據(jù)偏倚、失真等問題;算法的不透明性與難解釋性亦引發(fā)了算法黑箱及算法反噬等現(xiàn)象;此外,訓(xùn)練過程需要大量算力資源支持,由此產(chǎn)生了高能耗問題。針對該階段在數(shù)據(jù)安全、生成式算法、經(jīng)濟和法律方面的風(fēng)險表現(xiàn),依據(jù)本文治理框架,主要治理路徑如下。

      首先,政府應(yīng)發(fā)揮其立法主體作用,制定針對于該階段具體場景、特定風(fēng)險的法規(guī),如模型合法性、訓(xùn)練數(shù)據(jù)安全規(guī)范等專門規(guī)定。鑒于該階段涉及大量訓(xùn)練數(shù)據(jù),政府可以實行“數(shù)據(jù)審查與清洗報告”制度,要求企業(yè)在開始訓(xùn)練前向監(jiān)管部門提交詳細報告。此報告必須公開且接受獨立審查,內(nèi)容包括數(shù)據(jù)來源、清洗措施與偏見識別策略等,列明所有潛在的偏見風(fēng)險(如性別、種族差異等),并提出緩解措施。

      其次,企業(yè)應(yīng)當(dāng)主動遵循政府引導(dǎo),參照《辦法》要求來開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等數(shù)據(jù)處理活動。為增強算法透明度,企業(yè)可以引入可解釋性增強模塊,如LIME或SHAP等可解釋性工具,實時生成模型訓(xùn)練過程中的決策路徑報告,確保每個訓(xùn)練步驟及決策過程均可清晰追溯與審查。此外,企業(yè)應(yīng)當(dāng)開發(fā)實時資源監(jiān)測工具,記錄和分析該階段的能源消耗與碳排放情況。如在云計算服務(wù)中,企業(yè)可以通過提供訓(xùn)練所需的具體硬件消耗報告來優(yōu)化云計算資源調(diào)配,從而最大限度減少能源浪費和碳排放。

      最后,企業(yè)應(yīng)基于社會反饋實時校準(zhǔn)模型訓(xùn)練過程。通過引入社會反饋模塊,不同社會群體可以通過專業(yè)平臺參與訓(xùn)練階段的審查和反饋,企業(yè)據(jù)此動態(tài)調(diào)整訓(xùn)練數(shù)據(jù)權(quán)重。如當(dāng)模型輸出在某些文化或社會群體中存在偏見時,反饋模塊立即觸發(fā),企業(yè)回溯訓(xùn)練數(shù)據(jù),找到潛在問題的來源,剔除或加權(quán)修正這些數(shù)據(jù),以保證模型的公平性與準(zhǔn)確性。

      3.2" " 服務(wù)發(fā)布階段

      在服務(wù)發(fā)布階段,服務(wù)提供者需要選擇安全有效的模型作為基礎(chǔ),以構(gòu)建完整的算法服務(wù)體系。盡管此階段不涉及模型訓(xùn)練或應(yīng)用數(shù)據(jù),但它決定了模型的核驗機制、使用方式及調(diào)用工具集的選擇。因此,該階段可能會出現(xiàn)未經(jīng)充分核驗即部署模型、錯誤或不當(dāng)調(diào)用工具集等問題,由此引發(fā)生成式人工智能自動化攻擊、惡意軟件創(chuàng)建、信息竊取等負面現(xiàn)象。

      首先,政府應(yīng)強制要求服務(wù)提供商完成安全評估和合規(guī)性認證,對于未達標(biāo)服務(wù),有權(quán)禁止其發(fā)布或施加限制。同時,應(yīng)基于模型特征(如開放性、易濫用性)實施動態(tài)監(jiān)管策略。生成式人工智能服務(wù)發(fā)布時必須附上“反濫用聲明”,并在后續(xù)出現(xiàn)惡意濫用行為時,依據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》及《中華人民共和國數(shù)據(jù)安全法》追責(zé)與處罰。

      其次,企業(yè)需強化自律和技術(shù)保障,確保API接口標(biāo)準(zhǔn)化,并建立自動化安全漏洞掃描系統(tǒng)以進行綜合安全評估。通過應(yīng)用最新技術(shù)自動識別并修復(fù)模型中的潛在漏洞、濫用及不當(dāng)行為(如深度偽造),減少人為錯誤。此外,企業(yè)應(yīng)在服務(wù)發(fā)布后部署實時監(jiān)控系統(tǒng),以監(jiān)測異常用戶行為(如惡意輸入或誘導(dǎo)生成內(nèi)容),并采取自動化響應(yīng)措施(如凍結(jié)賬戶、警告用戶、刪除內(nèi)容等)防范風(fēng)險。如當(dāng)用戶輸入惡意指令或誘導(dǎo)性提示(如生成暴力、仇恨言論等)時,平臺自動彈出警告或限制使用相關(guān)功能。

      最后,政府戰(zhàn)略規(guī)劃應(yīng)引領(lǐng)市場與社會組織強化責(zé)任擔(dān)當(dāng),完善生成式人工智能產(chǎn)品交易市場的建設(shè),確保該市場不僅需要滿足常規(guī)商業(yè)需求,更需要注重服務(wù)的安全與合規(guī)性。為此,可引入第三方認證機構(gòu)進行服務(wù)預(yù)發(fā)布審核,實施多層次審核流程,建立定期復(fù)審機制,確保服務(wù)持續(xù)符合最新的安全與合規(guī)要求。

      3.3" " 內(nèi)容生成階段

      在內(nèi)容生成階段,生成內(nèi)容是用戶與模型交互的產(chǎn)物。用戶的使用意圖及其是否主觀輸入惡意信息或誘導(dǎo)行為,在很大程度上決定了模型輸出內(nèi)容的安全性。因此,在具體實踐中,內(nèi)容生成階段的風(fēng)險主要源自兩方面:一是用戶的惡意輸入和誘導(dǎo),二是訓(xùn)練數(shù)據(jù)與算法模型本身存在的錯誤價值導(dǎo)向。

      首先,針對來源于用戶惡意輸入和誘導(dǎo)造成的風(fēng)險,一方面,按照《辦法》要求,明確網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者要依法承擔(dān)相應(yīng)的法律責(zé)任,以此法律框架約束用戶不當(dāng)行為;另一方面,企業(yè)可構(gòu)建基于深度學(xué)習(xí)的輸入檢測模型,實時識別用戶輸入中的惡意意圖,并提供引導(dǎo)性反饋,提示用戶重新審視輸入內(nèi)容,避免生成有害內(nèi)容。此外,企業(yè)應(yīng)建立動態(tài)內(nèi)容生成倫理決策引擎,在內(nèi)容生成過程中動態(tài)接入國家法規(guī)更新、社會道德標(biāo)準(zhǔn)、行業(yè)倫理規(guī)范等信息源,保證生成內(nèi)容符合最新社會倫理要求。企業(yè)還可以實施審查與標(biāo)簽化機制,對每條生成內(nèi)容進行實時安全評分,根據(jù)評分結(jié)果標(biāo)注“風(fēng)險標(biāo)簽”,采取相應(yīng)措施。如在內(nèi)容生成之前,系統(tǒng)從倫理性、合法性、社會影響等多維度對內(nèi)容進行評分,若評分低于安全閾值,則自動標(biāo)記為高風(fēng)險等級并啟動人工審查流程,確保內(nèi)容符合發(fā)布標(biāo)準(zhǔn)。

      其次,針對由于訓(xùn)練數(shù)據(jù)和算法模型本身錯誤價值觀念引起的風(fēng)險,治理工作要重點關(guān)注工具采用的算法模型、訓(xùn)練數(shù)據(jù)的來源。為從源頭遏制風(fēng)險,回溯至初始訓(xùn)練階段,企業(yè)與社會組織應(yīng)積極培育專業(yè)模型訓(xùn)練師,開展系統(tǒng)性的價值觀教育與技能培訓(xùn),確保其能在訓(xùn)練階段及時剔除不符合主流價值觀的訓(xùn)練素材,保證生成恪守社會主流價值觀的內(nèi)容,避免出現(xiàn)偏見或歧視。

      3.4" " 內(nèi)容傳播階段

      內(nèi)容傳播階段是信息擴散的關(guān)鍵環(huán)節(jié)。在此階段,生成內(nèi)容通過算法推薦和信息流動迅速傳播,尤其在社交媒體等平臺上,算法對內(nèi)容的篩選和推送可能導(dǎo)致過濾氣泡現(xiàn)象,限制用戶接觸多元信息。同時,由于用戶獲取信息能力存在差異,數(shù)字鴻溝問題日益加劇,部分群體可能無法有效辨別生成內(nèi)容的可信度,從而加劇信息不平等。此外,虛假信息和深度偽造內(nèi)容在社交平臺上傳播速度極快,可能誤導(dǎo)社會輿論,甚至引發(fā)政治、經(jīng)濟等領(lǐng)域的危機。

      首先,針對以意識形態(tài)撕裂為代表的意識形態(tài)風(fēng)險,政府應(yīng)發(fā)揮頂層設(shè)計的指導(dǎo)作用,從維護國家意識形態(tài)安全出發(fā),明確界定意識形態(tài)風(fēng)險的邊界與管理原則,確保各方參與者有章可循。同時,企業(yè)和社會應(yīng)開展廣泛的意識形態(tài)教育活動,利用學(xué)校、社區(qū)、媒體等多渠道普及正確的價值觀與社會倫理觀念。

      其次,針對知識產(chǎn)權(quán)侵犯、生成式人工智能責(zé)任歸屬等法律風(fēng)險,政府應(yīng)規(guī)定生成內(nèi)容具備可追溯性,要求企業(yè)為每條生成內(nèi)容創(chuàng)建“數(shù)字指紋”,記錄內(nèi)容從輸入到生成再到修改的全過程。企業(yè)則可以利用區(qū)塊鏈等去中心化技術(shù)構(gòu)建分布式內(nèi)容溯源系統(tǒng),確保用戶能夠追蹤生成內(nèi)容的歷史記錄和修改軌跡,明確責(zé)任歸屬。此外,社會組織應(yīng)當(dāng)與企業(yè)建立智能合約機制,對違規(guī)行為自動觸發(fā)追責(zé)流程,強化責(zé)任落實和技術(shù)保障。

      最后,針對以虛假信息和不良信息傳播等為代表的信息傳播風(fēng)險,政府可以推動企業(yè)與社會建立多層級輿情反饋和引導(dǎo)機制。當(dāng)生成內(nèi)容引發(fā)公眾熱議時,平臺通過實時輿情分析系統(tǒng)匯總用戶的點贊、評論等正負面反饋,及時識別爭議內(nèi)容并調(diào)整傳播策略,避免進一步擴散誤導(dǎo)性信息。同時,根據(jù)《深度合成管理規(guī)定》《生成式人工智能服務(wù)內(nèi)容標(biāo)識方法》的規(guī)定履行內(nèi)容標(biāo)識義務(wù),具體措施包括在生成內(nèi)容的顯著位置加注“生成內(nèi)容”或“人工智能生成”等字樣,以確保信息透明化,保障用戶知情權(quán)和選擇權(quán);或采用隱形標(biāo)識技術(shù),通過時空域水印或變換域水印的方式實現(xiàn)標(biāo)識信息[35]。在未公開顯示的情況下,隱形標(biāo)識應(yīng)當(dāng)提供給監(jiān)管部門或相關(guān)方,以便在內(nèi)容審核和監(jiān)管過程中進行有效追蹤。

      4" "案例討論

      本章應(yīng)用全生命周期視角下的生成式人工智能治理框架對兩個典型案例進行討論。案例一探討生成式人工智能如何被用于制造和傳播虛假信息,分析技術(shù)要素在風(fēng)險治理中的作用;案例二則重點探討意大利對ChatGPT的監(jiān)管案例,從政府、企業(yè)和社會主體要素出發(fā),討論國家在生成式人工智能監(jiān)管中的挑戰(zhàn)與解決方案。兩者均從全生命周期的不同階段揭示了生成式人工智能的治理難點,提供了實踐中應(yīng)對風(fēng)險和實施有效監(jiān)管的經(jīng)驗及啟示。

      4.1" " 案例一:生成式人工智能的虛假信息傳播案例

      2023年4月,甘肅省平?jīng)鍪泄簿殖晒善埔黄鹄蒙墒饺斯ぶ悄軅鞑ヌ摷傩侣劦陌讣?。嫌疑人洪某弟利用ChatGPT等工具批量生成虛假新聞內(nèi)容,以牟取非法流量返利,其中發(fā)布關(guān)于“甘肅火車事故致9人死亡”的虛假報道,點擊量達到1.5萬次,嚴重擾亂了公眾認知和社會秩序[36]。

      (1)技術(shù)要素:海量數(shù)據(jù)、龐大算力與算法模型

      海量數(shù)據(jù)在虛假信息的生成中扮演了關(guān)鍵角色。洪某弟借助“易撰”工具搜集社會熱點新聞作為訓(xùn)練數(shù)據(jù),再結(jié)合ChatGPT生成具有高社會關(guān)注度的虛假新聞。由于數(shù)據(jù)未經(jīng)驗證,且缺乏真實性和質(zhì)量評估,虛假信息迅速傳播并吸引公眾注意。這種缺乏有效篩查的數(shù)據(jù)處理方式不僅放大了虛假信息的影響,還揭示了現(xiàn)有治理框架在防范數(shù)據(jù)失真方面存在的不足,凸顯了數(shù)據(jù)質(zhì)量控制在防止虛假信息擴散中的重要性。因此,有必要建立嚴格的數(shù)據(jù)質(zhì)量控制體系,包括評估和清洗不實數(shù)據(jù),同時采取措施保護數(shù)據(jù)隱私,如應(yīng)用加密和匿名化等技術(shù)。

      在龐大算力的支持下,生成式人工智能顯著提升了內(nèi)容生產(chǎn)的效率和規(guī)模,使洪某弟能在短時間內(nèi)生成大規(guī)模虛假新聞并發(fā)布,加速了虛假信息的蔓延。因此,相關(guān)方必須優(yōu)化算力資源的分配,提升基礎(chǔ)設(shè)施的安全性與穩(wěn)定性,確保技術(shù)在推動效率的同時能夠保障信息安全。

      隨著算法模型不斷迭代,生成內(nèi)容在邏輯性與語言流暢度上已達到較高水準(zhǔn),極大增加了辨別信息真?zhèn)蔚碾y度。洪某弟利用該特點生成的虛假新聞不易從形式上辨別真假,具有極強的誤導(dǎo)性,容易使公眾放松警惕。為減少此類誤導(dǎo)性輸出,算法應(yīng)定期進行公平性審計和對抗性訓(xùn)練,同時提高穩(wěn)健性。

      (2)服務(wù)發(fā)布階段:合規(guī)性審查與透明化管理不足

      本案例中,生成式人工智能工具被濫用于制作虛假新聞,暴露了服務(wù)發(fā)布階段合規(guī)性審查與透明化管理的不足。首先,該工具發(fā)布前未對模型功能的合法性及濫用風(fēng)險進行全面評估,使洪某弟能夠利用其生成誤導(dǎo)性信息。其次,平臺未能為用戶行為制定明確規(guī)范,使得洪某弟這種濫用行為未受到有效約束。因此,服務(wù)發(fā)布階段需要強化內(nèi)容合法性審查,并建立明確的透明化管理機制。

      (3)內(nèi)容生成階段:真實性審核與價值引導(dǎo)的失衡

      虛假新聞的生成過程反映了內(nèi)容生成階段對真實性審核與價值引導(dǎo)的失衡。案例中生成式人工智能工具未配備有效的內(nèi)容審核機制,因此當(dāng)洪某弟生成表面上看似真實、但實際上帶有誤導(dǎo)性的虛假新聞時,相關(guān)方未能從其源頭及時遏制。同時,工具也未對生成內(nèi)容的價值導(dǎo)向進行評估,洪某弟為吸引流量編造的事故新聞帶有恐嚇性質(zhì),煽動公眾情緒,易激起社會恐慌,從而加劇其對社會的負面影響。因此,內(nèi)容生成階段需要注重真實性的自動化審核,同時通過價值評估確保內(nèi)容的社會正向引導(dǎo)。

      (4)內(nèi)容傳播階段:動態(tài)監(jiān)管與用戶反饋機制不足

      “甘肅火車事故致9人死亡”新聞短時間內(nèi)點擊量達到1.5萬次,表明內(nèi)容傳播階段中動態(tài)監(jiān)管和反饋機制嚴重失靈。一方面,平臺未能對內(nèi)容實時監(jiān)控,無法及時發(fā)現(xiàn)并封禁虛假信息,反映出現(xiàn)有治理對生成式人工智能內(nèi)容的動態(tài)監(jiān)控能力不足;另一方面,發(fā)布平臺的審核機制未能對生成內(nèi)容進行透明化標(biāo)識,導(dǎo)致公眾難辨真?zhèn)?。同時,平臺缺乏完善的用戶反饋機制,部分用戶已判斷出新聞的虛假性,但可能由于平臺限制而無法及時反饋,或者用戶已及時反饋但平臺響應(yīng)速度緩慢,進而助長虛假新聞的傳播。為此,該階段需要引入動態(tài)監(jiān)管機制,完善用戶反饋的閉環(huán)管理,阻止虛假內(nèi)容的大范圍傳播。

      4.2" " 案例二:生成式人工智能的國家監(jiān)管案例

      2023年3月,因涉及隱私保護和《通用數(shù)據(jù)保護條例》(GDPR)合規(guī)問題,意大利數(shù)據(jù)保護機構(gòu)對ChatGPT開展調(diào)查,并要求OpenAI必須在20天內(nèi)提交針對違規(guī)行為的整改措施。該事件成為全球首例生成式人工智能監(jiān)管干預(yù)案例,引發(fā)了其他歐洲國家數(shù)據(jù)保護機構(gòu)的廣泛關(guān)注與討論。最終,OpenAI承諾整改后恢復(fù)服務(wù),改進數(shù)據(jù)收集和隱私保護機制,并加強透明度和合法性[37]。

      (1)主體要素:政府、企業(yè)、社會的角色與責(zé)任

      意大利政府作為公共權(quán)力承載體,在生成式人工智能治理中發(fā)揮重要的引領(lǐng)作用。在發(fā)現(xiàn)ChatGPT涉嫌違反數(shù)據(jù)收集相關(guān)法規(guī)時,意大利數(shù)據(jù)保護局迅速采取臨時限制、全面禁用、違規(guī)調(diào)查、限期整改、解禁等系列措施,積極督促OpenAI確保其在數(shù)據(jù)隱私方面的合規(guī)性。該舉措不僅體現(xiàn)了政府對人工智能技術(shù)的規(guī)范能力與執(zhí)行力度,也向全球傳遞出明確信號:生成式人工智能的發(fā)展必須遵循透明、公正和合法的路徑,確保公眾隱私和數(shù)據(jù)安全。

      在政府的監(jiān)管下,OpenAI迅速響應(yīng),在3月31日全面禁用ChatGPT后立即啟動內(nèi)部審查,并于4月6日與意大利數(shù)據(jù)保護機構(gòu)舉行高層會議,提交整改承諾。最終,4月28日,OpenAI向意大利數(shù)據(jù)保護局提交了詳細的改進計劃,涵蓋增強數(shù)據(jù)透明度、強化用戶權(quán)利保護以及提供便捷的數(shù)據(jù)權(quán)利行使機制。這些行動不僅展示了企業(yè)在生成式人工智能治理中的關(guān)鍵支撐作用,也通過建立健全的安全評估與反饋機制確保了技術(shù)應(yīng)用的安全性和可靠性,還樹立了“科技向善”的企業(yè)文化形象、提升了用戶信任。

      此外,該案件還引發(fā)了社會對生成式人工智能隱私保護的高度關(guān)注。社會輿論和媒體監(jiān)督發(fā)揮了積極作用,促使政府和企業(yè)更加重視技術(shù)的社會影響。如德國BfDI、法國CNIL、西班牙AEPD等歐洲多國數(shù)據(jù)保護機構(gòu)都明確表達了對生成式人工智能的關(guān)注和立場,表示可能進行跟進或采取措施。這種由政府引領(lǐng)、企業(yè)和社會共同參與的模式,為生成式人工智能技術(shù)的健康發(fā)展奠定了堅實基礎(chǔ),也為其他國家和地區(qū)提供了可借鑒的治理經(jīng)驗。

      (2)模型訓(xùn)練階段:強化數(shù)據(jù)保護與隱私合規(guī)性

      在模型訓(xùn)練階段,意大利政府要求OpenAI嚴格遵守數(shù)據(jù)保護規(guī)范,確保不會在訓(xùn)練過程中濫用個人數(shù)據(jù)。具體而言,OpenAI必須保證所使用的數(shù)據(jù)經(jīng)過用戶明確授權(quán),且所有數(shù)據(jù)處理和存儲活動完全符合GDPR的相關(guān)要求。此外,政府還要求OpenAI建立健全的數(shù)據(jù)治理機制,嚴格限制數(shù)據(jù)的使用范圍,避免因數(shù)據(jù)濫用而引發(fā)潛在風(fēng)險。依托本文治理框架,政府通過要求企業(yè)強化模型訓(xùn)練階段的數(shù)據(jù)合規(guī)管理,有效保障了用戶隱私權(quán)及數(shù)據(jù)安全。

      (3)服務(wù)發(fā)布階段:落實隱私政策與合規(guī)性審查

      在服務(wù)發(fā)布階段,意大利政府實施了嚴格的合規(guī)性審查,審查結(jié)果顯示OpenAI在服務(wù)初期未能完全滿足GDPR的規(guī)定,由此引發(fā)了監(jiān)管干預(yù)。對此,意大利政府明確要求OpenAI提高隱私政策的透明度,詳細闡明數(shù)據(jù)處理方式,并且加強建設(shè)法律合規(guī)機制,確保數(shù)據(jù)使用過程的合法性及安全性。該舉措也再次說明,生成式人工智能服務(wù)在發(fā)布時必須嚴格遵守隱私保護政策,且需要通過全面的合規(guī)性審查,為技術(shù)規(guī)范化發(fā)展提供有力保障。

      5" "結(jié)語

      當(dāng)前,生成式人工智能的深度偽造技術(shù)為用戶提供了信息獲取的新視角,但其真實性與合法性給監(jiān)管帶來了極大的挑戰(zhàn)。因此,加強生成式人工智能治理愈發(fā)重要,其治理模式也需要不斷調(diào)整和優(yōu)化,以適應(yīng)新的技術(shù)發(fā)展趨勢和社會需求,更好地服務(wù)于人類社會,推動社會進步和經(jīng)濟發(fā)展。

      本文從全生命周期視角出發(fā),分析了生成式人工智能的潛在風(fēng)險,針對各階段的特點及風(fēng)險表現(xiàn),構(gòu)建了一個以技術(shù)為基礎(chǔ)、政府為引導(dǎo)力量、企業(yè)與社會共同參與的協(xié)同治理框架。該框架涵蓋了數(shù)據(jù)資源、算力資源、算法模型等技術(shù)治理要素,以及政府、企業(yè)、社會等主體治理要素。依據(jù)理論框架深入討論生成式人工智能的虛假信息傳播案例和國家監(jiān)管案例,展示該框架的可行性和必要性,旨在為生成式人工智能的健康發(fā)展提供理論支撐和實踐參考。

      參考文獻:

      [1]" 蒲清平,向往.生成式人工智能——ChatGPT的變革影響、風(fēng)險挑戰(zhàn)及應(yīng)對策略[J].重慶大學(xué)學(xué)報(社會科學(xué)版),2023,29(3):102-114.

      [2]" 王芳,朱學(xué)坤,劉清民,等.生成式人工智能研究進展[J].圖書與情報,2024(4):45-64.

      [3]" 國家網(wǎng)信辦,國家發(fā)展改革委,教育部,科技部,工信部,公安部,廣電總局.生成式人工智能服務(wù)管理暫行辦法[EB/OL].[2024-08-26].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.

      [4]" 全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會.生成式人工智能服務(wù)安全基本要求[EB/OL].[2024-09-26].https://www.tc260.org.cn/upload/2024-03-01/1709282398070082466.pdf.

      [5]" 張峰,江為強,邱勤,等.人工智能安全風(fēng)險分析及應(yīng)對策略[J].中國信息安全,2023(5):44-47.

      [6]" 李月泉,劉娟.生成式人工智能的著作權(quán)問題及其保護對策[J].傳播與版權(quán),2024(12):107-110.

      [7]" 王延川,趙靖.生成式人工智能誘發(fā)意識形態(tài)風(fēng)險的邏輯機理及其應(yīng)對策略[J].河南師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,50(4):1-7.

      [8]" 盧安文.生成式人工智能:風(fēng)險、監(jiān)管與治理模式探究[J/OL].重慶郵電大學(xué)學(xué)報(社會科學(xué)版),1-15[2024-09-29].http://kns.cnki.net/kcms/detail/50.1180.C.20240628.0838.004.html.

      [9]" 馬治國,張楠.通用人工智能的數(shù)據(jù)風(fēng)險及法治應(yīng)對路徑[J].北京工業(yè)大學(xué)學(xué)報(社會科學(xué)版),2024,24(5):131-142.

      [10]" 曹賢平.人工智能文生視頻大模型Sora對科技倫理的沖擊及應(yīng)對[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2025,46(1):142-148.

      [11]" 向繼友,吳學(xué)琴.ChatGPT類生成式人工智能的意識形態(tài)風(fēng)險及其防控策略[J].江漢論壇,2023(12):53-59.

      [12]" 方興東,鐘祥銘.谷登堡時刻:Sora背后信息傳播的范式轉(zhuǎn)變與變革邏輯[J].現(xiàn)代出版,2024(3):1-15.

      [13]" GUPTA M,AKIRI C,ARYAL K,et al.From ChatGPT to ThreatGPT:Impact of Generative AI in Cybersecurity and Privacy[J].IEEE Access,2023,11:80218-80245.

      [14]" CHUGH H.Cybersecurity in the Age of Generative AI:Usable Security amp; Statistical Analysis of ThreatGPT[J].International Journal for Research in Applied Science and Engineering Technology,2024,12(1):1-9.

      [15]" 李穎.生成式人工智能ChatGPT的數(shù)字經(jīng)濟風(fēng)險及應(yīng)對路徑[J].江淮論壇,2023(2):74-80.

      [16]" 胡楓,張超.生成式人工智能的理論審視、風(fēng)險揭示及治理路徑——以ChatGPT為視角[J/OL].南京郵電大學(xué)學(xué)報(社會科學(xué)版),1-11[2024-09-26].https://doi.org/10.14132/j.cnki.nysk.20240625.001.

      [17]" 嚴馳.生成式人工智能大模型全球治理的理論證成與初步構(gòu)想[J].中國科技論壇,2024(5):140-148.

      [18]" 徐昕.數(shù)字技術(shù)資本主義應(yīng)用的意識形態(tài)批判[J].中國地質(zhì)大學(xué)學(xué)報(社會科學(xué)版),2024,24(3):10-19.

      [19]" 尤凱,王雪,李新紅.生成式人工智能對學(xué)術(shù)期刊的影響與建議:以ChatGPT為例[J].出版廣角,2024(6):77-80.

      [20]" 劉瑋.ChatGPT類生成式人工智能嵌入數(shù)字政府建設(shè):可供、限制與優(yōu)化——基于技術(shù)可供性視角[J].情報理論與實踐,2023,46(10):69-76.

      [21]" 周毅,郭朗睿.公共數(shù)據(jù)開放中隱性數(shù)據(jù)安全風(fēng)險治理機制的構(gòu)建及其實現(xiàn)[J].情報理論與實踐,2024,47(12):63-71.

      [22]" 徐偉,韋紅梅.生成式人工智能訓(xùn)練數(shù)據(jù)風(fēng)險治理:歐盟經(jīng)驗及其啟示[J/OL].現(xiàn)代情報,1-15[2024-10-06].http://kns.cnki.net/kcms/detail/22.1182.G3.20241121.1509.002.html.

      [23]" 滕海波.對以ChatGPT為代表的生成式人工智能規(guī)制的思考[J].互聯(lián)網(wǎng)天地,2023(6):38-44.

      [24]" 李川.生成式人工智能場域下個人信息規(guī)范保護的模式與路徑[J].江西社會科學(xué),2024,44(8):68-80.

      [25]" 朱蘭蘭,高玉婷,霍婕.AIGC視域下科學(xué)數(shù)據(jù)開放共享風(fēng)險及對策——基于WSR理論分析框架[J].檔案管理,2024(4):18-21.

      [26]" 李沖,李霞.人工智能風(fēng)險的試探性治理:概念框架與案例解析[J].中國軟科學(xué),2024(4):91-101.

      [27]" 張海,段薈,王東波.信息資源管理領(lǐng)域生成式人工智能:研究現(xiàn)狀、研究主題及研究展望[J].情報雜志,2024,43(10):150-156.

      [28]" 姚建軍,崔宇航.從解構(gòu)到建構(gòu):ChatGPT意識形態(tài)性的生成機理及應(yīng)對策略[J].中共天津市委黨校學(xué)報,2023,25(6):53-62.

      [29]" BRUNO A,MAZZEO P L,CHETOUANI A,et al.Insights into Classifying and Mitigating LLMs' Hallucinations[J].arXiv preprint arXiv,2023:2311.08117.

      [30]" 郭海玲,衛(wèi)金金,劉仲山.生成式人工智能虛假信息協(xié)同共治研究[J].情報雜志,2024,43(9):121-129,165.

      [31]" 阿里巴巴人工智能治理與可持續(xù)發(fā)展研究中心.生成式人工智能治理與實踐白皮書[EB/OL].[2024-10-08].https://s.alibaba.com/cn/aaigWhitePaperDetails.

      [32]" 吳沈括.專家解讀|構(gòu)建面向AI時代的數(shù)據(jù)治理新生態(tài)[EB/OL].[2024-10-06].https://www.cac.gov.cn/2023-08/29/c_1694965943882536.htm.

      [33]" 東方財富網(wǎng).生成式AI發(fā)展與監(jiān)管白皮書⑤:發(fā)展治理“雙輪驅(qū)動” “世界之問”下的中國方案[EB/OL].[2024-10-26].https://finance.eastmoney.com/a/202307262792469765.html.

      [34]" 王干一.ChatGPT等生成式人工智能誘發(fā)意識形態(tài)風(fēng)險的機制、邏輯與治理[J].成都行政學(xué)院學(xué)報,2024(3):94-105.

      [35]" 李濤.文生視頻類人工智能在圖書領(lǐng)域的應(yīng)用場景及有效治理[J].圖書與情報,2024(4):101-110.

      [36]" 澎湃新聞.甘肅首例AI虛假信息案,男子用ChatGPT編假新聞牟利[EB/OL].[2024-10-04].https://www.thepaper.cn/newsDetail_forward_22999940.

      [37]" 安全內(nèi)參.AIGC研發(fā)及應(yīng)用數(shù)據(jù)隱私合規(guī)義務(wù)識別:以意大利監(jiān)管ChatGPT為切入點[EB/OL].[2024-10-04].https://www.secrss.com/articles/54726.

      作者簡介:黃煒(1979-),男,湖北工業(yè)大學(xué)經(jīng)濟與管理學(xué)院教授,博士生導(dǎo)師,武漢晴川學(xué)院商學(xué)院特聘教授,湖北數(shù)字工業(yè)經(jīng)濟發(fā)展研究中心研究員,研究方向:網(wǎng)絡(luò)信息智能處理;張玉瀅(2002-),女,湖北工業(yè)大學(xué)經(jīng)濟與管理學(xué)院碩士研究生,研究方向:人工智能;劉勇(2005-),男,湖北工業(yè)大學(xué)經(jīng)濟與管理學(xué)院本科生,研究方向:科技政策;張瑞(1992-),女,湖北工業(yè)大學(xué)經(jīng)濟與管理學(xué)院講師,研究方向:知識流動。

      猜你喜歡
      生成式人工智能全生命周期
      生成式人工智能的教育啟示:讓每個人成為他自己
      挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會議綜述
      生成式人工智能時代的政治傳播走向
      黨政研究(2023年3期)2023-05-29 01:10:39
      生成式人工智能重塑教育及教師應(yīng)對之道
      人機共生時代國際傳播的理念升維與自主敘事體系構(gòu)建
      對外傳播(2023年4期)2023-05-21 20:52:16
      生成式人工智能的教育應(yīng)用與展望
      全生命周期視角下基礎(chǔ)設(shè)施類PPP項目利益相關(guān)者分析
      天然氣管道建設(shè)項目全生命周期風(fēng)險管理研究
      綠色建材全生命周期的研究與落實方法
      科技視界(2016年18期)2016-11-03 23:54:06
      范式轉(zhuǎn)換視角下建筑工程全生命周期的工程造價管理研究
      叙永县| 民县| 沙河市| 南充市| 全椒县| 皋兰县| 济南市| 寿宁县| 扶沟县| 岳普湖县| 铜陵市| 衡阳县| 当涂县| 阜康市| 同德县| 离岛区| 来宾市| 厦门市| 前郭尔| 丽水市| 汝南县| 扶余县| 洪泽县| 渭源县| 永兴县| 通榆县| 上饶市| 黑山县| 大洼县| 玛曲县| 广汉市| 嘉黎县| 雅安市| 大同县| 忻城县| 金沙县| 宜兰县| 信丰县| 蛟河市| 兴安县| 永丰县|