• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能的風險類型與治理方案

      2024-12-31 00:00:00左冬雪
      理論觀察 2024年12期

      摘 要:隨著ChatGPT的爆火,生成式人工智能成為炙手可熱的技術概念,其具有數(shù)據(jù)依賴、生成內(nèi)容難以分辨以及通用性較強三個主要特征。生成式人工智能的應用前景可觀,但也可能會引發(fā)數(shù)據(jù)安全、算法安全以及生成內(nèi)容安全方面的社會風險。生成式人工智能運行的不透明性、不可理解性以及追責困難性,將會造成生成內(nèi)容著作權(quán)歸屬不清和生成內(nèi)容存在偏見,可能侵害個人信息權(quán)益、造成行業(yè)壟斷甚至危害國家安全。針對生成式人工智能風險的治理方案,在法律層面應當從數(shù)據(jù)安全保護、算法治理以及生成內(nèi)容審查方面構(gòu)建全鏈條的治理規(guī)則。在平臺監(jiān)管層面,應當構(gòu)建平臺備案制度、實施激勵措施以及暢通投訴渠道。在協(xié)同層面,形成用戶、企業(yè)、政府以及國際組織等多元主體共治局面。

      關鍵詞:生成式人工智能;ChatGPT;社會風險;治理方案

      中圖分類號:D923 文獻標識碼:A 文章編號:1009 — 2234(2024)12 — 0071 — 07

      自美國OpenAI公司開發(fā)的兩款產(chǎn)品DALL·E2①和ChatGPT②相繼發(fā)布以來,生成式人工智能這一概念正式進入大眾視野,整個社會開始對大型科技公司開發(fā)的各種生成式人工智能產(chǎn)品抱有極大興趣。Meta、微軟、谷歌、百度、騰訊等網(wǎng)絡巨頭爭相跟進,生成式人工智能成為了互聯(lián)網(wǎng)投資的新風口和信息技術發(fā)展的新趨勢。生成式人工智能作為一項新興技術,未來應用前景十分可觀。被譽為“互聯(lián)網(wǎng)之父”的英國計算機科學家蒂姆·伯納斯-李(Tim Berners-Lee)預測:未來人人都可能會擁有ChatGPT類生成式人工智能助手[1]。人類社會的發(fā)展進步離不開科技創(chuàng)新。自工業(yè)革命以來,每一次技術變革都會引發(fā)社會形態(tài)、社會結(jié)構(gòu)以及治理方式的改變。正如海德格爾(Martin Heidegger)指出的,現(xiàn)代技術的本質(zhì)體現(xiàn)了人類的技術性生存方式,這是人類不可逃避的“天命”[2]。因此,人類應當在守正的基礎上不斷進行創(chuàng)新。盡管新的技術可能會引發(fā)風險,但不能因此將其視為洪水猛獸而停滯發(fā)展。對科技風險進行合理的規(guī)制則能夠使其消極影響降到最低,從而讓科技更好地服務于人類社會。在生成式人工智能技術尚處于起步階段的應用背景下,當前亟需對生成式人工智能的風險類型進行梳理,并提出具有前瞻性和可行性的治理方案,從而促進生成式人工智能的良性發(fā)展。

      一、生成式人工智能的主要特征

      生成式人工智能技術是指通過各種機器學習(ML)方法從數(shù)據(jù)中學習工件的要素,進而生成全新的、原創(chuàng)的、真實的工件(一個產(chǎn)品或任務)[3]。生成式人工智能技術本身已有60多年的發(fā)展歷史。早在1957年,Lejaren Hiller和Leonard Isaacson完成了歷史上第一部由計算機創(chuàng)作的音樂作品[4]。隨著基礎研究的不斷深入,大數(shù)據(jù)、算法和算力等相關技術的迅猛發(fā)展,作為生成式人工智能關鍵技術支撐的生成模型,其性能得到了顯著改善。生成式人工智能的生成模型包括:生成式對抗網(wǎng)絡(GANs,其本質(zhì)上是一種深度學習模型)、自回歸模型以及基于流的模型等。利用生成模型,生成式人工智能可以在短時間內(nèi)自動創(chuàng)建大量的內(nèi)容,包括新的文本、圖像、音樂、視頻等。值得注意的是,生成式人工智能只是一種技術概念,而并非具體的應用概念,該技術可以被應用到搜索引擎、互聯(lián)網(wǎng)平臺等下游場景中。元宇宙數(shù)字虛擬世界,本質(zhì)上就是生成式人工智能應用到數(shù)字空間構(gòu)建的結(jié)果,也就是說生成式人工智能技術的出現(xiàn)才使得元宇宙不再是“空中樓閣”[5]。結(jié)合生成式人工智能的技術原理,本文認為其具有極其依賴數(shù)據(jù)、生成內(nèi)容難以分辨以及通用性較強三個方面的主要特征。

      (一)數(shù)據(jù)依賴性

      生成式人工智能從本質(zhì)上來說是一種大語言模型,離開了數(shù)據(jù),生成式人工智能就成了無源之水、無本之木[6]。生成式人工智能需要通過算法技術不斷訓練語言模型,以此提升生成內(nèi)容的質(zhì)量,而語言模型訓練的背后離不開數(shù)據(jù)的支撐。生成式人工智能“聰明”的關鍵因素是其具有強大的推理能力,然而,這種能力需要通過深度挖掘大量數(shù)據(jù)中豐富的內(nèi)在信息進行獲取,這樣才能使得生成式人工智能可以更好的滿足用戶需求。因此,要想生成式人工智能輸出高質(zhì)量的內(nèi)容,就必須為其提供數(shù)量足夠多、種類足夠廣、質(zhì)量足夠高的“數(shù)據(jù)口糧”。就技術角度而言,數(shù)據(jù)對于人工智能應用程序的開發(fā)以及迭代至關重要[7]。例如,作為生成式人工智能典型應用代表的ChatGPT,從2018年發(fā)展至今,已經(jīng)迭代出4個版本。ChatGPT-1擁有117M訓練參數(shù),ChatGPT-2擁有15億參數(shù)和800萬個網(wǎng)頁的訓練數(shù)據(jù)集,ChatGPT-3擁有1750億訓練參數(shù),如今ChatGPT-4擁有百萬億級訓練數(shù)據(jù)參數(shù)[8]。由此可見,ChatGPT的每次升級迭代都極其依賴于訓練數(shù)據(jù)的指數(shù)級增長。正是由于海量級訓練數(shù)據(jù)的積累,ChatGPT才能不斷進步完善,最終能夠提供更好的應用服務。

      (二)生成內(nèi)容難以分辨

      生成式人工智能作為一項引領未來的新興技術,其生成內(nèi)容有時具有難以分辨的特征。生成式人工智能的生成內(nèi)容高度依賴于訓練數(shù)據(jù)和算法設計,訓練數(shù)據(jù)的選取、算法的設計均會對生成內(nèi)容產(chǎn)生較大的影響。這就意味著生成內(nèi)容易受到訓練數(shù)據(jù)偏向、技術開發(fā)者價值觀念以及相關資本因素的影響,因此很難確保生成內(nèi)容的絕對正確性與可分辨性。除此之外,生成式人工智能為了生成符合人類偏好的知識,其不僅需要輸入和學習大量既定相關的客觀知識,而且還需要向語言模型中不斷輸入人類的反饋意見[9]。這些反饋意見可能包括人類和機器之間的互問、互答等帶有主觀方面的語料,因此也就意味著生成式語言模型的訓練數(shù)據(jù)可能包含有人類價值偏好、主觀臆斷等方面的內(nèi)容。正是由于生成式人工智能語言模型輸入的內(nèi)容帶有不可避免的主觀知識因素,從而可能會導致其生成內(nèi)容的客觀性難以分辨,這也構(gòu)成了生成式人工智能的另一個重要特征。

      (三)通用性較強

      生成式人工智能還具有通用性強的基本特征,主要表現(xiàn)為以下兩個方面:一是能夠廣泛應用在各個領域;二是擁有大量的產(chǎn)品用戶。生成式人工智能可以被廣泛應用在科技寫作(如文獻回顧、數(shù)據(jù)分析)、教育培訓、醫(yī)療問診、輔助軟件開發(fā)、工具管理以及其他各種類型的應用程序之中。除上述領域之外,生成式人工智能還可以應用于財務統(tǒng)計、會計運算以及法律咨詢等方面。另外,生成式人工智能所生成的內(nèi)容不僅能夠滿足用戶的基本需求,而且還能夠通過互動以增強用戶對其的使用依賴性。與過往所開發(fā)的智能語言助手相比,ChatGPT類生成式人工智能可以通過對話等方式精準、動態(tài)地對接用戶需求,能夠多維度回答用戶提出的各種問題,天然具備能夠貼近用戶需求的優(yōu)勢。正因為如此,ChatGPT也創(chuàng)造了最短時間內(nèi)智能產(chǎn)品用戶數(shù)量最高的一項記錄。自ChatGPT投入使用后的兩個月內(nèi),已經(jīng)擁有超過1億名用戶[10],成為史上用戶數(shù)量增長最快的智能應用產(chǎn)品。

      二、生成式人工智能的風險類型

      一項新技術在促進經(jīng)濟社會發(fā)展的同時,也可能會引發(fā)從未有過的風險問題。毋庸置疑,生成式人工智能作為一項新的技術,亦會帶來一些新的社會挑戰(zhàn)和風險因素??傮w來看,生成式人工智能對個人信息保護、網(wǎng)絡安全、數(shù)據(jù)跨境流動等帶來沖擊,對現(xiàn)有數(shù)據(jù)、算法、算力的治理范式提出挑戰(zhàn)。為了保障生成式人工智能的健康可持續(xù)發(fā)展,本文將從數(shù)據(jù)安全、算法安全以及內(nèi)容安全三個層面,對生成式人工智能存在的風險類型進行全鏈條的梳理和反思。

      (一)數(shù)據(jù)安全的風險

      數(shù)據(jù)作為生成式人工智能的“原料”,是其運用和發(fā)展的基石[11]。因此,在梳理生成式人工智能的風險類型時,應當首先分析作為“原料”的數(shù)據(jù)是否存在安全風險。生成式人工智能引發(fā)的數(shù)據(jù)安全風險主要表現(xiàn)為侵害個人信息權(quán)益、造成行業(yè)壟斷甚至危害國家安全。

      其一,侵害個人信息權(quán)益。生成式人工智能本身具備收集、儲存和使用個人信息的功能,包含有個人信息的數(shù)據(jù)可能會被竊取、過度收集或者不正當使用,從而侵害個人信息權(quán)益及隱私。首先,生成式人工智能對數(shù)據(jù)具有極強的依賴性,數(shù)據(jù)的質(zhì)量決定了生成內(nèi)容的質(zhì)量和決策的質(zhì)量。然而,這些數(shù)據(jù)大多來自于數(shù)據(jù)爬取,可能在用戶不知情的情況下,包含其個人信息的數(shù)據(jù)會被收集和處理,這不符合數(shù)據(jù)收集的授權(quán)—同意規(guī)則,同時也侵害了用戶的個人信息權(quán)益及隱私權(quán)。其次,當用戶在與生成式人工智能進行互動的過程中,可能會向其輸入含有個人信息或隱私的數(shù)據(jù),這些數(shù)據(jù)會被生成式人工智能用來“訓練”,那么生成式人工智能輸出的內(nèi)容中就可能包含用戶提供的個人信息或隱私。再次,生成式人工智能作為由大型科技公司開發(fā)的一項新興技術,可以被嵌入到相關平臺之中,然而,一些實力不強的平臺可能不具備與其面臨的數(shù)據(jù)安全風險相匹配的安全防護能力。如果含有用戶個人信息的平臺被黑客惡意攻擊,這不僅將會造成個人信息及隱私泄露的風險,而且還會對用戶的財產(chǎn)安全帶來風險隱憂。

      其二,造成行業(yè)壟斷。作為一種大型語言模型,生成式人工智能最大的優(yōu)勢在于能夠基于用戶的反饋給出答案,其可以被應用到搜索引擎、微博、電商平臺中。相對傳統(tǒng)的平臺而言,嵌入生成式人工智能的平臺也因其“聰明”引起用戶的廣泛青睞。由于散落在用戶手中的數(shù)據(jù)資源將再次被聚集到互聯(lián)網(wǎng)平臺中,極易導致互聯(lián)網(wǎng)行業(yè)形成壟斷,生成式人工智能亦會可能成為網(wǎng)絡集權(quán)的工具,從而導致互聯(lián)網(wǎng)平臺的“再中心化”成為可能[12]。互聯(lián)網(wǎng)寡頭通過對用戶的數(shù)據(jù)進行挖掘和處理,從而對用戶進行精準畫像,進而為用戶建立個體或集體檔案。在利益和權(quán)力的驅(qū)使下,互聯(lián)網(wǎng)寡頭可能對事實進行捏造,導致用戶在嵌入生成式人工智能平臺中獲取的是帶有價值導向信息。用戶難以搜索到客觀、中立的信息,可能導致真相掌握在少數(shù)人手中,社會公眾愈發(fā)難以識別謊言,間接剝奪了用戶的知情權(quán),使用戶受困于“信息繭房”之中。

      其三,侵犯國家安全。隨著數(shù)據(jù)在治理能力與治理體系中的地位越來越重要,利用深度挖掘后的數(shù)據(jù)來定義規(guī)則和標準已經(jīng)成為現(xiàn)實,包括政府在內(nèi)的主體也不得不利用私有資本控制的大數(shù)據(jù)分析結(jié)果來實現(xiàn)社會治理。生成式人工智能的推手主要是大型科技公司與私人資本,這些大型科技公司、私人資本將成為數(shù)字空間乃至社會空間隱形權(quán)力的主體[13]。這種權(quán)力隨著生成式人工智能的規(guī)?;瘧?,可能會向社會的公平正義提出挑戰(zhàn)。在生成式人工智能全球化應用的背景下,可以利用生成式人工智能技術獲取不同國家、不同地區(qū)的數(shù)據(jù),尤其是在進行數(shù)據(jù)跨境流動時,將會對國家安全帶來風險。

      (二)算法安全的風險

      算法作為生成式人工智能的“框架指南”,是其硬實力的保障,算法在智能時代的重要性不言而喻。然而,當算法被大規(guī)模應用后,在無形中會給人類和社會帶來風險。這種風險具有一定的隱蔽性,典型的如“算法黑箱”。由于算法的不透明性、復雜性以及快速迭代,使得傳統(tǒng)法律的責任規(guī)制無法適應算法帶來的風險,這將會對整個社會帶來潛在危害?!昂谙洹笔巧鐣l(fā)展歷史的基本特征,各類行業(yè)都存在一定程度的黑箱屬性[14]。算法運行過程復雜,不可控性更強,且難以人為干預,這使得它天然具備很強的黑箱屬性。如達納赫所言:“我們生活在一個算法時代,數(shù)據(jù)和計算機科學以強大的方式結(jié)合在一起,以算法來助推、偏向、引導、激發(fā)、控制、操縱和約束人類行為,從而影響、塑造、指引我們的行為和社會的治理”[15]。算法使用的計算機編程語言和法律的自然語言之間存在信息轉(zhuǎn)化的鴻溝,由此帶來當前社會算法黑箱的規(guī)制難題,其主要原因有以下三個方面。

      其一,算法的不透明性。算法準確性的提高往往需要犧牲透明度[16],算法治理的一個明顯問題是總體缺乏透明度。用戶對它們?nèi)绾卫弥R影響我們以及它們做作的重要決策知之甚少,甚至一無所知,這是因為算法所做的決策隱藏在用戶無法輕易閱讀和理解的代碼后面。在算法治理或者通過代碼進行規(guī)制的語境中,我們始終面臨著“算法未知”的困境,這在機器學習和算法不斷迭代的復雜背景之下更加如此。其二,算法的不可理解性。當出現(xiàn)算法糾紛時,解讀計算機代碼變得至關重要。然而,計算機代碼的解讀過程非常復雜,即使在特定時間解讀了代碼的含義,未來也可能因代碼的持續(xù)迭代而變得不準確。這表明算法解釋的難度非常大,即使作出了解釋,也難以起到實質(zhì)性的作用[17]。更復雜的還有大多數(shù)人工智能技術不僅只包含一種算法,而是包含有多重執(zhí)行特定任務的算法。其三,算法的追責困難性。當前生成式人工智能正處于起步階段,算法作為企業(yè)發(fā)展的核心機密,企業(yè)出于對其自身利益的考慮,可能會選擇不予公開相關算法,這將對責任認定帶來極大的挑戰(zhàn)。

      算法規(guī)制的法律常常運用算法備案或者算法公開的方式,使得算法本身更加公開透明和易于理解,從而有助于防控算法黑箱在具體場景下引發(fā)的風險,但是同樣面臨可欲性與可行性的障礙。由于生成式人工智能的迭代能力過強,導致侵權(quán)的類型范圍、場景與樣態(tài)更加多樣化,算法黑箱的規(guī)制難題在生成式人工智能技術領域有增無減,甚至被進一步放大,導致風險源頭更難識別、過程追溯更加困難。

      (三)生成內(nèi)容安全的風險

      針對生成式人工智能生成內(nèi)容的安全問題,本文主要從生成內(nèi)容著作權(quán)歸屬不清與生成內(nèi)容存在偏見兩個方面展開論述。

      創(chuàng)作屬于智力活動,只有自然人才能完成,這是人類和動物的根本性區(qū)別。自然人具備作者身份,應當不存在爭議。從這個層面上來說,生成式人工智能不應當成為創(chuàng)作的主體。我國《著作權(quán)法》在特定情況下允許擬制法人或者非法人組織可以成為“作者”,但是生成式人工智能不是法律意義上的法人或者非法人組織,世界范圍內(nèi)亦無相應國家立法或者國際條約明確賦予人工智能“作者”身份。因此,生成式人工智能本身不具備“作者”身份。但是,對于生成式人工智能生成內(nèi)容的著作權(quán)歸屬問題以及其生成物能否稱為“作品”,值得進一步明確。

      生成式人工智能生成的內(nèi)容是由底層數(shù)據(jù)、生成模型與操作者指令共同完成的。底層數(shù)據(jù)、生成模型的構(gòu)建依托科技公司強大的算力和算法。雖然操作者在交互界面上使用提問或指令的方式發(fā)出指示,但是這種指示本身能否具有著作權(quán)意義上的內(nèi)容,也存在探究的必要性。生成內(nèi)容涉及的三個主體分別是算法設計者、平臺和用戶,生成內(nèi)容的著作權(quán)究竟應該歸屬于算法設計者、平臺抑或是使用者,需要予以界定。依據(jù)我國《著作權(quán)法》第三條的規(guī)定,著作權(quán)的指向?qū)ο鬄樽髌?。僅從法律文本來看,我國現(xiàn)行知識產(chǎn)權(quán)法律體系均規(guī)定法律主體為享受權(quán)利、履行義務和承擔責任的自然人,著作權(quán)保護的邏輯是“作品—創(chuàng)作—作者”。從這個意義上來說,生成式人工智能生成內(nèi)容不能成為“作品”,當然也難以得到《著作權(quán)法》的保護。這種觀點在2018年“北京菲林律師事務所訴百度公司案”的裁判結(jié)果中得到支持。該案法院認為,搜索軟件形成的文章不具有獨創(chuàng)性。①然而,在2020年“騰訊公司訴網(wǎng)貸之家網(wǎng)站轉(zhuǎn)載機器人自動撰寫的文章作品案”中,法院認為在滿足獨創(chuàng)性要求的情況下,人工智能撰寫的文章屬于著作權(quán)保護的范圍。②法律規(guī)則的模糊易出現(xiàn)司法裁判的不統(tǒng)一。生成式人工智能生成內(nèi)容歸屬不清,不僅可能導致生成式人工智能創(chuàng)作的內(nèi)容無法獲得著作權(quán)法的保護,阻礙人工智能技術發(fā)揮其創(chuàng)作價值,還可能因為生成式人工智能的海量撰寫行為稀釋既有作品權(quán)利人的獨創(chuàng)性,影響他人合法權(quán)益。

      目前ChatGPT類生成式人工智能所挖掘的數(shù)據(jù)庫文本中英文語料占比高達92%,中文資料僅占比0.16%[18]。當生成式人工智能實現(xiàn)全球化應用后,在這種結(jié)構(gòu)數(shù)據(jù)的“訓練”下,ChatGPT類生成式人工智能的“偏見”或者“歧視”也會越來越嚴重。長此以往,用戶基于主體意志的獨立思考和批判意識會被削弱,人類社會也會因自由意志迸發(fā)出的多樣性和創(chuàng)新性而隨之枯竭,這會對文化的多樣性及語言的豐富性造成沖擊,甚至動搖國家的意識形態(tài)。

      生成式人工智能可以在短時間內(nèi)生成大量的書面信息,可以用于信件、評論。如果被用來引起公眾輿論,煽動民眾情緒,將會對網(wǎng)絡治理甚至國家民主安全帶來嚴重的挑戰(zhàn)。例如,哈佛大學本科生使用生成程序提交1001條評論,回應政府就醫(yī)補助征求公眾意見[19]。一旦生成式人工智能被相關用戶用來瞄準相關事件,利用其生成速度快、傳播效率高的特點,將會以難以置信的速度在社會中引起較大的輿論影響。

      三、生成式人工智能風險的治理方案

      針對生成式人工智能的主要特征及風險類型,治理方案需要在有效規(guī)制生成式人工智能帶來的社會問題和營造寬松發(fā)展環(huán)境之間尋找平衡點。本文認為,對于生成式人工智能的治理方案,應當遵循全方位治理和系統(tǒng)化原則,推進多元主體協(xié)同共治,保障生成式人工智能朝著穩(wěn)定、可預期的方向良性發(fā)展。

      (一)構(gòu)建全鏈條法律治理規(guī)則

      目前,我國民法、刑法、行政法能夠在某種程度上對生成式人工智能進行分散治理,但尚未形成完善的法律體系?,F(xiàn)有的法律規(guī)則無法妥善規(guī)制生成式人工智能引發(fā)的各類風險。過于寬泛而固定的人工智能立法模式,并不能適應潛在變革性強的立法框架,因此有必要構(gòu)建一種敏捷性較高的治理規(guī)制[20]。這樣既可以維護用戶權(quán)益、防止生成式人工智能對社會的潛在危害,又可以規(guī)范生成式人工智能的健康發(fā)展。本文從數(shù)據(jù)安全保護、算法治理以及生成內(nèi)容監(jiān)管三個方面著手,構(gòu)建生成式人工智能全鏈條的治理規(guī)則。

      第一,強調(diào)對數(shù)據(jù)進行分類分級保護。生成式人工智能技術因其迭代能力強,無法適應固定的立法框架,因此應當根據(jù)生成式人工智能數(shù)據(jù)的具體使用場景進行分類分級治理。歐盟《通用數(shù)據(jù)保護條例》(GDPR)依據(jù)個人數(shù)據(jù)的敏感程度進行區(qū)別保護,同時也頒布了《非個人數(shù)據(jù)在歐盟境內(nèi)自由流動框架條例》,總體來說將數(shù)據(jù)分為個人數(shù)據(jù)和非個人數(shù)據(jù)[21]。澳大利亞將個人數(shù)據(jù)分為一般數(shù)據(jù)和敏感數(shù)據(jù)[22]。我國《數(shù)據(jù)安全法》將數(shù)據(jù)分為一般數(shù)據(jù)和重要數(shù)據(jù),《個人信息保護法》界定了敏感個人信息?;诖?,本文認為應當根據(jù)應用場景對生成式人工智能數(shù)據(jù)進行分類,在具體的分類中再來探討數(shù)據(jù)分級保護制度??梢詫⑸墒饺斯ぶ悄軘?shù)據(jù)分為一般用戶數(shù)據(jù)、經(jīng)濟組織數(shù)據(jù)、重要產(chǎn)業(yè)數(shù)據(jù)以及國家秘密數(shù)據(jù)。針對一般用戶數(shù)據(jù),可以分為極度敏感數(shù)據(jù)、一般敏感數(shù)據(jù)、不敏感數(shù)據(jù)三個等級;針對經(jīng)濟組織數(shù)據(jù),可以分為重要數(shù)據(jù)和非重要數(shù)據(jù)兩個等級;針對重要產(chǎn)業(yè)數(shù)據(jù),分為核心數(shù)據(jù)和非核心數(shù)據(jù)兩個等級;針對國家數(shù)據(jù),可以分為可公開數(shù)據(jù)和不可公開數(shù)據(jù)兩個等級。

      第二,加強對生成式人工智能算法的監(jiān)管。算法技術專業(yè)性強、壁壘高,有必要設立專門的監(jiān)管機構(gòu)??梢钥紤]設立生成式人工智能辦公室[23],明確其職責,加強算法監(jiān)管。由于網(wǎng)絡傳播速度快、范圍廣,算法帶來的后果往往十分嚴重。針對算法監(jiān)管而言,事前防范就顯得十分重要,這有助于加強對算法本身的監(jiān)管[24]。首先,要增強算法的透明度。歐盟立法者支持生成式人工智能的透明度和安全規(guī)則,要求基礎模型的提供者在將其模型投放市場之前,應當對數(shù)據(jù)治理措施和風險緩解措施進行安全檢查[25]。算法開發(fā)者應當履行信息披露義務,定期向社會公布選取訓練數(shù)據(jù)的來源,確保選取高質(zhì)量的訓練數(shù)據(jù)。另外,還要通過可視化的方式向用戶展示算法運行特征、算法決策以及潛在的風險。其次,要加強對算法技術研發(fā)人員的職業(yè)倫理教育,確保研發(fā)人員設計的算法遵循道德標準和倫理準則。最后,生成式人工智能辦公室要根據(jù)算法潛在的風險等級,要求算法開發(fā)者進行自我備案或者向監(jiān)管部門備案,同時還要履行算法變更和注銷手續(xù)。

      第三,強化對生成式人工智能生成內(nèi)容的審查。歐盟和美國均有相關立法實踐與審查措施[26]。2023年7月我國發(fā)布的《生成式人工智能服務管理辦法》第4條明確規(guī)定,提供和使用生成式人工智能服務,應當堅持社會主義核心價值觀。依據(jù)我國《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》第17條的規(guī)定,深度合成服務提供者應當對生成內(nèi)容進行標識。雖然該條款要求對生成內(nèi)容進行標識,但是針對不同的應用場景以及用戶的個人行為,有些深度合成服務提供者會在實際操作過程中繞開這些限制,因此生成式人工智能生成內(nèi)容的標識需要進一步提高。首先,需要配備人工過濾審核機制。針對不符合社會主義核心價值觀的內(nèi)容,督促平臺履行停止傳輸義務;針對惡意發(fā)表煽動民眾的評論,要實行強制熔斷,并對相關用戶進行處罰。其次,實施辟謠機制和舉報機制,增強用戶參與治理的主動性,確保生成內(nèi)容真實準確。再次,需要增強技術應用,確保生成式人工智能始終可控[27]。通過開發(fā)生成內(nèi)容檢測技術來準確區(qū)分生成式人工智能生成的內(nèi)容和人類創(chuàng)造的內(nèi)容[28]。準確區(qū)分生成內(nèi)容和人類創(chuàng)造內(nèi)容是判定生成內(nèi)容能否稱為“作品”的前提,若生成內(nèi)容符合“作品”要件,生成內(nèi)容的所有權(quán)應歸于用戶;若生成內(nèi)容完全依賴平臺技術,則生成內(nèi)容的所有權(quán)應歸于算法設計者或者平臺。

      (二)塑造全方位平臺監(jiān)管體系

      生成式人工智能作為一項先進技術,可以應用到新聞傳播、網(wǎng)絡購物、移動社交、搜索引擎等下游場景中。在嵌入生成式人工智能后,Web3.0時代互聯(lián)網(wǎng)平臺的監(jiān)管也變得尤為重要。在保障數(shù)據(jù)安全、算法安全、生成內(nèi)容安全的基礎上,加強對平臺的監(jiān)管有助于增強用戶對平臺的信任程度,為生成式人工智能的發(fā)展營造良好的商業(yè)環(huán)境,形成良好的正向循環(huán),促進人工智能技術實現(xiàn)由弱人工智能向強人工智能的轉(zhuǎn)變。針對平臺監(jiān)管,本文從構(gòu)建平臺備案制度、實施守法激勵措施以及暢通投訴渠道三個方面展開。

      第一,對嵌入生成式人工智能的平臺進行備案。對于快速發(fā)展的生成式人工智能而言,可能無法適應干預度較高的行政許可、行政處罰等規(guī)制手段,因此備案制度的構(gòu)建必須以系統(tǒng)觀念全面協(xié)調(diào)、有機推進。應當針對不同領域設立不同的備案等級。針對教育、醫(yī)療等容錯率較低的行業(yè),實施最高等級的備案制度;針對媒體、金融等傳播廣泛的行業(yè),實行一般等級的備案制度;針對科技寫作、軟件開發(fā)等影響較小的行業(yè),鼓勵其自愿備案。

      第二,對嵌入生成式人工智能的平臺采取守法激勵措施[29]。守法激勵措施能夠在一定程度上提升主體的行動積極性。但是如果一味地依賴守法激勵措施,不僅會提升總體社會成本,而且也會對中小型企業(yè)的生存和發(fā)展帶來消極的影響。因此,應當針對不同類型的企業(yè)設置不同的義務和責任。在明晰義務和責任的前提下,設置不同的激勵方案,讓每個企業(yè)都能感受到激勵措施的效果。另外,還應當開展守法激勵方案的宣傳,讓企業(yè)充分了解激勵方案的優(yōu)越性。

      第三,暢通對嵌入生成式人工智能的投訴渠道。首先要創(chuàng)新服務平臺,拓寬投訴渠道。采取電話投訴、短信投訴、線上投訴等多種渠道的方式,確保信息暢通并及時將辦理情況反饋給用戶,保證用戶的投訴能夠得到及時回應。其次要簡化投訴流轉(zhuǎn)環(huán)節(jié)。為保障投訴的實效性,簡化投訴流轉(zhuǎn)環(huán)節(jié),提高辦事效率,減少訴求的環(huán)節(jié)和層次,用戶針對平臺的違規(guī)行為能夠進行有效投訴。最后要建立督查制度,針對用戶投訴較多的平臺、重點難點問題進行分析排查,分析原因并制定解決措施。

      (三)推進多元化協(xié)同共治秩序

      2022年我國發(fā)布的《人工智能治理白皮書》指出,人工智能治理的重要特征之一是治理主體的多元化。通過多元主體共治的方式,不僅能夠匯聚多元主體的力量參與到生成式人工智能治理的過程中,而且還能夠有效平衡各方利益。對生成式人工智能多元主體共治的具體措施如下。

      第一,社會公眾作為生成式人工智能的服務對象,應當鼓勵其參與到生成式人工的治理和監(jiān)督之中。歐盟《人工智能法》中也提到要確保AI系統(tǒng)由人類監(jiān)督。政府在生成式人工智能治理中發(fā)揮著主導性作用,通過建立專業(yè)的管理機構(gòu)針對用戶定期開展生成式人工智能的宣講活動,讓公眾了解生成式人工智能的優(yōu)勢和劣勢,學會辯證看待生成式人工智能技術,鼓勵公眾參與到生成式人工智能治理的整個流程之中。第二,企業(yè)作為生成式人工智能的開發(fā)者和擁有者,應當承擔相應的主體責任。生成式人工智能的研發(fā)企業(yè)應當以高標準進行自我約束,實現(xiàn)自律自治??萍既藛T作為生成式人工智能技術發(fā)展的重要力量,企業(yè)應當對科技人員開展科技倫理教育,創(chuàng)造科技向善的氛圍,使得科技人員能夠自覺擔負起社會責任。技術開發(fā)者相較于公眾而言,能夠判斷人工智能存在風險的可接受度,應當及時將潛在風險告知用戶[30]。相關企業(yè)應當聯(lián)合起來,成立生成式人工智能發(fā)展協(xié)會。一方面,不同企業(yè)能夠通過協(xié)會實現(xiàn)資源共享,促進整個行業(yè)的發(fā)展;另一方面,協(xié)會又可以提升企業(yè)的自我約束能力。第三,生成式人工智能的發(fā)展需要國際合作,需要借助政府、國際組織來加強國家之間的協(xié)作。不同國家之間生成式人工智能發(fā)展水平不一,質(zhì)量層次不齊。政府、國際組織負有縮短國家間數(shù)字鴻溝,促進各國生成式人工智能健康、協(xié)作發(fā)展的使命,進而有助于豐富生成式人工智能的“學習資料”,減少生成式人工智能的“偏見”。

      四、結(jié)語

      生成式人工智能作為通用人工智能技術發(fā)展進步的重要標志,有助于加速社會的智能化進程。在生成式人工智能處于起步發(fā)展階段時,針對其所存在的風險進行合理規(guī)制,有助于促進生成式人工智能的健康發(fā)展,增強社會對技術的信任,避免其“曇花一現(xiàn)”?;谏墒饺斯ぶ悄艿闹饕卣饕约帮L險類型,生成式人工智能的治理應當遵循系統(tǒng)化原則,推進多元主體協(xié)同共治。在法律層面,強調(diào)對數(shù)據(jù)進行分級分類保護、加強對生成式人工智能算法的監(jiān)管以及強化對生成式人工智能生成內(nèi)容的審查。在平臺層面,對嵌入生成式人工智能的平臺進行備案、采取守法激勵措施以及暢通投訴渠道。在協(xié)同層面,要鼓勵社會公眾參與生成式人工的治理和監(jiān)督,生成式人工智能研發(fā)企業(yè)應當以高標準進行自我約束,政府和國際組織要加強相互間的協(xié)作。

      〔參 考 文 獻〕

      [1]智通財經(jīng)網(wǎng).“互聯(lián)網(wǎng)之父”暢談網(wǎng)絡愿景:未來可能人手一位ChatGPT式助理[EB/OL].https://www.zhitongcaijing.com/content/detail/878404.html. 2023-2-17/2023-5-16.

      [2]張絨. 生成式人工智能技術對教育領域的影響——關于ChatGPT的專訪[J].電化教育研究, 2023(02): 5-14.

      [3]Van Dis E A M, Bollen J, Zuidema W, et al. ChatGPT: Five priorities for Research[N].Nature,2023-2-09.

      [4]中國通信研究院. 人工智能生成內(nèi)容白皮書[R].2022.China Academy of Information and Comm-

      unications Technology.

      [5]王文玉. 元宇宙的主要特征、社會風險與治理方案[J]. 科學學研究, 2022(11):1-14.

      [6]楊曉雷. 人工智能治理研究[M].北京:北京大學出版社,2022:35.

      [7]Hacker, Philipp. A legal framework for AI training data—from first principles to the Artificial Intelligence Act[J]. Law, Innovation and Technology, 2021(2):257-301.

      [8]Chao Ning Zhang,Chen Shuang Zhang,Cheng Hao Li,et al. One Small Step for Generative AI, One Giant Leap for AGI: A Complete Survey on ChatGPT in AIGC Era [EB/OL]. https://doi.org/10.48550/arXiv.

      2304.06488. 2023-4-4/2023-5-16.

      [9]Shattuck,Christopher C. ChatGPT Artificial Intelligence: Will It Replace Lawyers and Legal Staff?[J]. Wisconsin Lawyer, 2023(2): 41-49.

      [10]Chris Smith, ChatGPT has the fastest user growth of any app in history[EB/OL]. https://bgr.com/tech/chatgpt-has-the-fastest-user-growth-of-any-app-in-history/.2023-02-02/2023-5-16.

      [11]林偉.人工智能數(shù)據(jù)安全風險及應對[J].情報雜志,2022(10):105-111.

      [12]陳全真.生成式人工智能與平臺權(quán)利的再中心化[J]. 東方法學,2023(03):61-71.

      [13]袁曾.生成式人工智能的責任能力研究[J]. 東方法學,2023(05):18-33.

      [14]余成峰.從馬的法律到黑箱之法[J]. 讀書,2019(03):18-27.

      [15]伊格納斯·卡爾波卡斯. 算法治理:后人類時代的政治與法律[M]. 上海:上海人民出版社, 2022:57.

      [16]Peter Margulies. Surveillance By Algorithm:The NSA,Computerized Intelligence Collection and Human Rights[M]. Social Science Electronic Publishing, 2016:1054.

      [17]Edwards Lilian & Veale Michael. Slave to the Algorithm Whya'Right to an Ex-planation’is Probably Not the Remedy You are Looking for[J]. International Duke Law & Technology Review, 2017(16):18-84.

      [18]GitHub. Dataset of GPT-3[EB/OL].https://github.com/openai/gpt-3/blob/master/dataset_statistics/languages_by_character_count.csv. 2020-01-02/2023-4-15.

      [19]Bruce Schneier. How ChatGPT Hijacks Demcory[EB/OL].https://www.hks.harvard.edu/centers/mrcbg/programs/growthpolicy/how-chatgpt-hijacks-democracy.2023-01-15/2023-05-20.

      [20]Walter G.Johnson, Diana M.Bowman. A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence[J]. IEEE Technology and Society Magazine,2021(40):68-76.

      [21]Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC [EB/OL].https://eur-lex.europa.eu/eli/reg/2016/679/oj.2016-04-27/2023-02-20.

      [22]Parliament of Australia.The Privacy Act1988[EB/OL].https://www.legislation.gov.au/Details/C2014C

      00076. 2014-03-12/2023-03-20.

      [23]European Parliament. Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts.[EB/OL].https://eur-lex.europa.eu/legal-content/EN/TXT/uri=CELEX:52021PC0206. 2021-04

      -21/2023- 03-20.

      [24]羅杰·布朗斯沃德. 法律3.0——規(guī)則、規(guī)制和技術[M]. 北京:北京大學出版社,2023:48.

      [25]Kimia Morgan, EU lawmakers back transparency and safety rules for generative AI [EB/OL]. https://www.technewsholding.com/2023/05/11/eu-lawmakers-back-transparency-and-safety-rules-for-generative-ai.2023-5-12/2023-05-16.

      [26]石婧,常禹雨,祝夢迪. 人工智能“深度偽造”的治理模式比較研究[J]. 電子政務,2022(05):69-79.

      [27]Matthijs M. Maas. How Viable Is International Arms Control for Military Artificial Intelligence Three Lessons from Nuclear Weapons[J]. Contemporary Security Policy, 2019(3): 285-311.

      [28]Alessandro Pegoraro, Kavita Kumari,Hossein Fereidooni et al. To ChatGPT, or not to ChatGPT: That is the question?。跡B/OL]. https://arxiv.org/abs/2304.01487. 2023-04-05/2023-5-10.

      [29]張欣. 人工智能時代的算法治理:機制與方案[M]. 北京:法律出版社,2022:147.

      [30] Johann Laux,Sandra Wachter, Brent Mittelatadt,Trust artifical intelligence and the European Uninon AI act: On the conflation of trustworthiness and acceptability of risk[R], Regulation&Governance, 2022.

      〔責任編輯:侯慶海,周浩〕

      通城县| 邵阳市| 江陵县| 肇东市| 永寿县| 荣成市| 苗栗市| 临汾市| 册亨县| 哈尔滨市| 如东县| 刚察县| 福鼎市| 临湘市| 彭泽县| 深州市| 格尔木市| 凤翔县| 元谋县| 旺苍县| 习水县| 仙桃市| 青河县| 玛沁县| 玉山县| 磐安县| 杭锦旗| 合江县| 白城市| 贡嘎县| 萝北县| 聂拉木县| 靖安县| 虞城县| 金川县| 徐汇区| 凤城市| 万州区| 克东县| 靖江市| 潜江市|