• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      AIGC:以高效治理推動健康發(fā)展

      2023-06-27 00:47:11李緒青朱閣
      學(xué)習(xí)與研究 2023年6期
      關(guān)鍵詞:數(shù)據(jù)安全人工智能

      李緒青 朱閣

      [摘要] ChatGPT是人工智能生成內(nèi)容的典型應(yīng)用成果。這項技術(shù)以大數(shù)據(jù)學(xué)習(xí)作為基礎(chǔ)并通過相應(yīng)算法不斷優(yōu)化而成,其風(fēng)險主要體現(xiàn)在數(shù)據(jù)和算法的使用上。同時其所展現(xiàn)的強大能力將對人類社會的方方面面以及個人權(quán)益造成嚴重影響。本次技術(shù)革新的延展性甚至超過20世紀初的互聯(lián)網(wǎng)技術(shù),任何國家不可能對此置身事外。人工智能系大勢所趨,開展風(fēng)險認知、治理策略研究刻不容緩,同時應(yīng)以高效的機制體制建設(shè)規(guī)范其健康發(fā)展。

      [關(guān)鍵詞] 人工智能;? 數(shù)據(jù)安全;? 治理與監(jiān)管

      [中圖分類號] TP18? ? ? ? ?[文獻標識碼] A? ? ? ? ?[文章編號] 0529-1445(2023)06-0049-03

      ChatGPT向世人展現(xiàn)了人工智能技術(shù)在文本處理領(lǐng)域的極致效率和巨大潛力,使得AIGC(Artificial Intelligence Generated Content,即人工智能生成內(nèi)容)這一賽道受到各國廣泛關(guān)注,頭部公司蜂擁進入,訓(xùn)練并推出自己的AIGC應(yīng)用。AIGC在本質(zhì)上是一種生產(chǎn)方式的變革,推動內(nèi)容生產(chǎn)方式從“作坊式”走向“流水線”。今后,熟練掌握各個AIGC產(chǎn)品使用方式的人,就像一個指揮官,通過發(fā)送指令的方式指揮AI產(chǎn)出不同的內(nèi)容。

      當前,從圖像、語音、文本、視頻、設(shè)計、音樂、代碼、數(shù)字人、游戲等多個方向看,AIGC技術(shù)已經(jīng)在各個領(lǐng)域得到廣泛應(yīng)用和發(fā)展。未來兩三年,AIGC的初創(chuàng)公司和商業(yè)落地案例將持續(xù)增加。目前由人工智能生成的內(nèi)容占所有內(nèi)容的比例不到1%,根據(jù)Gartner預(yù)測,到2025年,這一比例將達到10%。1鑒于AIGC爆發(fā)出來的巨大生產(chǎn)力,人工智能生成的內(nèi)容占所有內(nèi)容的比例將會呈現(xiàn)指數(shù)型增長。

      AIGC技術(shù)應(yīng)用潛藏多種風(fēng)險

      AIGC技術(shù)在通過大數(shù)據(jù)學(xué)習(xí)賦能各領(lǐng)域發(fā)展的同時,其自帶的風(fēng)險及被惡意使用的后果也可以帶來毀滅性的影響。AIGC技術(shù)系以大數(shù)據(jù)學(xué)習(xí)作為基礎(chǔ)并通過相應(yīng)算法不斷優(yōu)化而成,因此其自身風(fēng)險首先體現(xiàn)在數(shù)據(jù)和算法的使用上。

      數(shù)據(jù)安全問題首當其沖。目前,ChatGPT并未公開其訓(xùn)練數(shù)據(jù)的來源和具體細節(jié),而其他公司也將預(yù)訓(xùn)練時所使用的數(shù)據(jù)作為商業(yè)機密未向社會公開,不禁讓人質(zhì)疑其所使用的訓(xùn)練數(shù)據(jù)是否為合法方式獲取,是否獲得相關(guān)權(quán)利人的授權(quán)。同時,用戶在使用ChatGPT過程中,會被收集個人信息或其他資料,因此,存在泄露個人信息、商業(yè)秘密或國家秘密的風(fēng)險。前不久,韓國某公司就爆出三起因員工使用ChatGPT,導(dǎo)致該公司的半導(dǎo)體設(shè)備測量數(shù)據(jù)、產(chǎn)品良率等內(nèi)容傳輸?shù)紺hatGPT訓(xùn)練數(shù)據(jù)庫的事件。

      算法歧視和偏見需要重視。已有實例表明,ChatGPT存在一定的歧視性因素。美國加州大學(xué)計算機認知科學(xué)家對ChatGPT進行測試,發(fā)現(xiàn)輸出結(jié)果存在種族偏見和性別偏見問題。比如,ChatGPT在對話中表示,只有白人男性才會成為科學(xué)家。此外,研究表明ChatGPT具有政治傾向和立場,這可能會對普通人的思維模式和認知產(chǎn)生影響,引發(fā)不同階層的對立和日常矛盾的激化。

      自然人人身權(quán)利易受侵害。隨著AIGC技術(shù)在繪畫、聲音等與人身權(quán)利密切相關(guān)的領(lǐng)域大放異彩,許多人便動起了歪心思。在北京互聯(lián)網(wǎng)法院審理的“AI陪伴”案件中,用戶可以通過涉案軟件,使用原告的姓名、肖像創(chuàng)設(shè)虛擬人物,同時還可以與該AI角色設(shè)定身份關(guān)系,設(shè)定任意相互稱謂,通過制作素材“調(diào)教”角色,從而獲得與原告近乎真實的互動體驗。法院經(jīng)審理認定,被告未經(jīng)同意使用原告的姓名、肖像,設(shè)定涉及原告人格自由和人格尊嚴的系統(tǒng)功能,構(gòu)成對原告姓名權(quán)、肖像權(quán)、一般人格權(quán)的侵害。

      學(xué)術(shù)規(guī)范風(fēng)險凸顯。自2022年底發(fā)布以來,ChatGPT被許多學(xué)生用于完成作業(yè)或撰寫論文,對學(xué)術(shù)研究工作造成了重大沖擊。利用ChatGPT完成學(xué)習(xí)任務(wù)可以很好地避開論文查重等問題,且質(zhì)量效率遠超此前許多商家開發(fā)的解題軟件,對學(xué)生極具誘惑力??紤]到在教育科研領(lǐng)域可能引發(fā)的問題,許多學(xué)校、組織陸續(xù)發(fā)出聲明,禁止或嚴格限制學(xué)生使用ChatGPT進行論文寫作。

      對社會運行的沖擊不容忽視。隨著AIGC技術(shù)被不斷深挖,并與教育、醫(yī)療、繪畫等領(lǐng)域相融合,可以預(yù)見在不久的將來,各行各業(yè)都將接入AI大模型。這勢必導(dǎo)致行業(yè)內(nèi)原本從事較為簡單和重復(fù)性工作的勞動崗位被取代,同時也會加劇不同層次人員之間的信息差。

      堵與疏的抉擇

      對于ChatGPT技術(shù)的發(fā)展,不同國家采取了不一樣的監(jiān)管措施。2023年3月31日起,意大利禁止使用ChatGPT,德國、加拿大等國也表示出于數(shù)據(jù)保護方面的考慮,將禁止使用ChatGPT或?qū)θ斯ぶ悄懿扇「訃栏竦谋O(jiān)管。

      早在2021年,歐盟為積極應(yīng)對人工智能的高速發(fā)展,提出《歐洲議會和理事會關(guān)于制定人工智能統(tǒng)一規(guī)則》,這是世界范圍內(nèi)最為系統(tǒng)的人工智能立法探索,該法案已經(jīng)經(jīng)歷多輪討論和修改。其最新草案提出,應(yīng)該嚴格禁止“對人類安全造成不可接受風(fēng)險的人工智能系統(tǒng)”,包括有目的地操縱技術(shù),利用人性弱點或根據(jù)行為、社會地位和個人特征等進行評價的系統(tǒng)等。該草案還要求人工智能公司對其算法保持人為控制,提供技術(shù)文件,并為高風(fēng)險應(yīng)用建立風(fēng)險管理系統(tǒng)。

      美國于2022年秋季公布《人工智能權(quán)利法案藍圖》,確定五個原則,涉及系統(tǒng)的安全有效性、算法歧視的保護、數(shù)據(jù)隱私問題、通知和解釋問題以及人工替代方案、考慮和退路等方面,意在指導(dǎo)規(guī)范人工智能系統(tǒng)的設(shè)計、使用和部署。2023年1月,美國發(fā)布《人工智能風(fēng)險管理框架》,將可信度考量納入設(shè)計、開發(fā)、使用和評估AI產(chǎn)品、服務(wù)和系統(tǒng)中,并基于其他機構(gòu)的AI風(fēng)險管理工作,要求確保制定過程公開、透明。

      事實上,我國一直高度重視人工智能技術(shù)的發(fā)展和治理,從2017年國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,到2022年《最高人民法院關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》,我國人工智能治理各級文件中均提出了“安全可控”的治理目標,具體制度層面均提到建立公開透明的制度體系、建立相應(yīng)問責(zé)機制、加強技術(shù)和應(yīng)用全流程監(jiān)管等。2023年4月,國家網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《管理辦法》),面向社會公開征求意見?!豆芾磙k法》共21條,對生成內(nèi)容、責(zé)任主體、訓(xùn)練數(shù)據(jù)、算法設(shè)計、用戶管理等方面均制定了監(jiān)管要求。

      發(fā)展與監(jiān)管并駕齊驅(qū)

      科技治理為科技創(chuàng)新保駕護航,人工智能治理已成為重要的國際科技競爭力。我國是最早對人工智能進行監(jiān)管治理的國家之一,對于如何通過制度設(shè)計平衡科技發(fā)展和風(fēng)險防范之間的關(guān)系,至今仍是擺在我們面前迫切需要解決的難題。

      大力發(fā)展人工智能基礎(chǔ)設(shè)施建設(shè)。人工智能技術(shù)的發(fā)展離不開三個核心要素:數(shù)據(jù)、算法、算力。AI大模型的訓(xùn)練離不開大量合法、優(yōu)質(zhì)的數(shù)據(jù);AI大模型輸出優(yōu)質(zhì)的內(nèi)容離不開優(yōu)秀的算法;AI大模型進行大規(guī)模運算離不開強大的算力支持。對于基礎(chǔ)設(shè)施建設(shè),必須在體制機制、人才培養(yǎng)、資金投入方面共同發(fā)力,同時鼓勵企業(yè)將相應(yīng)的產(chǎn)品商業(yè)化,反哺企業(yè)的科研創(chuàng)新。

      確定人工智能技術(shù)發(fā)展的元規(guī)則。人工智能的迅猛發(fā)展以及可能給人類社會帶來的顛覆性改變是可以預(yù)見的,開發(fā)者在編程之初應(yīng)提前做好規(guī)范設(shè)計。人工智能作為人類的生產(chǎn)工具,其所產(chǎn)出的內(nèi)容不得損害人類發(fā)展,因此需要對損害國家安全、社會公共利益、個人權(quán)利的內(nèi)容進行限制??煽匦耘c倫理性應(yīng)當作為規(guī)范人工智能技術(shù)發(fā)展中的元規(guī)則,這樣才能避免開發(fā)者為了自身利益盲目無序地開發(fā)人工智能技術(shù),對人類社會產(chǎn)生不可逆的損害后果。

      建立數(shù)據(jù)登記、流轉(zhuǎn)制度。人工智能技術(shù)的發(fā)展水平,很大程度上取決于其進行預(yù)訓(xùn)練的數(shù)據(jù)規(guī)模和質(zhì)量。除公開可查閱的數(shù)據(jù)外,大量優(yōu)質(zhì)的數(shù)據(jù)掌握在不同的公司手中,如何確定其權(quán)屬、權(quán)利類型以及公司是否享有使用權(quán)、能否進行流轉(zhuǎn),目前尚未明確規(guī)定。建立數(shù)據(jù)登記制度,一方面可以審核數(shù)據(jù)來源的合法性、安全性,另一方面可以明確數(shù)據(jù)的權(quán)利方。建立數(shù)據(jù)流轉(zhuǎn)制度,是解決人工智能科技公司合法合規(guī)獲取優(yōu)質(zhì)數(shù)據(jù)問題的有效途徑,能夠提高優(yōu)質(zhì)數(shù)據(jù)的利用程度。

      構(gòu)建完備的治理機制。對于人工智能技術(shù)的監(jiān)管,需要從源頭進行嚴格把關(guān),在確保數(shù)據(jù)的合法性、安全性之外,還應(yīng)確保所運行的算法安全可靠、符合人倫常理等要求。《管理辦法》第6條對算法備案提出要求,即對進入市場的大數(shù)據(jù)模型嚴格把關(guān)。此外,還需要建立健全投訴反饋機制,以公眾監(jiān)督方式提升對大數(shù)據(jù)模型運行過程的監(jiān)管力度,對于利用AI大模型進行違反法律法規(guī)活動的開發(fā)者和使用者,應(yīng)予以相應(yīng)處罰,從而構(gòu)建起一套事前備案、事中監(jiān)督、事后懲罰的治理機制。

      厘清責(zé)任主體。當前,大多數(shù)人工智能公司為了規(guī)避風(fēng)險,在服務(wù)協(xié)議中將生成內(nèi)容的權(quán)益和責(zé)任轉(zhuǎn)移給用戶,這似乎符合權(quán)責(zé)利相統(tǒng)一的原則。但由于ChatGPT算法模型的復(fù)雜性和“算法黑箱”的存在,普通用戶難以充分理解其運行邏輯,對生成內(nèi)容缺乏相應(yīng)的預(yù)期。在此背景下,要求用戶對ChatGPT生成內(nèi)容承擔全部責(zé)任,有失公平。因此,在侵權(quán)行為發(fā)生后,如何劃定開發(fā)者和使用者的責(zé)任,是立法、執(zhí)法、司法部門需要共同面對的挑戰(zhàn)。

      AI生成內(nèi)容須標識。當前AI大模型在文本、繪畫、聲音等方面生成的內(nèi)容,人類已經(jīng)難以分辨,甚至在某些特定場景下超出了一般人的創(chuàng)作能力。而隨著AI大模型的開發(fā),其所創(chuàng)造的內(nèi)容勢必將遠超一般人的辨別能力。對于AI大模型生成的內(nèi)容進行標識已經(jīng)取得共識,《管理辦法》第16條要求,對生成或者編輯的信息內(nèi)容采取技術(shù)措施進行標識。但目前對于標識方式還沒有具體規(guī)定,市場上大部分AI大模型生成的內(nèi)容也沒有進行標注,需要有關(guān)部門基于內(nèi)容市場流轉(zhuǎn)及治理的考慮,進一步出臺更加細致的規(guī)范性文件。

      [參考文獻]

      [1]國家互聯(lián)網(wǎng)信息辦公室.生成式人工智能服務(wù)管理辦法(征求意見稿)[EB/OL].http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm.

      (作者簡介:李緒青,北京互聯(lián)網(wǎng)法院綜合審判一庭法官助理;朱閣,北京互聯(lián)網(wǎng)法院綜合審判一庭副庭長)

      責(zé)任編輯 / 任? ?征

      猜你喜歡
      數(shù)據(jù)安全人工智能
      我校新增“人工智能”本科專業(yè)
      云計算中基于用戶隱私的數(shù)據(jù)安全保護方法
      電子制作(2019年14期)2019-08-20 05:43:42
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      建立激勵相容機制保護數(shù)據(jù)安全
      當代貴州(2018年21期)2018-08-29 00:47:20
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      大數(shù)據(jù)云計算環(huán)境下的數(shù)據(jù)安全
      電子制作(2017年20期)2017-04-26 06:57:48
      下一幕,人工智能!
      下一幕,人工智能!
      云環(huán)境中數(shù)據(jù)安全去重研究進展
      三江| 芒康县| 理塘县| 玉林市| 井冈山市| 吉林市| 酒泉市| 田林县| 尤溪县| 斗六市| 驻马店市| 嘉义市| 九龙坡区| 松阳县| 秦安县| 崇阳县| 叶城县| 蓬莱市| 神木县| 鹤岗市| 益阳市| 循化| 武清区| 光山县| 中西区| 桦甸市| 新宾| 桐城市| 灵台县| 沁阳市| 苍溪县| 神木县| 安溪县| 肥城市| 衡东县| 布拖县| 荥经县| 巴塘县| 天津市| 关岭| 南木林县|