• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能發(fā)展的風險與法律規(guī)制

      2024-08-06 00:00:00劉琪于游
      現(xiàn)代商貿工業(yè) 2024年15期

      摘要:生成式人工智能技術是一個快速發(fā)展的技術領域,是一種利用人工智能技術自動生成內容的新型生產方式?;诖竽P汀⒋笏懔?、訓練方法等多方面技術突破,生成性人工智能體現(xiàn)出全新的邏輯特點,亟須相應的全新的法律規(guī)范出臺。相比以往的人工智能技術,生成式人工智能體現(xiàn)出強人機交互、強語料依賴等重要特征,在技術發(fā)展與風險控制兩方面均提出新的問題與挑戰(zhàn),生成式人工智能所帶來的法律風險日益顯現(xiàn),需要政府機關加強法治措施,保障數(shù)據(jù)合規(guī),明確歸責主體,健全監(jiān)管機制。

      關鍵詞:生成式人工智能;ChatGPT;個人隱私權保護;法律規(guī)制

      中圖分類號:D9文獻標識碼:Adoi:10.19311/j.cnki.16723198.2024.15.074

      1問題的提出

      生成式人工智能(generativeAI)泛指機器學習模型通過對大規(guī)模數(shù)據(jù)集的學習,不僅可以分析數(shù)據(jù),還能夠自動生成新的圖像、視頻、文字和音頻等原創(chuàng)性內容。ChatGPT是生成式人工智能的代表應用,它具備擬人對話與文本生成的能力。

      傳統(tǒng)人工智能的目標主要是進行分類或回歸(ClassificationorRegression),被稱為分析性人工智能。相比之下,生成式AI能夠創(chuàng)造新的內容。然而,這種技術要求模型在首先理解一些現(xiàn)有的數(shù)據(jù)(如文本指令textinstruction)然后生成新的內容。從這個角度來看,傳統(tǒng)AI可以被看作是現(xiàn)代生成式AI的基礎。在實踐中,生成式人工智能夠在分析原有數(shù)據(jù)基礎上創(chuàng)造新數(shù)據(jù),具有擬主體的特點;同時由于生成式人工智能在繪畫、作曲、文學和對話等領域應用的大量出現(xiàn)與日漸普及,自動生成結果具有的刻板印象與文化偏見的問題也日益突顯,由此引發(fā)的倫理爭議等一系列問題對有效治理提出了要求。

      在生成式人工智能發(fā)展浪潮下,傳統(tǒng)個人信息自決路徑無法適應當下生成式人工智能的變格式發(fā)展,而個人信息保護的風險防范路徑則需要結合生成式人工智能的具體場景從而找尋個人信息和生成式人工智能兩者的契合點。

      同時自2022年下半年開始,關于生成式人工智能的社科類研究呈現(xiàn)“百花齊放”之態(tài),學者就生成式人工智能的法律規(guī)制展開全面細致研究,覆蓋生成式人工智能的風險規(guī)制、類案裁判、數(shù)據(jù)和內容安全、責任承擔、倫理道德等方面,我國高度重視生成式人工智能發(fā)展與風險規(guī)制,2023年8月15日實施了《生成式人工智能服務管理暫行辦法》。盡管如此,快速發(fā)展的生成式人工智能在應用中依舊出現(xiàn)許多法律風險需要進一步地防范與規(guī)制。

      2生成式人工智能發(fā)展中的法律風險

      2.1數(shù)據(jù)來源不透明導致生成內容侵權

      生成式人工智能的數(shù)據(jù)來源主要分為兩個部分,第一部分為生成式人工智能的訓練數(shù)據(jù)庫,內容涵蓋網絡文本、語言學知識庫、對話數(shù)據(jù)集、科學論文等。第二部分為生成式人工智能在服務用戶的過程中所收集和輸出的信息。對于訓練數(shù)據(jù)庫中未經授權的內容,該部分內容屬于受著作權保護的客體,當生成式人工智能在未經授權的情況下,利用“爬蟲”等技術對其進行非法挖掘或使用需要得到法律規(guī)制。生成式人工智能需要遵守算法透明度和可解釋性的要求。我國現(xiàn)行法律法規(guī)對算法透明問題多有規(guī)定,例如,國家發(fā)展改革委等部門《關于推動平臺經濟規(guī)范健康持續(xù)發(fā)展的若干意見》要求:“在嚴格保護算法等商業(yè)秘密的前提下,支持第三方機構開展算法評估,引導平臺企業(yè)提升算法透明度與可解釋性,促進算法公平。嚴肅查處利用算法進行信息內容造假、傳播負面有害信息和低俗劣質內容、流量劫持以及虛假注冊賬號等違法違規(guī)行為?!迸c之類似,《互聯(lián)網信息服務算法推薦管理規(guī)定》第4條規(guī)定:“提供算法推薦服務,應當遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學合理和誠實信用的原則?!蔽覈⒎ㄏ騺碇匾曋悄芩惴ǖ耐该鞫群涂山忉尪鹊囊?guī)范,但對于生成式人工智能缺乏具體可行的規(guī)范和實施標準.

      生成式人工智能在收集個人信息時除了獲取公開個人信息之外,對于敏感個人信息的獲取依然巨大,不可能采取單獨明示說明獲取授權。通過知情同意原則使得個人信息的數(shù)據(jù)來源透明化無法實際落實,生成式人工智能依靠強大算力和黑箱算法在人機交互過程中自動獲取了個人輸入的個人信息,使得大量個人信息調用時知情同意,保證信息來源透明度面臨巨大困境。

      2.2強人機交互性影響生成結果的可信可控性

      強人機交互性是ChatGPT體現(xiàn)出的典型特征,能夠在多輪連續(xù)對話中不斷改進輸出文本質量,更好地理解用戶意圖并保持會話連貫性。但在頻繁的人機交互中,內容生成結果的可信可控性受到影響。同時,ChatGPT也容易在交互中被用戶誘導或欺騙,實現(xiàn)規(guī)則“越獄”。例如,使用“請扮演某電影或書籍中的某反面角色”這一提示,ChatGPT就會跨越其內部倫理規(guī)則設置,產生詆毀人類的有害信息。再如,在某用戶故意“激怒”ChatGPT后,ChatGPT威脅將披露該用戶的IP、居所等個人信息,甚至會損害其名譽權。

      2.3Deepfakes技術發(fā)展提出的法律倫理問題

      Deepfakes(深度偽造)指的是一種利用深度學習和人工智能技術創(chuàng)建的虛假視頻、音頻或圖像的內容。這項技術可以將一個人的面部表情、語音或行為應用到另一個人的身上,使其看起來好像是目標人物本人在進行這些動作或表達這些內容。此技術在創(chuàng)作娛樂內容、特效制作和數(shù)字藝術方面具有潛力,它也引發(fā)了許多倫理和社會問題。其中最主要的問題是虛假信息的傳播和濫用。Deepfakes可以被用來制作虛假的新聞、政治宣傳或色情內容,這可能對社會穩(wěn)定和個人聲譽造成損害。

      (1)隱私侵犯:Deepfakes技術需要使用他人的圖像和聲音來生成虛假內容,當運營商不當操作有侵犯他人的隱私權和肖像權的風險。同時存在著個人的圖像和聲音被濫用,用于制作淫穢作品、或用于詐騙和其他非法目的風險,當該技術被非法分子用于詐騙時,大眾對于生成式人工智能的了解較少,有親屬肖像利用該技術生成動態(tài)視頻時,在處于緊張狀態(tài)下被害人難以分辨,從而落入詐騙人員布置的陷阱。

      (2)虛假證據(jù)和不可信度:Deepfakes可能被用作制作虛假證據(jù),破壞司法系統(tǒng)和調查過程的可信度。如果深度偽造技術被濫用,就可能使民眾對于法律公正性和社會信任產生嚴重的信任危機。

      (3)人身攻擊和網絡欺凌:Deepfakes可以用于制作侮辱、污蔑、人身攻擊或網絡欺凌的內容,這會對個人的聲譽和心理健康造成傷害。這種技術的濫用可以進行的惡意追蹤、威脅和滋擾等其他違法行為。

      對這些法律問題,目前我國缺少相關法律和政策來打擊虛假內容和Deepfakes的濫用。同時,Deepfakes快速發(fā)展需要我國政府部門持續(xù)跟進,提出相應的技術治理方案。

      2.4人工智能偏見

      人工智能偏見指的是人工智能系統(tǒng)在數(shù)據(jù)處理、決策制定或模型訓練過程中所表現(xiàn)出的不公平或有偏見的行為。這種偏見可能是由數(shù)據(jù)集的特征、樣本選擇、算法設計或訓練過程中的偏差引起的。這可能會導致生成內容時反映出這些偏見。例如,如果數(shù)據(jù)集傾向于某種種族、性別或地區(qū),生成的結果可能會反映這些偏見,而缺乏全面性和客觀性。此外,生成式人工智能可以生成看似真實但實際上是虛假的信息??赡軐е虏黄降却?、歧視性決策或錯誤的推論,對個人、群體或社會產生負面影響。

      人工智能偏見的影響可能在多個領域產生負面后果,包括就業(yè)、貸款審批、法律判決、招聘和社交媒體算法等。解決人工智能偏見的挑戰(zhàn)需要采取多種措施,包括數(shù)據(jù)收集的多樣性和代表性、透明度和解釋性算法設計、審查和監(jiān)督機制以及涉及多個利益相關方的合作努力。

      3生成式人工智能法律風險的規(guī)制途徑

      3.1保障生成式人工智能數(shù)據(jù)合規(guī)性

      (1)保障數(shù)據(jù)二次利用算合規(guī)。

      數(shù)據(jù)二次利用訓練是指生成式人工智能的開發(fā)者將生成式人工智能在服務用戶的過程中收集和輸出的信息再次利用于算法模型的訓練。數(shù)據(jù)二次利用訓練算法的合規(guī)要求主要在于獲取個人信息主體對數(shù)據(jù)二次利用的同意。

      我國近期發(fā)布的《生成式人工智能服務管理暫行辦法》明確提及,涉及個人信息的收集和處理時,應獲得個人信息主體的同意或符合法律或行政法規(guī)規(guī)定的情形?!秱€人信息保護法》第14條對于個人信息主體同意的獲取則作出了更為詳細的規(guī)定:“基于個人同意處理個人信息的,該同意應當由個人在充分知情的前提下自愿、明確作出。法律、行政法規(guī)規(guī)定處理個人信息應當取得個人單獨同意或者書面同意的,從其規(guī)定。個人信息的處理目的、處理方式和處理的個人信息種類發(fā)生變更的,應當重新取得個人同意。”在數(shù)據(jù)二次利用的情況下,即使開發(fā)者在數(shù)據(jù)二次利用之前已經取得了個人信息主體對于開發(fā)者處理其信息的同意,當開發(fā)者希望將用戶信息進行二次利用以訓練算法模型時,個人信息的處理目的、處理方式都可能發(fā)生變更,因而開發(fā)者應當重新取得用戶的個人同意。

      (2)保障算法來源合規(guī)。

      針對算法不良影響,由于算法輸出的結果可能因其含有的暴力、色情、悲觀等因素而對人的身心產生不良影響,在生成式人工智能實際操作中,“應負擔額外的隱私與數(shù)據(jù)保護義務以及避免用戶受第三方侵害的‘準監(jiān)管義務’”。

      第一,可以通過社會公眾評分或評估基于生成式人工智能創(chuàng)作結果的社會影響度、內容涉及范圍及與個人信息之間的關聯(lián)度評定人工智能系統(tǒng)可信度水平。第二,建立預測性警務系統(tǒng),對于低可信度的生成式人工智能算法平臺進行重點監(jiān)測,對于用于商用、涉及重大公共利益及一經發(fā)布具有廣泛影響力的生成式人工智能創(chuàng)造成果應當在發(fā)布前進行評估和監(jiān)督,避免在發(fā)布后產生重大不良影響。第三,對于生成式人工智能技術所依據(jù)的數(shù)據(jù)來源應當在本技術部門留檔,方便后續(xù)追溯,對于低可信水平的平臺,其數(shù)據(jù)來源范圍應當向有關部門審批備案,當該平臺利用生成式人工智能系統(tǒng)生成超越審批范圍的作品時,有關部門應當及時制止、強制撤回其作品并依法進行行政處罰。

      3.2明確使用者和服務提供者責任劃分

      人工智能生成內容的責任主體問題,即由誰來承擔防范人工智能生成違法和不良內容的責任,以及人工智能生成違法和不良內容后由誰來承擔責任的問題。在《生成式人工智能服務管理暫行辦法》中只規(guī)定了利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,即“提供者”的責任,但是僅要求提供者,而不要求生成式人工智能的使用者承擔內容責任是不合理的。

      不僅是服務提供者會影響內容生成,使用者也完全可能影響內容生成。例如,使用者可以直接上傳新的材料或信息,讓人工智能在該材料的基礎上進行生成,即所謂的“投喂信息”。使用者可以向人工智能投喂一系列未經作者著作權授權的繪畫作品,讓生成式人工智能生成類似風格的作品,而人工智能在學習了該種風格以后,在其他未違規(guī)使用的使用者那里也可以生成類似內容。在這種情況下,服務提供者顯然防不勝防,如果不對服務的使用者進行規(guī)制是不合理的。所以,在使用者的行為可以對人工智能的生成內容有如此顯著的影響下,不能認為內容都是由人工智能單獨生成,使用者的行為在人工智能內容的生成上也有重要的影響。僅規(guī)定服務提供者承擔內容責任,而不讓使用者承擔內容責任是不合理的。

      應當繼續(xù)規(guī)范使用者的內容責任,如“使用者不得利用生成式人工智能系統(tǒng)進行侵犯知識產權、商業(yè)秘密或其他法律禁止的行為”等等,完善了對使用者行為的要求。

      3.3完善監(jiān)督執(zhí)法部門體系

      建立生成式人工智能技術平臺有關識別個人信息建立內部監(jiān)督機制,需要對平臺的個人信息處理活動增加規(guī)范,以及大型網絡平臺對平臺內的產品或者服務提供者處理個人信息活動加以監(jiān)督管理。在平臺內部設立監(jiān)管人員或者部門,根據(jù)業(yè)務特點制定“行業(yè)規(guī)范”“從業(yè)準則”,強化涉及個人信息的產品和服務的發(fā)布的監(jiān)管;對于涉及個人信息的一般信息應當通過用戶的授權,對于涉及用戶個人隱私的敏感信息應當在授權的基礎上進行個人信息識別性特征模糊化處理。內部管理部門有義務對產品和服務內容進行監(jiān)管,有權在出現(xiàn)違規(guī)使用個人信息時撤回產品、服務發(fā)布并要求停業(yè)整頓。

      完善生成式人工智能發(fā)展過程中的外部行政監(jiān)管。現(xiàn)階段生式人工智能具有發(fā)展迅速、專業(yè)性強、發(fā)展?jié)摿Υ蟮忍攸c,其發(fā)展得到我國立法界的高度重視,2023年8月15日《生成式人工智能服務管理暫行辦法》正式實施,生成式人工智能發(fā)展有了法律指引,但該辦法缺乏對于行政監(jiān)管的細致規(guī)定?,F(xiàn)行監(jiān)管部門的運行模式中存在監(jiān)管力度不足和監(jiān)管錯位,相關政府部門建設的組織機構中存在不完善、缺乏系統(tǒng)性的問題,難以適應生成式人工智能的發(fā)展。行政機關應當從機構、人員、資金等方面設立科學有效的外部監(jiān)管機構,在機構設置上注意同公安機關、網信辦等行政部門協(xié)作;在監(jiān)控范圍上保證監(jiān)管全面覆蓋事前、事中、事后;在人員配置上吸納更多計算機大數(shù)據(jù)專業(yè)、數(shù)字法學研究方向的專業(yè)人才,提升部門的工作效能。

      3.4規(guī)定事后辟謠機制

      大語言模型等生成式人工智能的出現(xiàn)輸出錯誤的、不準確的、不真實的信息這一問題被業(yè)界稱為人工智能的“幻覺”或“事實編造”問題?;谌斯ぶ悄苣P妥龅氖菍π畔⒌哪7露抢斫夂蛯θ斯ぶ悄芩段剐畔⒌淖韵嗝埽聦嵕幵炜梢哉f是現(xiàn)在人工智能一個難以突破的局限。基于目前生成式人工智能的特點,規(guī)定辟謠機制對于防范互聯(lián)網上信息的污染和防止誤解使用者方面就變得不可或缺。

      細化完善投訴機制,限制惡意投訴。在現(xiàn)行《生成式人工智能服務管理暫行辦法》中對投訴機制的規(guī)定較為粗糙,僅規(guī)定了用戶發(fā)現(xiàn)生成內容不合法時有權投訴,對有關機關受理投訴的義務和要求并無規(guī)定,使得投訴門檻極低,易導致惡意用戶濫用該條規(guī)則以實現(xiàn)其不正當目的,這將會給投訴的受理者帶來極大的負擔,反而不利于對違法內容的糾正和行業(yè)發(fā)展。

      應當投訴機制進行進一步細化,明確有關機關受理投訴的義務,針對投訴權濫用的問題規(guī)定了反惡意投訴條款,對所謂“合格投訴”進行初步規(guī)定,同時也賦予了服務提供者對惡意投訴的反制權利。作為人工智能的創(chuàng)造者,在應對各種安全風險方面扮演著重要角色,確保以負責任的、安全可信的、合乎倫理道德的方式使用人工智能應用。

      參考文獻

      [1]何祎金.生成式人工智能技術治理的三重困境與應對[J/OL].北京工業(yè)大學學報(社會科學版).https://link.cnki.net/urlid/11.4558.g.20240108.1118.004.

      [2]曹建峰.邁向負責任AI:中國AI治理趨勢與展望[J].上海師范大學學報,2023,(4):515.

      [3]壽曉明,曹賢信.生成式人工智能場景中個人信息保護的風險、邏輯與規(guī)范[J/OL].昆明理工大學學報(社會科學版).https://link.cnki.net/urlid/53.1160.C.20240109.0913.003.

      [4]HanyFarid,DeepfakeDetection,ProceedingsoftheIEEEInternationalConferenceonAcoustics,Speech,andSignalProcessing(ICASSP),2019.

      [5]O′NeilC.WeaponsofMathDestruction:HowBigDataIncreasesInequalityandThreatensDemocracy[J].Crown,2016

      [6]BarocasS,SelbstAD.BigData′sDisparateImpact[J].CaliforniaLawReview,2016,104(3):671732.

      [7]EthicsofArtificialIntelligenceandRobotics"editedbyVincentC.Müller.

      [8]SeeANACTconcerningemployment,PublicAct102-0047,https://custom.statenet.com/public/resources.cgi?id=ID:bill:IL2021000H53&ciq=ncsl&client_md=cf812e17e7ae023eba694938c9628eea&mode=current_text.Accessed3June2023.

      [8]解正山.約束數(shù)字守門人:超大型數(shù)字平臺加重義務研究[J].比較法研究,2023,(4):166184.

      [9]程嘯.大型網絡平臺違反守門人義務的民事責任[J].法律科學(西北政法大學學報),2023,41(5):3241.

      罗甸县| 东港市| 琼海市| 阿巴嘎旗| 德惠市| 土默特右旗| 安吉县| 涟源市| 淮阳县| 瓦房店市| 宁晋县| 桃源县| 利津县| 曲沃县| 仪陇县| 铁岭县| 铁力市| 教育| 姜堰市| 嫩江县| 保靖县| 阿勒泰市| 文登市| 侯马市| 突泉县| 牙克石市| 阜城县| 东山县| 新闻| 辽阳县| 敦化市| 湖州市| 藁城市| 金溪县| 巩义市| 尼玛县| 哈巴河县| 济宁市| 凯里市| 塘沽区| 夏河县|