• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      歐盟《人工智能法案》評述及啟示

      2023-06-28 04:46:57于品顯劉倩
      海南金融 2023年6期
      關鍵詞:人工智能

      于品顯 劉倩

      摘? ?要:隨著人工智能技術的應用和發(fā)展,人們對它可能帶來收益和風險的認識日益加深。人工智能的發(fā)展在給人類社會帶來便利的同時,也帶來了個人安全和保障風險,增加了侵犯人類基本權利的可能性。如何從立法著手促進人工智能產(chǎn)業(yè)的健康發(fā)展,成為迫在眉睫的課題。2021年歐盟發(fā)布的《人工智能法案》是人工智能監(jiān)管領域的標志性事件。該法案在保持法的統(tǒng)一性原則的基礎上,采取風險分級監(jiān)管、市場準入制度、鼓勵研究與創(chuàng)新的規(guī)制方法,其目的在于應對突出的算法黑箱問題,確保投放到歐盟市場的人工智能系統(tǒng)及其使用的安全性。目前,我國人工智能立法存在法律體系不夠完善、人工智能監(jiān)管力度不足、相關制度過于原則等問題。歐盟《人工智能法案》所體現(xiàn)的理念和制度對我國具有一定的啟示作用。

      關鍵詞:人工智能;監(jiān)管路徑;風險分級;監(jiān)管沙盒

      DOI:10.3969/j.issn.1003-9031.2023.06.005

      中圖分類號:D996.1? ? ? ?文獻標識碼:A? ? ?文章編號:1003-9031(2023)06-0045-09

      一、歐盟《人工智能法案》的制定背景

      隨著人工智能技術的不斷發(fā)展,風險問題日漸突出,人工智能監(jiān)管成為各國人工智能立法的重點。歐盟在人工智能監(jiān)管方面走在世界的前列,在人工智能領域開展了大量立法工作。

      早在2018年3月,歐洲政治戰(zhàn)略中心就發(fā)布了《人工智能戰(zhàn)略》,主要從三個方面介紹了歐洲人工智能技術的現(xiàn)狀與未來:全球范圍內人工智能技術的研發(fā)投入情況、歐洲范圍內人工智能技術的發(fā)展情況、人工智能技術發(fā)展過程中存在的問題與挑戰(zhàn)。同年歐盟委員會成立了人工智能高水平專家小組,并提出符合歐盟價值觀和利益的“可信任的人工智能”理念,以支撐歐洲人工智能戰(zhàn)略的執(zhí)行。2019年4月,歐盟先后發(fā)布《可信AI倫理指南》和《算法責任與透明治理框架》,系歐盟人工智能戰(zhàn)略提出的建立適當?shù)膫惱砗头煽蚣芤蟮木唧w落實,為后續(xù)相關規(guī)則的制定提供參考,這是歐盟不斷推動AI治理的重要成果。2020年2月19日,歐洲委員會發(fā)布了兩份有關“塑造歐洲數(shù)字未來戰(zhàn)略”的政策文件。一是AI白皮書《面向卓越和信任的歐洲人工智能發(fā)展之道》,確定了兩個重要目標,即通過加強投資和監(jiān)管,促進人工智能發(fā)展和處理相關技術應用帶來的風險;二是《歐洲數(shù)據(jù)戰(zhàn)略》,旨在增強歐盟數(shù)字經(jīng)濟國際競爭力,建立歐盟數(shù)字市場的統(tǒng)一規(guī)則。2020年10月,歐盟發(fā)布系列報告呼吁解決人工智能系統(tǒng)存在的模糊性、復雜性、偏見、不可預測性、自主性等問題,確保人工智能不侵犯人的基本權利,并積極推動法律法規(guī)的修訂。

      歐盟委員會主席烏爾蘇拉·馮·德·萊恩曾宣布,歐盟委員會將就AI對人類和倫理的影響進行立法,以期在歐洲采取統(tǒng)一協(xié)調的人工智能規(guī)制方法。2021年4月21日發(fā)布的《人工智能法案》旨在歐洲層面建立關于人工智能技術監(jiān)管的統(tǒng)一規(guī)則,對人工智能的概念和分類,高風險人工智能系統(tǒng)的提供者、使用者及其他人的義務、法律后果等作了詳細的規(guī)定。2023年3月底,《關于制定確立人工智能統(tǒng)一規(guī)則(人工智能法)以及修改部分聯(lián)盟法律的歐盟議會和歐盟理事會的條例的提案》已提交歐盟議會表決。2023年4月27日,歐盟議會成員就該法案達成臨時政治協(xié)議。法案預計將在6月中旬提交全體會議表決,如獲通過,意味著該法案將成為具有拘束力,可在歐盟成員國內直接適用的法律。該法案是世界上第一個專門提出 AI 風險分級監(jiān)管的綜合性人工智能法案,為歐盟范圍內人工智能驅動的產(chǎn)品、服務和系統(tǒng)的開發(fā)、貿易和使用制定了核心規(guī)則,將成為未來人工智能治理水平進一步提升的重要參考依據(jù)。

      鑒于當下人工智能技術的發(fā)展、利用以及流轉程度的加深,特別是在日益復雜的全球科技格局和國際關系背景下,有必要對相關動態(tài)予以進一步關注。本文將對法案進行全面分析,并在梳理我國人工智能立法現(xiàn)狀的基礎之上,提出我國人工智能立法的可行路徑。

      二、歐盟《人工智能法案》的監(jiān)管路徑及評析

      對風險社會問題的法學研究,其重點是法律制度與法律秩序。歐盟人工智能法案在保持法的統(tǒng)一性原則的基礎上,核心圍繞四個風險類別,構建了一套基于風險分級的“產(chǎn)品、服務安全體系”。它通過強制性的CE(Conformity With European)標記程序,要求高風險人工智能系統(tǒng)須完成市場準入和認證。為促進人工智能創(chuàng)新發(fā)展,歐盟引入人工智能監(jiān)管沙盒,給予人工智能技術進行創(chuàng)新開發(fā)、試驗的土壤。法案致力于打造可信任的人工智能產(chǎn)品、服務,用戶最終可以相信人工智能技術將以一種安全和符合法律的方式被使用。在機構設置層面,除設立歐洲人工智能委員會外,該法案要求設立實體機構來監(jiān)督法案具體內容的實施。

      (一)法案的核心內容

      1.貫徹法秩序統(tǒng)一性原理

      在未來,人工智能技術的發(fā)展和應用是面向全世界的,人工智能市場需要一套統(tǒng)一的法律規(guī)范體系,以確保法律的一致性、確定性和穩(wěn)定性。法案要求其與適用于高風險AI系統(tǒng)的行業(yè)的現(xiàn)行歐盟立法完全保持一致。同時,要求確保法案與《歐盟基本權利憲章》以及歐盟關于數(shù)據(jù)保護、消費者保護、不受歧視和兩性平等的現(xiàn)有立法保持一致,法案不影響《一般數(shù)據(jù)保護條例》和執(zhí)法指令的適用。

      在法案的新增內容中,亮點是一系列適用于設計、開發(fā)和使用某些高風險AI系統(tǒng)的統(tǒng)一規(guī)則,以及針對遠程生物識別系統(tǒng)某些使用方面的限制規(guī)定。針對作為產(chǎn)品安全組件的高風險AI系統(tǒng),本法案將被納入現(xiàn)行的行業(yè)安全立法,以確保一致性,避免重復,并將額外負擔降至最低。此外,對于歐盟新立法框架(New Legislative Framework,NLF)所涵蓋的與產(chǎn)品相關的高風險AI系統(tǒng),法案中有關AI系統(tǒng)的規(guī)定,將被納入相關新立法框架下的現(xiàn)行符合性評估程序,作為審查AI系統(tǒng)的標準之一。總之,法案將確立歐盟范圍內統(tǒng)一的法律框架,而非具體的法律規(guī)定,這為歐盟各成員國采取何種監(jiān)管措施提供了方向指引和預留空間,兼具法律的確定性與靈活性。此外,法案將加強歐盟在幫助制定全球規(guī)范和標準方面的作用,這為世界各國在國際論壇上就AI相關問題進行進一步探討提供了強有力的基石。

      2.基于風險分級的規(guī)制

      《人工智能法案》將人工智能系統(tǒng)分為四個風險級別,分別是不可接受的風險、高風險、有限風險和最低風險。每個風險類別都設有特定的法律框架,規(guī)定了相應的限制情形與義務。風險分級規(guī)制對風險的監(jiān)管不限于一個特定階段,而是覆蓋規(guī)制的全過程。這意味著,除特殊情形外,風險較低以及風險可忽略不計的人工智能應用程序將由一種較輕的法律制度規(guī)制,而具有不可接受風險的應用程序將被禁止。在某些風險不斷增加的情況下,將隨之實施更為嚴格的規(guī)定。

      (1)風險分級監(jiān)管

      歐盟對不同人工智能的風險進行劃分,并對不同風險采取不同的監(jiān)管措施。人工智能技術正處于快速發(fā)展階段,其風險狀態(tài)會隨著技術發(fā)展而產(chǎn)生變化,預防和監(jiān)管措施需要隨之調整。《人工智能法案》中產(chǎn)品所屬的四個風險類別是靈活可變的,如法案要求對高風險清單每年進行評估并修改。

      不可接受的風險是指威脅人的安全、社會生活和權利的人工智能系統(tǒng),法案明確了不可接受的風險的具體類型,并明令予以禁止。該類別的風險包括利用人的潛意識扭曲個人行為給他人帶來身體和心理傷害;利用特定群體的脆弱性影響個人行為給他人帶來身體和心理傷害;任何形式的社會信用分級以及實時的遠程生物識別技術。

      高風險人工智能系統(tǒng)的具體應用規(guī)定于法案的附錄二和附錄三,涉及教育、醫(yī)療、就業(yè)、司法等領域。法案對其采取多項監(jiān)管措施,包括上市前的嚴格管控、進行風險評估、確?;顒涌勺匪?、獲得CE標記、監(jiān)管機構評估、市場監(jiān)督、建立數(shù)據(jù)庫、故障信息共享、嚴格執(zhí)法和處罰等措施。

      法案未規(guī)定關于有限風險和最低風險的人工智能系統(tǒng)上市前的事前審查制度。有限的風險是指使用人工智能時,該類別的產(chǎn)品和服務的使用會引發(fā)透明度問題。針對有限風險,法案要求該類型的人工智能產(chǎn)品實現(xiàn)透明公開,人工智能提供者負有披露義務,如在設計和開發(fā)與自然人交互的AI系統(tǒng)時,提供方需確保自然人知曉他們正在進行與人工智能系統(tǒng)互動,除非從使用情況和場景能明顯感知這種情況。法案規(guī)定以下三種類型的人工智能技術需要符合特殊的透明度要求,分別是與自然人交互的人工智能系統(tǒng);情緒識別系統(tǒng)或生物識別分類系統(tǒng);AI系統(tǒng)的使用者生成或操縱圖像、音頻或視頻內容足以讓人混淆。其中,在使用人工智能技術生成或操縱圖像、視頻等內容時,AI系統(tǒng)的使用者須披露內容是人為的或生成的。

      最低風險的人工智能系統(tǒng)在法案草案中很少提及,除前述三類風險外的人工智能系統(tǒng)都屬于最低風險。該風險類別的AI系統(tǒng)沒有特殊的干預和審查制度,然而,服務提供者在不違反草案規(guī)定的情況下,可以自愿建立各行業(yè)的行為準則。由于沒有采取相應的措施來監(jiān)測這些準則的遵守情況,因此它們在市場中發(fā)揮實際效用的可能性較小。

      (2)風險全程監(jiān)管

      歐盟對人工智能產(chǎn)品的風險規(guī)制存在于開發(fā)前到使用后的整個階段,覆蓋了人工智能產(chǎn)品入市前到入市后整個階段,是一套全過程的規(guī)制體系?!度斯ぶ悄芊ò浮穼⑷斯ぶ悄芨麟A段的風險監(jiān)管制度進行細化,提出具體的要求。

      在設計開發(fā)階段,該法案要求人工智能系統(tǒng)可以識別和分析已知的和可預見的風險、評估使用后可能產(chǎn)生的風險、根據(jù)上市后的數(shù)據(jù)預估風險,并采取風險管理措施。以高風險AI系統(tǒng)為例,在數(shù)據(jù)和數(shù)據(jù)治理、記錄和保存記錄、透明性、準確性和安全性方面,法案允許AI系統(tǒng)提供方在確保符合相關標準或行業(yè)規(guī)范時,或根據(jù)一般工程或科學知識開發(fā),選擇滿足其要求的方式自行決定。

      在上市前,人工智能系統(tǒng)的提供者須進行合格評估,評定機構將驗證人工智能系統(tǒng)是否屬于該法案第二章規(guī)定的各項禁止的 AI做法。對于高風險人工智能系統(tǒng),若上市后發(fā)生了實質修改,將會重啟新的評估程序。在上市時,根據(jù)法案第48條的規(guī)定,AI系統(tǒng)的提供方應為每個AI系統(tǒng)制定書面的歐盟合規(guī)聲明,并且在人工智能系統(tǒng)上市或投入使用后,由主管機構保存10年。根據(jù)法案第49條的規(guī)定,高風險的人工智能和數(shù)據(jù)驅動的系統(tǒng)、產(chǎn)品和服務必須符合歐盟的基準,包括安全和合規(guī)評估。這一點至關重要,因為它要求產(chǎn)品和服務能夠滿足值得信賴的人工智能的核心價值。只有符合安全、合規(guī)的標準,提供者才會收到一個CE標志,允許他們進入歐洲市場。這種上市前的整體評估機制與現(xiàn)有的作為歐洲市場產(chǎn)品安全認證的工作方式相同。此外,該獨立的高風險人工智能系統(tǒng)將在一個專門的歐盟數(shù)據(jù)庫中進行注冊。在上市后,AI系統(tǒng)的提供方應制定監(jiān)測計劃,并依據(jù)計劃開發(fā)高風險系統(tǒng)的監(jiān)測系統(tǒng)進行檢測。人工智能產(chǎn)品的監(jiān)測系統(tǒng)將主動且系統(tǒng)地收集并分析AI系統(tǒng)體驗、使用而開展的所有活動的數(shù)據(jù)。該系統(tǒng)應具有日志記錄功能,以確保AI系統(tǒng)的數(shù)據(jù)變化具有可追溯性。如果主管機構發(fā)現(xiàn)高風險人工智能系統(tǒng)違反法案第二編的規(guī)定,將會中止或撤回簽發(fā)的各種證明。

      3.以實驗性規(guī)制鼓勵創(chuàng)新

      法案制定的相關規(guī)則并不是為了限制人工智能技術的發(fā)展,而是為了使人工智能技術在市場上能夠有序地發(fā)展,給予其安全的市場環(huán)境,以助力人工智能生態(tài)系統(tǒng)的創(chuàng)建。

      歐盟計劃通過引入各種靈活性措施和例外情形來促進人工智能技術的開發(fā)創(chuàng)新,如AI監(jiān)管沙盒。AI監(jiān)管沙盒是由一個或多個成員國主管機構或歐洲數(shù)據(jù)保護監(jiān)管機構建立的,保證創(chuàng)新的空間,為研究機構和中小企業(yè)提供試驗空間。在遵守法案有關規(guī)定的情況下,AI監(jiān)管沙盒所提供的市場環(huán)境可在有限的時間內促進AI系統(tǒng)的開發(fā)、測試和驗證。此外,法案涉及了一項知識產(chǎn)權行動計劃,以使與人工智能技術相關的知識產(chǎn)權得到法律的保護。法案第70條規(guī)定,對自然人或法人的知識產(chǎn)權、機密商業(yè)信息或商業(yè)秘密,包括源代碼,進行機密性保護。

      法案關于促進人工智能發(fā)展的有關規(guī)定,體現(xiàn)了歐盟尋求不同利益之間的平衡,具體包括民主、經(jīng)濟和社會價值。利益是法律形成與發(fā)展的內在驅動力,法律則是對利益的確認、界定及分配。人工智能產(chǎn)品、服務在多個領域的應用帶來了社會、經(jīng)濟價值,同時對個人基本權利造成了潛在威脅。歐盟正是基于對個人基本權利的保障,提出了打造“可信任的人工智能”的目標??梢?,在人工智能技術可信賴和人工智能技術發(fā)展創(chuàng)新之間尋求一個平衡點至關重要。

      4.設立專門機構加強監(jiān)管

      在AI治理過程中,監(jiān)管主體尤為重要。法案第56條規(guī)定,將設立人工智能委員會向歐盟委員會提供建議和協(xié)助。人工智能委員會將基于議事規(guī)則的規(guī)定,完成法案第58條規(guī)定的工作任務,將促進歐盟的實踐發(fā)展、協(xié)調AI監(jiān)管政策,起到統(tǒng)一人工智能標準或通用規(guī)范的作用。根據(jù)法案第59條的規(guī)定,將在國家一級設立專門的主管機構,作為歐盟各國進行市場監(jiān)管的聯(lián)絡主體,在歐盟范圍內構建人工智能市場監(jiān)管網(wǎng)絡。法案要求該主管機構的成員具備人工智能相關的專業(yè)知識和能力,以在市場實踐中與企業(yè)進行對接并及時向歐盟委員會反饋相關信息。

      各成員國專門的主管機構作為監(jiān)管歐盟人工智能市場的主要力量,其監(jiān)管權是一種直接限制市場主體的權利或增加其義務的公權力。值得注意的是,該權力的存在是以人工智能市場機制及存在的風險、隱私等問題為前提的。同時,該權力的產(chǎn)生是以歐盟《人工智能法案》為法律基礎的,體現(xiàn)“一事一議”的原則,即某一監(jiān)督權的產(chǎn)生是以特定的立法為前提的。此外,該監(jiān)管機構應具備中立性和獨立性,以發(fā)揮其監(jiān)管作用,在歐盟后續(xù)的監(jiān)管實踐中,我們將進一步觀察到監(jiān)管機構是如何在歐盟體系內運作的。

      (二)法案監(jiān)管路徑評析

      法案有許多優(yōu)點,包括更精細的人工智能系統(tǒng)風險類別的劃分;明確被禁止的人工智能系統(tǒng)的做法;增設歐洲數(shù)據(jù)庫和高風險人工智能系統(tǒng)的日志要求等。法案為人工智能技術的進一步發(fā)展提供了基本規(guī)則。然而,該法案仍在基本權利的保護、責任機制、透明度義務、人工智能界定和分類合理性等方面存在不足。

      1.基本權利的保護力度不足

      法案第二編禁止的AI做法清單是不完整的,且未涉及相關的審查和修訂機制,這使得該法案無法對人工智能技術侵害基本權利的情形進行有效規(guī)制。從歐盟委員會高級專家小組所提出的可信人工智能的道德準則與可信人工智能的政策和投資建議中可知,合法且值得信賴的人工智能是法案的終極目標。因此,人工智能系統(tǒng)在法律上值得信賴的條件為:一是遵循促進基本權利、民主和法治的治理框架,二是其本身并不損害基本權利、民主和法治。

      2.責任機制不完善

      該法案對責任承擔有關的兩個關鍵問題未作出回應。一是它沒有規(guī)定對不遵守其規(guī)則的人工智能系統(tǒng)的提供者或用戶采取法律行動的權利。即使法案中規(guī)定了罰款形式的處罰方式,但并未授予某一機構具體權利。同時,法案在懲罰對象和懲罰方式上較為單一,主要是對人工智能提供者進行金錢懲罰,責任體系仍需進一步完善。二是涉及人工智能系統(tǒng)本身的責任承擔問題。人工智能人格問題本身是一個非常復雜的問題,關于人工智能系統(tǒng)是不是法人的問題,法案應作出回應。

      3.透明度要求難以實現(xiàn)

      “透明度”是法案的一個重要內容。人工智能領域的利益相關者有以下關于透明度的義務:保存技術文檔(第11條)、保持記錄以確保操作的可追溯性(第12條)以及向用戶提供適當?shù)男畔ⅲǖ?3條)的義務。然而普通用戶因人工智能技術的復雜性等特點無法得知人工智能提供者是否履行了披露義務。以生物識別系統(tǒng)為例,大部分用戶可能知曉生物識別系統(tǒng)會對其個人隱私和個人信息造成威脅,然而實際上生物識別系統(tǒng)可能還會導致歧視和偏見,根據(jù)年齡、性別、種族等身體特征對個人用戶進行分類。此外,生物識別系統(tǒng)在社會中的運用可能會導致公眾對發(fā)表個人言論產(chǎn)生懷疑,對民主制度產(chǎn)生不利的影響。顯然,與生物識別系統(tǒng)類似的人工智能系統(tǒng)都應提高對其產(chǎn)品、服務的透明度的要求,采取嚴格的披露義務。然而,這些人工智能系統(tǒng)本身的技術問題難以被人察覺,難以確認人工智能提供者是否履行了法律要求的完整的披露義務,使其難以實現(xiàn)真正的透明度。

      4.對人工智能定義和分類存在爭議

      從定義的角度而言,法案最初對人工智能的定義是不清晰、不明確的,而且定義的范圍過廣。按照法案第三條以及附錄一的內容,目前常見的互聯(lián)網(wǎng)服務,如地圖導航、手機軟件智能推送、輸入法的聯(lián)想功能都屬于法案的監(jiān)管范圍?;诖耍瑲W洲議會引入了一個新的標準,即人工智能模型只有在對健康、安全和基本權利構成重大風險的情況下才會被視為高風險。但人工智能的定義如何適應人工智能技術的快速演進的問題尚未解決。

      風險類別的分類亦引起廣泛討論。法案將人工智能進行分級規(guī)制,有利于對人工智能的精確管理。然而,某一項人工智能技術應屬于哪一類別,實際上存在著不同觀點。法案第52條規(guī)定了生成或操縱圖像、音頻或視頻的內容是明顯類似于現(xiàn)實,讓人誤以為是真實可信的,使用者必須披露內容是人為生成或操縱的。這表明法案未將深度偽造技術納入高風險人工智能系統(tǒng),只是在透明度方面,要求使用者進行內容披露。本文認為這樣劃分是不合理的,并且不合理的劃分將使法律制度的實際效用大打折扣。

      三、歐盟《人工智能法案》對中國的啟示

      新一代人工智能正在全球范圍內蓬勃興起,為經(jīng)濟社會發(fā)展注入了新動能,正在深刻改變人們的生產(chǎn)生活方式。同時,人工智能產(chǎn)品、服務對倫理道德、隱私權、系統(tǒng)安全等方面帶來了巨大的威脅。中國向來高度重視人工智能引發(fā)的各種問題,歐盟《人工智能法案》為我國人工智能法律監(jiān)管提供了參考。

      21世紀以來,人類社會發(fā)展的信息化程度加深,大數(shù)據(jù)、互聯(lián)網(wǎng)、人工智能的快速發(fā)展與應用,創(chuàng)造了不可估量的價值。針對方興未艾的人工智能領域,我國出臺了一系列法律規(guī)范和政策文件。國務院頒布了《新一代人工智能發(fā)展規(guī)劃》,這是我國第一個系統(tǒng)規(guī)定人工智能發(fā)展的總體思路、戰(zhàn)略目標、主要任務和保障措施的指導性文件??萍疾?、網(wǎng)信辦等部門頒布了多個促進人工智能發(fā)展的部門規(guī)章,地方性法規(guī)也相繼出臺(見表1)。然而,現(xiàn)有的法律規(guī)范存在諸多問題,如缺乏體系性,更多依靠法律原則、國家標準、行業(yè)條例進行規(guī)制,缺乏細化的監(jiān)管措施和鼓勵創(chuàng)新的制度設計。人工智能領域的法律規(guī)制仍待進一步完善。

      (一)明確人工智能的法律地位

      人工智能目前面臨如此多新挑戰(zhàn)和問題的原因之一,與承認或不承認其可能的法律人格有關。人工智能的法律地位問題挑戰(zhàn)了公眾對法律人格的傳統(tǒng)概念的理解。緊隨人格問題之后的法律問題是關于法律責任的,即人工智能活動所造成的后果如何歸屬和分配責任。目前管理部門和社會熱切關注人工智能領域可能出現(xiàn)的哲學和道德問題,但這些問題不能替代在人工智能領域中所有重要決策對應的責任承擔問題。因此,人工智能是否具有法律人格是必須要回應的一個關鍵問題。賦予人工智能法律人格,有可能導致潛在的責任主體濫用人工智能的法律地位。公眾或企業(yè)可能會試圖使用人工智能機器人作為“法律責任的擋箭牌”,或者以人工智能作為一個減輕其責任的因素。

      法律主體應具有民事行為能力,這意味著民事主體具有必要的意思能力,并可以獨立地作出意思表示。而人工智能無法做出獨立的意思表示,其提供數(shù)據(jù)處理等服務實際上是人工智能開發(fā)者的設計成果。因此,人工智能不應被視為法律主體之一。本文認為,人類是社會生活的主體,人工智能是提供便利的工具。鑒于人工智能的智能性和自主性,可以將高度智能化的人工智能作為客體中的特殊物,予以特殊的法律規(guī)制。

      (二)加強人工智能立法的體系化和系統(tǒng)性

      比較中國與歐盟人工智能制度規(guī)制進展,中國多為產(chǎn)業(yè)促進類文件,鼓勵企業(yè)發(fā)展,近期出臺較多治理類文件,我國有關人工智能的立法正在逐步增多,并向更加精細的方向發(fā)展,但沒有統(tǒng)一立法的跡象。歐盟的人工智能立法速度較快,且傾向于復制GDPR經(jīng)驗,以引領全球人工智能立法。具體而言,我國人工智能立法存在著軟法與硬法交織的情況,法律法規(guī)較少且規(guī)定較為原則和籠統(tǒng),國家標準和行業(yè)標準以及相關政策性文件較多。目前,市場上部分人工智能產(chǎn)品、服務已投入生產(chǎn)使用,但并未出臺相關立法,這些人工智能技術的應用缺乏相應的制度規(guī)制。因此,需要加快人工智能的立法研究,對人工智能的產(chǎn)品和流通進行立法規(guī)范,充分保障社會和個人的安全。

      (三)細化風險分級制度

      我國在人工智能的監(jiān)管方面仍處于起步階段,以風險分級制度為例,《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》提到了“風險等級”,《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》第五章規(guī)定了高風險、中低風險不同的治理模式。但前述條例的相關內容均是方向性、原則性的規(guī)定,具體的細則內容仍未出臺。政府監(jiān)督人工智能法律的實施,必須解決監(jiān)督的有效性問題。我國進行人工智能法律監(jiān)管的方式,可以參照歐盟風險分級的方式,但應根據(jù)我國實際情況,盡快出臺配套的具體細節(jié)規(guī)定。對各風險類別進行合理定義和劃分,可以通過公眾參與、專家論證等方式進行,以增加制度的科學性和民主性,促進制度的最終落實。

      (四)以制度設計鼓勵創(chuàng)新

      我國各部委相繼出臺的多個部門規(guī)章中涉及鼓勵創(chuàng)新的理念和制度。如科技部等六部門發(fā)布的《關于加快場景創(chuàng)新以人工智能高水平應用促進經(jīng)濟高質量發(fā)展的指導意見》、全國信息安全標準化技術委員會秘書處發(fā)布的《網(wǎng)絡安全標準實踐指南—人工智能倫理安全風險防范指引》均規(guī)定了有關創(chuàng)新的內容。但現(xiàn)有的部門規(guī)章以“指導意見”為主,內容為方向性、原則性的規(guī)定。即使是專門為促進創(chuàng)新而制定的部門規(guī)章,如《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設工作指引》,其有關支持創(chuàng)新的內容仍是從宏觀角度出發(fā)的??梢?,有關創(chuàng)新的制度設計仍待優(yōu)化,后續(xù)各項管理細則仍待出臺。通過制度鼓勵創(chuàng)新是促進人工智能發(fā)展的重要方式,可以監(jiān)管沙盒制度為參考,通過彈性的制度設計,為企業(yè)進行人工智能開發(fā)提供良好的環(huán)境。

      (責任編輯:孟潔)

      參考文獻:

      [1]程瑩,崔赫.歐盟高風險人工智能監(jiān)管的五個特點——歐盟人工智能法案(草案)初步解讀[J].互聯(lián)網(wǎng)天地,2021(6):38-41.

      [2]曹建峰,方齡曼.歐盟人工智能倫理與治理的路徑及啟示[J].人工智能,2019(4):39-47.

      [3]曾雄,梁正,張輝.歐盟人工智能的規(guī)制路徑及其對我國的啟示——以《人工智能法案》為分析對象[J].電子政務,2022(9):63-72.

      [4]European Commission.proposal for a regulation of the European Parliament and the council laying down harmonised rules on artificial intelligence(Artificial Intrelligence Act)and amending certain union legisilative acts,COM(2021)206 final,2021[EB/OL].[2021-04-21].https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF.

      [5]安永康.基于風險而規(guī)制:我國食品安全政府規(guī)制的校準[J].行政法學研究,2020(4):133-144.

      [6]金玲.全球首部人工智能立法:創(chuàng)新和規(guī)范之間的艱難平衡[J].人民論壇,2022(4):44-47.

      [7]Mauritz Kop.EU Artificial Intelligence Act:The European Approach to AI[EB/OL].[2021-10-01].https://law.stanford.edu/publications/eu-artificial-intelligence-act-the-european-approach-to-ai/.

      [8]胡玉鴻.關于“利益衡量”的幾個法理問題[J].現(xiàn)代法學,2001(4):32-38.

      [9]盛學軍.政府監(jiān)管權的法律定位[J].社會科學研究,2006(1):100-107.

      [10]Mark Findlay,Jolyon Ford,Josephine Seah,Dilan Thampapillai.Regulatory insights on artificial intelligence[M].Cheltenham:Edward Elgar Publishing Limited,2022.

      [11]劉洪華.論人工智能的法律地位[J].政治與法律,2019(1):11-21.

      [12]楊福忠,姚鳳梅.人工智能賦能社會治理之維度及風險法律防治[J].河北法學,2022,40(11):89-102.

      猜你喜歡
      人工智能
      我校新增“人工智能”本科專業(yè)
      用“小AI”解決人工智能的“大”煩惱
      汽車零部件(2020年3期)2020-03-27 05:30:20
      當人工智能遇見再制造
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      AI人工智能解疑答問
      人工智能與就業(yè)
      基于人工智能的電力系統(tǒng)自動化控制
      人工智能,來了
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      人工智能來了
      學與玩(2017年12期)2017-02-16 06:51:12
      黄龙县| 全州县| 廊坊市| 竹溪县| 贡嘎县| 甘洛县| 神农架林区| 宣化县| 金湖县| 苍山县| 临湘市| 新田县| 韶关市| 临朐县| 旬阳县| 潼关县| 呈贡县| 康定县| 利川市| 泉州市| 灵山县| 禹州市| 黑河市| 瑞昌市| 湛江市| 辽阳市| 高台县| 荣昌县| 南康市| 奉新县| 商河县| 开远市| 肥东县| 东辽县| 嘉峪关市| 苗栗市| 内黄县| 玛多县| 东安县| 平江县| 新和县|