胡雙
安吉縣審判保障服務(wù)中心 浙江 湖州 313300
經(jīng)濟社會中人工智能的應(yīng)用越來越廣泛,給實際運用和法制概念帶來很多的困難。實際困難的大部分來源于人工智能的發(fā)展和機械自動控制的基本問題[1]。概念性的困難來自于為自動機械造成的損害而分配道德、法律責(zé)任的方法,以及正確定義人工智能的方法。
所有AI監(jiān)視系統(tǒng)必須首先定義他們監(jiān)視的東西;總之,必須首先定義人工智能是什么。令人悲哀的是,至今為止,不管是政府部門的規(guī)定,還是各大公司,對AI的定義還沒有被廣泛接受。為了解決這個問題,我并沒有給出人工智能的定義。相反,我是想以調(diào)查調(diào)整規(guī)則定義AI時可能遇到的問題為目標。
從目前的來看,AI定義的難度不僅在于AI本身的定義,而是在于AI概念的模糊性。因為人類是唯一具有才智的被廣泛認知的實體,所以才智的任何定義都無疑與人類的性格有關(guān),再怎么談都不可能逃過人類這個主體[2]。
約翰麥卡錫,現(xiàn)代人工智能的領(lǐng)袖,也是人工智能概念的創(chuàng)造者。他相信“才智的任何定義都應(yīng)該基于人的才智”。因此,就產(chǎn)生了知性的定義,這種定義非常靈活,包括意識、自我意識、語言使用、學(xué)習(xí)能力、抽象思考能力、適應(yīng)性和邏輯推論能力在內(nèi)的定義功能。
1.2.1 主動性、可預(yù)測性和因果關(guān)系。主動性是人工智能和其他早期人類技術(shù)的最大區(qū)別。AI系統(tǒng)可以通過自己的判斷來操作汽車,或者可以在沒有手動控制或人類干預(yù)的情況下自己起草一份投資協(xié)議。今后將進一步改善人工智能系統(tǒng)的作業(yè)難度和范圍。工業(yè)革命帶來的機器取代了工廠和農(nóng)業(yè)生產(chǎn)的許多體力勞動者,這給他們帶來了巨大的經(jīng)濟和社會影響[3]。人工智能和相關(guān)技術(shù)進步是因為人工智能系統(tǒng)可以做很多工作,減少了對高品質(zhì)人才的需求。人工智能還必須強制適應(yīng)現(xiàn)代社會人工智能廣泛使用的法律法規(guī)的一些巨大變化。
預(yù)測的可能性是對AI法的重要挑戰(zhàn)。我們看到了很多人工智能的例子。他們可以把創(chuàng)造性的動作或行動看作人工智能的創(chuàng)造能力或人類行為的創(chuàng)造性表現(xiàn)。這種現(xiàn)象來源于國際象棋的計算機程序。除了制定基本規(guī)則和人類國際象棋的戰(zhàn)略對策外,它還可以創(chuàng)造出世界上著名活動的記錄。
人工智能創(chuàng)造力的例子是一種錯覺,它是特定人工智能系統(tǒng)可用操作數(shù)據(jù)交互的結(jié)果,不受人類固有認知偏見的影響。對于計算機象棋,統(tǒng)計學(xué)家奈特·西爾弗說:“我們可能無法將計算機所做的獨特游戲步驟描述為創(chuàng)造性行為,因為它做這些僅僅是因為它強大的計算能力[4]。但這對計算機的機器也有好處,因為在某些情況下,機器不允許自己找到正確的步驟,從而阻止自己識別正確的方法。對于棋手來說,擺脫舊的思維方式需要獨特的創(chuàng)造力?!?/p>
1.2.2 控制問題。AI系統(tǒng)的自主性不僅能夠產(chǎn)生預(yù)測性,而且還可以做到如何控制預(yù)測性??刂迫祟惇毩⒃O(shè)計的機器是非常困難的。AI系統(tǒng)包括文件破壞、輸入裝置破損、安全系統(tǒng)脆弱性、計算機系統(tǒng)反應(yīng)速度比人類快、程序缺陷等許多不可控制的機制[5]。在學(xué)習(xí)和適應(yīng)性的AI系統(tǒng)中,人很難恢復(fù)控制,一旦失去控制將會是一種非常可怕的局面。這是人類行動的結(jié)果,這些獨特的特點是AI使不同于過去的公共危險源。
Off-control可以分為兩種類型:一種是局部控制,即AI系統(tǒng)不再受人類控制,而人類不再為AI的監(jiān)督和操作而負法律責(zé)任;第二控制即不能控制AI系統(tǒng)。顯然,后者比前者嚴重得多。即使AI不能完全控制,只要AI系統(tǒng)的目標與國民一致,也不一定會帶來公共危險。但是,人的價值本身就存在很多的不確定因素,無法從根本上正確定義,所以維持目標和利益的一致性可能非常困難。從人工智能的目標是由最初的程序設(shè)計決定這一事實來看,人與人工智能之間的利益產(chǎn)生了分歧[6]。在原來的編程程序中,即使AI可以根據(jù)之后的經(jīng)驗改變目標,改變目標的指令也會由原來的編程系統(tǒng)發(fā)出。因此,人工智能系統(tǒng)的最佳解決方案是盡快排除人類。
1.2.3 AI研發(fā):保密性、多樣性、不連續(xù)性和不透明性。從監(jiān)管機構(gòu)的角度來看,最大的難處其實并不是人工智能,而是人工智能的研發(fā)模式[7]。保密意味著AI在研究的過程中不需要肉眼看不見的設(shè)備。分散化意味著研究AI系統(tǒng)不同構(gòu)成要素的研究人員可能被分配,而不是都聚在一起研究。不連續(xù)性是指與地方分權(quán)密切相關(guān)的特征所有的構(gòu)成要素或協(xié)調(diào)不需要來自不同領(lǐng)域的最后的特征,不透明度是AI系統(tǒng)的很多操作可能都會被保密起來,而不能被反向工程控制。這些特征在人工智能的發(fā)展中并不獨特。信息時代的很多技術(shù)其實都有這些特征。但是,只有人工智能的研究非常特殊,其存在的這些特性注定會給人類帶來很多特別的挑戰(zhàn)。
原子能科學(xué)技術(shù)和消費品的大量生產(chǎn)、產(chǎn)業(yè)環(huán)境污染、有害物質(zhì)的大量生產(chǎn)等20世紀的公共危險迫切的需要基礎(chǔ)設(shè)施方面的投資。這個時期簡化了管制過程。必要的基礎(chǔ)設(shè)施的建設(shè),必要的生產(chǎn)設(shè)備的購買和雇傭大量的員工,大企業(yè)在這方面下雖然下了很大的功夫,但同時還要與政府聯(lián)系密切[8]??梢夾I的保密性是非常重要的,是不可能暴露出什么秘密的。監(jiān)管機構(gòu)可以很容易地確認潛在的公共危險目標和場所。
隨著海量數(shù)據(jù)積累、算力瓶頸、機器學(xué)習(xí)創(chuàng)新,第三次人工智能浪潮引發(fā)經(jīng)濟社會全面智能化轉(zhuǎn)型。智能科技必然帶來新產(chǎn)業(yè)、新業(yè)態(tài)、新模式,成為新一輪科技革命的創(chuàng)新引擎?!凹涌煨纬梢詣?chuàng)新為驅(qū)動和支撐的經(jīng)濟體制和發(fā)展模式”是一項緊迫的任務(wù)。面對風(fēng)險與機遇并存的人工智能技術(shù)應(yīng)用,需要有效識別監(jiān)管問題。監(jiān)管不力意味著很多風(fēng)險無法防范,可能會出現(xiàn)破壞良好技術(shù)原理的不良現(xiàn)象,在當前的局勢下,迫切需要及時建立適當?shù)谋O(jiān)督機制[9]。
個人信息領(lǐng)域的法律和實踐經(jīng)驗對于構(gòu)建人工智能應(yīng)用中的社會風(fēng)險監(jiān)控機制非常重要。針對監(jiān)管部門混亂或職責(zé)不明確導(dǎo)致的“監(jiān)管空白”、“重復(fù)監(jiān)管”等諸多問題,建立獨立統(tǒng)一的監(jiān)管體系是有效保護個人信息的重要環(huán)節(jié)。 歐盟在其一般數(shù)據(jù)保護規(guī)則中明確定義了數(shù)據(jù)保護機構(gòu)和運行機制,并將其視為數(shù)據(jù)保護的核心系統(tǒng)。微軟和IBM等巨頭在內(nèi)部設(shè)立人工智能倫理委員會,但這還不足以解決人工智能應(yīng)用的社會風(fēng)險。迫切需要建立和完善專門的政府監(jiān)管機構(gòu),以有效闡明分級監(jiān)管職責(zé)[10]。
面對許多危險,法院監(jiān)管體系需要進行科學(xué)嚴格的監(jiān)督。然而,監(jiān)管的目的不是限制技術(shù)發(fā)展。相反,監(jiān)管的目的是促進人工智能產(chǎn)品和服務(wù)的健康有序發(fā)展。相關(guān)監(jiān)督要充分體現(xiàn)適當性。歐盟高風(fēng)險強制監(jiān)管是通過“應(yīng)用領(lǐng)域+使用方式”來定義,以達到保密監(jiān)管的目的?!端惴▎栘?zé)法案》將其直接限制為年收入超過5000萬美元且擁有100萬個人和設(shè)備信息的公司,或主要買賣消費者數(shù)據(jù)的數(shù)據(jù)經(jīng)紀公司。以經(jīng)濟實力和用戶數(shù)量作為劃分監(jiān)管范圍的標準,可以將一些新興的人工智能公司排除在監(jiān)管范圍之外。在劃定監(jiān)管范圍時,應(yīng)綜合考慮人工智能應(yīng)用領(lǐng)域、使用方式、用戶數(shù)量等因素,綜合成本效益分析,制定綜合監(jiān)管方案[11]。
AI開發(fā)法還需要AI監(jiān)管機構(gòu)在批準和認證前,建立測試標準和規(guī)則。需要通過相關(guān)的測試,在申請承認和認證的同時提交給AI監(jiān)管機構(gòu),符合AI監(jiān)管機構(gòu)規(guī)則的測試將會不承擔(dān)重大責(zé)任??荚嚨囊?guī)則是在比較密封的,安全的環(huán)境中進行[12]。例如,測試規(guī)則是一種能夠操作的網(wǎng)絡(luò)化計算機、機器人或?qū)嶋H世界對象的系統(tǒng),一種超越了應(yīng)答級別計算機能力的系統(tǒng)或者必須禁止在AI測試可能影響外部環(huán)境的系統(tǒng)中進行測試。AI規(guī)制當局應(yīng)該有迅速修改測試基準的權(quán)利,但是這樣的修改也會成為國民詳查的對象,最終需要投票決定。
測試后,AI開發(fā)者可以向AI監(jiān)管機構(gòu)申請批準和證明。為了給應(yīng)征者提供指導(dǎo),為人工智能產(chǎn)業(yè)設(shè)置一些不可越過的權(quán)限,管理委員會表示,人們應(yīng)該就不管它是否能保證人的控制,是否會造成個人的傷害,目標是否一致應(yīng)該發(fā)表一個人工智能應(yīng)用的評價標準[13]。AI監(jiān)管成員的主要任務(wù)是確定AI系統(tǒng)是否滿足這些標準。申請AI證明和許可的公司,必須要包括與AI環(huán)境相關(guān)的所有信息:①完整源代碼;②AI軟件和測試環(huán)境的硬件部分;③測試環(huán)境(AI)其他AI安全相關(guān)信息的AI性能。信息公開后,AI監(jiān)管人員必須再次測試內(nèi)部AI項目的安全性??紤]到AI的可能性的多樣性,AI限制當局也應(yīng)該有限制認證范圍的權(quán)利。
談到AI應(yīng)用的風(fēng)險監(jiān)控范圍,無論是歐盟“白皮書”中對“高風(fēng)險”標準的規(guī)范,還是“備忘錄”中對風(fēng)險和收益的衡量,風(fēng)險始終是起點觀點。有效的風(fēng)險評估通過監(jiān)督起到主動監(jiān)督的作用,指出監(jiān)督方向,最大限度地減少損失,避免不值得的監(jiān)督成本。目前,各國法律并未對人工智能應(yīng)用的風(fēng)險評估做出明確要求,但仍有應(yīng)遵循的跡象。歐盟《通用數(shù)據(jù)保護條例》第35條明確規(guī)定了高風(fēng)險數(shù)據(jù)處理活動的數(shù)據(jù)保護影響評估義務(wù),并規(guī)定了應(yīng)進行影響評估的三種情況以及評估創(chuàng)建和披露的具體要求列表?!秵栘?zé)法》對一定規(guī)模的公司提出了高風(fēng)險的系統(tǒng)評估義務(wù)。通過數(shù)據(jù)處理和算法應(yīng)用影響評估來間接評估人工智能應(yīng)用風(fēng)險已成為應(yīng)用風(fēng)險評估的一大趨勢。我國《個人信息保護法(草案)》第54條規(guī)定了對個人有重大影響的個人信息處理活動的預(yù)風(fēng)險評估和記錄義務(wù),可以看到與個人數(shù)據(jù)處理相關(guān)的人工智能應(yīng)用程序的風(fēng)險,由此可見,智能監(jiān)管評估已經(jīng)是我國智能化發(fā)展必不可少的。
雖然有授權(quán)程序和認證標準,但是在許多情況下,并沒有討論AI系統(tǒng)的版本是否被認證,AI系統(tǒng)的一些改變是否超過認證范圍。在處理這些事件時,法院可以進行初步測試以確定參與訴訟的AI產(chǎn)品的版本是否在所批準的認證版本的范圍內(nèi)。如果那個不在原始范圍內(nèi),時間就超過了所批準的證明范圍。AI改正是否超過承認和證明的閾值,決定被告是否有有限的責(zé)任,是否必須承擔(dān)重大責(zé)任。
本文提出的基于不法行為系統(tǒng)的限制路徑是一種中間方法。它作為一個嚴格的監(jiān)管機構(gòu)不起作用,不經(jīng)批準和證明,禁止所有AI產(chǎn)品的生產(chǎn),并強化AI產(chǎn)品的安全性屬性,為消化他們的外部成本,提供對AI開發(fā)者的誘因。通過違法行為責(zé)任的杠桿化,人工智能系統(tǒng)的外部安全成本被內(nèi)部化,使得市場上人工智能產(chǎn)品的合理價格反映了風(fēng)險。同時,不是未經(jīng)許可的人工智能系統(tǒng),而是承擔(dān)關(guān)節(jié)和一些責(zé)任和嚴格責(zé)任。AI系統(tǒng)的供應(yīng)商、零售商和用戶一直鼓勵對未經(jīng)授權(quán)的AI系統(tǒng)的安全性進行仔細檢查。同時,改變AI系統(tǒng)會失去有限的保護,確保下游廠商不會改變AI系統(tǒng)。