摘 要:
通過云端搜集、??薄⒎治龊A看髷?shù)據(jù),獨立法律人格待定的智能機器人,透過算法活動,在多個行業(yè)替代自然人從事高精尖業(yè)務(wù)并重塑人們的社會評價、權(quán)利義務(wù)及法律責(zé)任。算法活動以“信義義務(wù)”為核心調(diào)整傳統(tǒng)受托人關(guān)系以及基于合同相對性進(jìn)行損害賠償,傳統(tǒng)制度已不能完全囊括智能主體理應(yīng)承擔(dān)的所有義務(wù),導(dǎo)致算法操縱、信息尋租和監(jiān)管套利的三重失控,凸顯人工智能產(chǎn)業(yè)布局中的法律規(guī)范缺位;算法妨害具有公共屬性,穿透技術(shù)黑箱對合同之外的普羅大眾造成“公共滋擾”,法律應(yīng)當(dāng)為不同潛在責(zé)任主體創(chuàng)設(shè)不同缺省合規(guī)義務(wù),引導(dǎo)算法運營商、技術(shù)開發(fā)方內(nèi)部化不合理社會成本,以構(gòu)建人工智能責(zé)任體系的中國標(biāo)準(zhǔn)。
關(guān)鍵詞:人工智能;算法活動;信義義務(wù);公共滋擾;責(zé)任體系
中圖分類號:DF52 ?文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1001-2397.2020.01.14 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):
技術(shù)變革未必帶來社會福利的雨露均沾。過去的六十年,①人工智能技術(shù)并沒有因減少成本、提高效率而走上風(fēng)險對沖、普惠大眾的正軌,反而因科技的過度加持令商業(yè)屢屢掙脫法律和監(jiān)管的束縛,不斷陷入監(jiān)管套利②的輪回。一方面,智能服務(wù)與算法決策具有跨平臺、無限鏈化等特殊表征,造成義務(wù)主體虛化,致使傳統(tǒng)監(jiān)管手段難以發(fā)力;另一方面,當(dāng)代科技公司多推崇扁平化管理,尚未建立健全的內(nèi)控機制,也未形成有效的科層制約。國務(wù)院《新一代人工智能發(fā)展規(guī)劃》指出,適應(yīng)人工智能發(fā)展的基礎(chǔ)設(shè)施、政策法規(guī)、標(biāo)準(zhǔn)體系亟待完善。
本質(zhì)上,人工智能機器人通過算法活動映射傳統(tǒng)專業(yè)服務(wù)中的法律關(guān)系并替代自然人實現(xiàn)特定目的。算法活動既是新舊法律關(guān)系變更和消滅的直接近因,也是人工智能機器人得以“凌駕于自然人之上”的技術(shù)核心。對人工智能的規(guī)制,應(yīng)著眼于對算法活動中公共利益和個人權(quán)利的協(xié)調(diào)與沖突防范。在大數(shù)據(jù)驅(qū)動算法語境下,法律責(zé)任與義務(wù)的內(nèi)涵是否應(yīng)當(dāng)有所不同?如何穿透算法活動構(gòu)建人工智能主體識別和責(zé)任分擔(dān)法律規(guī)范?以科技增進(jìn)社會福祉為導(dǎo)向的法律法規(guī)重構(gòu),毋寧突破民商法傳統(tǒng)思維中人與物二元分立的理論局限,為智能機器人終將獲得獨立法律人格留有充分余地,并在減少算法操縱、信息尋租等機會主義行徑的同時,為科技發(fā)展提供堅實的制度保障。本論文以算法規(guī)制為主題,探討人工智能廣泛應(yīng)用所面臨的最基本法律問題,即算法活動的責(zé)任歸屬、妨害救濟(jì)與外部性治理,以期為研發(fā)和治理趨同背景下人工智能法律法規(guī)、倫理規(guī)范和政策體系的完善提供理論支撐。
一、傳統(tǒng)體系失靈:算法社會的法權(quán)博弈與監(jiān)管困局
尤瓦爾·赫拉利曾預(yù)言,算法主導(dǎo)的時代即將到來?!皺?quán)威將從個人轉(zhuǎn)向由算法構(gòu)成的網(wǎng)絡(luò)。人類不會再認(rèn)為自己是自主的個體,不再依據(jù)自己的期望度日,而是習(xí)慣把人類整體看作一種生化機制的集合體,由電子算法網(wǎng)絡(luò)實時監(jiān)測和指揮。”美國學(xué)者稱之為“算法社會”的,是指通過對數(shù)據(jù)和程序的究極利用,實現(xiàn)算法運營商對社會和生活的全面管理。如今,人工智能已經(jīng)悄然滲透進(jìn)市民生活的各個層面——搜索引擎框定知識邊界、出行軟件決定活動軌跡、社交媒體重塑電子身份、智能家居革新生活方式、電商平臺左右消費理念、智能金融拓展貨幣財富——大數(shù)據(jù)驅(qū)動算法打破既有權(quán)利結(jié)構(gòu)并不斷改造社會關(guān)系,產(chǎn)生新的公平與不公、有權(quán)和無權(quán)、優(yōu)先與劣后。無論算法和人工智能被運用于哪一個專業(yè)領(lǐng)域,新形勢下的制度、規(guī)章和法律,應(yīng)當(dāng)在原有基礎(chǔ)上進(jìn)行補充。缺乏與之匹配的法律創(chuàng)新,監(jiān)管套利就將人為地誘導(dǎo)多種形式的人工智能,過早地取代更負(fù)責(zé)任的機構(gòu)和自然人。
(一)個人信息保護(hù)的式微與算法規(guī)制的公私合力
信息公平被定性為后工業(yè)時代防止社會割裂的制度理念,并以此作為構(gòu)建市場資源均衡的規(guī)范性前提,引致試圖一視同仁的信息保護(hù)法律在制度設(shè)計之初,缺乏對精英集團(tuán)與平民集團(tuán)的不可逆分化以及垂直社會向水平社會轉(zhuǎn)型的周全考慮,最終造成信息貧富分化的馬太效應(yīng)。從動態(tài)的、市場的視角看,信息本身是一種重要的戰(zhàn)略資源,這使得保密制度的靈活運用成為一種功利性的競爭工具。過去的十年,通過秘密技術(shù)獲得的市場優(yōu)勢使“專利財產(chǎn)權(quán)”更具吸引力。在美國,以保護(hù)商業(yè)機密為導(dǎo)向的各州立商業(yè)“護(hù)犢”條款、《涉密案件程序法》《信息自由法》和《商業(yè)秘密保護(hù)法案》等,讓凌駕于普通人之上的技術(shù)寡頭和金融機構(gòu),無休止地以保護(hù)商業(yè)機密為幌子,免于公布算法代碼、免于接受公眾調(diào)查。與之相對的是,以保護(hù)個人隱私為導(dǎo)向的《公平信用報告法》和《保密法》等在實踐中被架空,導(dǎo)致強勢群體對弱勢群體的技術(shù)壟斷和信息剝削。法律積極地保護(hù)商業(yè)秘密,卻在涉及個人隱私時越來越沉默,為信息尋租留下隱患。誠然,并不存在完全公平的機會分配方式,但致力于迅速取得市場優(yōu)勢的科技寡頭,甚至排斥使個人選擇更加公平的最基本努力。
利用保密協(xié)議、專利條款和封口規(guī)則,算法運營商將其經(jīng)營活動模糊化、朦朧化,對普羅大眾的生活細(xì)節(jié)卻由于技術(shù)的多領(lǐng)域應(yīng)用而越發(fā)公開。以“智能推送”和“個性化定制”為賣點,智能服務(wù)提供商誘使用戶同意算法引擎分析個人數(shù)據(jù)并挖掘生活細(xì)節(jié)。在“用戶至上”的偽裝背后,他們“習(xí)慣于在供應(yīng)商、政府和用戶利益之間頻頻轉(zhuǎn)換立場,以構(gòu)建最大化自身利潤的商業(yè)環(huán)境”。鑒于此,算法運營商可能因利益沖突而對其用戶個體造成非過失的故意妨害。即便用戶不主動提供數(shù)據(jù),以“周全服務(wù)”和“互融互聯(lián)”為名,無處不在的匿名識別符系統(tǒng)、智能定位服務(wù)、高清攝像頭、多功能傳感器、手機應(yīng)用插件和網(wǎng)站跟蹤代碼對個人行為軌跡的主動記錄,早已將個體私生活抽絲剝繭,令任何人都避無可避。信息采集可以來源于多個渠道,新舊數(shù)據(jù)可能在算法決策中四處傳播、頻繁疊加、隨意黏合,基于正當(dāng)理由搜集的信息也可能被不懷好意地用于其他目的。前手平臺的廢棄數(shù)據(jù),可能轉(zhuǎn)手就打包銷售給其他平臺。更重要的是,透過種種數(shù)據(jù)挖掘,信用評級機構(gòu)、搜索引擎、主要銀行和商務(wù)平臺,利用算法將數(shù)據(jù)轉(zhuǎn)換成分?jǐn)?shù)、排名、風(fēng)險計算和具有極其重要后果的觀察列表,并借此構(gòu)建出一個個運作神秘的規(guī)范系統(tǒng)和評價體系,重新塑造每個人的“成長繭房”。名譽傷害、機會限制和弱點顯化作為算法決策的外部性,對大眾群體造成公共層面的“傷害”。
算法妨害的公私混合性、積累性和不確定性等典型特征,不但是權(quán)利救濟(jì)難以發(fā)揮的特殊束縛,也是立法規(guī)制所面臨的理論障礙。鑒于算法活動的當(dāng)下樣態(tài)及發(fā)展趨勢,以信息保護(hù)入手建立人工智能法律體系的嘗試必然收效甚微,且面臨社會割裂加劇的風(fēng)險和合規(guī)成本陡增的弊病。問題的關(guān)鍵在于,如何定性算法活動不同于自然人活動的法律特征,并在此基礎(chǔ)上從于公于私兩個維度重構(gòu)算法妨害的主體識別制度及責(zé)任分擔(dān)體系,真正實現(xiàn)人工智能技術(shù)利用從“隱私保護(hù)”向“社會責(zé)任”的躍遷。
(二)智能服務(wù)的法律特征與責(zé)任框架的內(nèi)外有別
算法活動的本質(zhì)是“溫故而知新”。無論是社會福利機構(gòu)利用綜合系統(tǒng)識別補貼申請詐騙、銀行儲戶通過智能機器人投資顧問做投資計劃、還是商業(yè)銀行通過評分系統(tǒng)考察客戶資信,抑或是訴訟當(dāng)事人操作案件分析軟件尋求辯護(hù)策略,完整的算法活動可以大體上歸納為三個典型步驟:1.硬件終端通過深入數(shù)據(jù)挖掘,獲取被服務(wù)(被監(jiān)管)者及同類群體的原始數(shù)據(jù),例如健康信息、金融數(shù)據(jù)、消費記錄、瀏覽歷史、行為言論、運動軌跡等。2.算法程序在云端將處理整齊的數(shù)據(jù)輸出為更整齊的概率、排名、風(fēng)險、傾向、估值等評價和分值。3.應(yīng)用終端生成具有明確指向性的決策或預(yù)測報告,例如,搜索引擎實現(xiàn)競價排名、自動駕駛系統(tǒng)規(guī)劃行程路徑、問診機器人輸出治療流程、出行幫手定制自駕游方案、電商平臺識別消費偏好并進(jìn)行巧妙導(dǎo)購等。機器人的智能水平,與自然人在上述三個步驟中的參與程度成負(fù)相關(guān)。
從外觀上看,算法服務(wù)呈現(xiàn)出典型委托代理關(guān)系的法律特征,包含信息或能力弱勢方支付報酬以換取優(yōu)勢方專業(yè)服務(wù)的契約。從依靠知識提供特定服務(wù)的專業(yè)人士,到主要依靠智能機器人的算法運營商,傳統(tǒng)專業(yè)服務(wù)的法律關(guān)系在三個層面發(fā)生了改變并由此產(chǎn)生三個相關(guān)問題。1.核心服務(wù)被前置化預(yù)設(shè)到算法程序中,智能機器人替代自然受托人接觸委托人并提供專業(yè)服務(wù),這是算法服務(wù)關(guān)系和傳統(tǒng)專業(yè)服務(wù)關(guān)系的典型區(qū)別。當(dāng)智能機器人成為委托代理關(guān)系中的受托人時,原先以自然人從業(yè)者作為規(guī)制對象的信義義務(wù)體系,面臨著適用困境。這就產(chǎn)生了如何將以自然人為規(guī)制對象的法律體系在算法社會向度中進(jìn)行重構(gòu)的問題。2.當(dāng)算法失靈損害當(dāng)事人利益時,算法運營商未必是唯一應(yīng)當(dāng)承擔(dān)責(zé)任的主體,在智能服務(wù)的法律關(guān)系中有多個潛在的責(zé)任方。智能機器人可能由算法運營商所有,但核心算法程序未必由其開發(fā),第三方機構(gòu)或技術(shù)開發(fā)公司(以下稱技術(shù)開發(fā)方)也應(yīng)對自己在設(shè)計匹配顧客特征和市場結(jié)構(gòu)算法時的可能過失負(fù)責(zé)。另外,智能機器人獲得獨立法律地位已經(jīng)為期不遠(yuǎn)。一旦獲得獨立法律地位,智能機器人就是傳統(tǒng)委托代理關(guān)系中的代理人,算法運營商和技術(shù)開發(fā)方則是傳統(tǒng)委托代理關(guān)系中的被代理人。這就產(chǎn)生了如何超越傳統(tǒng)委托代理關(guān)系、厘清并分配智能機器人、算法運營商和技術(shù)開發(fā)方的信義義務(wù)問題。3.當(dāng)算法只是在專業(yè)服務(wù)的部分環(huán)節(jié)替代自然人,或算法服務(wù)的部分運營依賴自然人??贝a和監(jiān)督輸出時,因系統(tǒng)原因和人為原因造成的不良后果應(yīng)區(qū)別對待。這就產(chǎn)生了如何規(guī)制算法活動臺前幕后自然人與算法的相對關(guān)系問題。
基于算法服務(wù)衍生的受托方信義義務(wù),以算法營運商直接服務(wù)的商業(yè)客戶和終端消費者為限,并不能夠延伸至普羅大眾。因違反信義義務(wù)而產(chǎn)生的侵權(quán)責(zé)任,在本質(zhì)上是一種基于合同相對性的責(zé)任,無法保護(hù)合同之外的第三人。然而,算法活動完全有可能對合同關(guān)系之外的第三方造成妨害,例如,自動無人駕駛汽車(受托人)在送乘客(委托人)回家的路上,撞傷過馬路的行人(第三方);依靠數(shù)據(jù)分析公司(受托人)提供客戶信用報告的民間融資機構(gòu)(委托人),對申請貸款的小微企業(yè)主(尚未與之形成合同關(guān)系的第三方)施以懲罰性利率;通過在線招聘網(wǎng)站(受托人)進(jìn)行校園招聘的大型企業(yè)(委托人),排除被標(biāo)簽化為“參與課外活動不積極”的申請者的面試機會(尚未與之形成合同關(guān)系的第三方)。在更多的情況下,算法運營商對公眾的危害可能更加隱秘,例如,哈佛大學(xué)喬納森·斯特蘭教授指出,臉書(Facebook)可能利用算法分析多國用戶數(shù)據(jù)并進(jìn)行戰(zhàn)略性內(nèi)容推送,以達(dá)到操縱終端用戶在自己國家大選中改變陣營的效果。如果該控訴屬實,受到傷害的是全體民眾。同理,利用算法進(jìn)行高頻交易的證券投資公司可能引發(fā)市場崩潰,受影響的不僅僅是與之交易的對手,還是國民經(jīng)濟(jì)的全體參與者,甚至是全世界。
基于合同相對性的傳統(tǒng)保護(hù),對全新的商業(yè)樣態(tài)不再適用。在20世紀(jì)初,現(xiàn)代工業(yè)社會催生了規(guī)模經(jīng)濟(jì),隨著分工細(xì)化,大規(guī)模批量生產(chǎn)的商品不再直接銷售給消費者,而是透過中間商完成商品分配。1916年,美國聯(lián)邦法院在“MacPherson v. Buick Motor Co.案”中廢除了當(dāng)事人原則(Privity Rule)的適用,并指出了批量制造商所具有的公共義務(wù):制造商不僅應(yīng)對與其具有直接合同關(guān)系的經(jīng)銷商負(fù)責(zé),還應(yīng)當(dāng)對任何因其產(chǎn)品缺陷受到傷害的消費者及其家庭成員和旁觀者負(fù)責(zé)。數(shù)字工業(yè)時代的智能算法規(guī)制,也需要這樣的判例:在對客戶的信義義務(wù)之外,算法運營商還應(yīng)對普羅大眾承擔(dān)相應(yīng)的公共義務(wù)。如何借用普通法智慧引導(dǎo)算法運營商履行社會責(zé)任,內(nèi)部化不合理的外部性成本,這也是需要解決的問題。
(三)法律監(jiān)管的時代挑戰(zhàn)與功利道義的相互增益
以算法為核心的人工智能技術(shù)迭代和應(yīng)用拓展,造成多個方面的監(jiān)管困境。第一,算法運營商創(chuàng)造出了簡化問題分析和弱化責(zé)任歸屬的技術(shù)黑箱,將錯綜復(fù)雜的倫理判斷和法律關(guān)系藏于其后。每個人都可以觀察到各項指標(biāo)和數(shù)據(jù)的輸入和輸出,但作為局外人的普通公眾和監(jiān)管者均難以完全理解算法背后近乎匪夷所思的原理和互動機制。如果監(jiān)管者無法準(zhǔn)確定性算法活動的法律特征和潛在風(fēng)險,就會導(dǎo)致外部監(jiān)管失靈。第二,當(dāng)特定智能服務(wù)損害個體私人利益時,只有極少數(shù)情況可以依照雇主責(zé)任原則直接追溯至程序員和操作者的失誤——帶偏見的數(shù)據(jù)、不合理的假設(shè)、有漏洞的代碼。損害效應(yīng)產(chǎn)生于算法構(gòu)建以解決問題的框架,有時也隱藏在數(shù)據(jù)挖掘的方式中。算法運營商和技術(shù)開發(fā)方常常作出貌似可信的言論,堅稱其模型合理、數(shù)據(jù)可靠、結(jié)構(gòu)夯實。但外人難以考證,即使是精通計算機的專業(yè)人士,對算法本身的評價也是仁者見仁、智者見智,更不用提基于機器學(xué)習(xí)的智能算法在自我迭代過程中,有可能寫出令其造物者都霧里看花的代碼天書。因此,以加害人過錯為前提的普通侵權(quán)責(zé)任,面臨適用困境,阻絕了受侵害方的正常私力救濟(jì)渠道。第三,商業(yè)巨頭和技術(shù)官僚披上“科學(xué)”的外衣,以此排斥程序正義的合理訴求。透過對過往數(shù)據(jù)的充分解讀,算法程序?qū)⒂脩魳?biāo)簽化,在不知不覺間對個人貸款和就業(yè)的機會予以限制,對受眾接受的信息和內(nèi)容予以控制,對用戶的心智模式進(jìn)行操縱和重構(gòu)。算法程序以上帝視角充當(dāng)著“看不見的手”的角色,但整個過程毫無程序正義可言,致使受損害者權(quán)益保護(hù)的問題更加突出。第四,社會群體被暴露于算法活動的積累妨害之下,無法通過合同的方式得以避免,集體行動因“搭便車”問題嚴(yán)重而成本高昂。面對日益居于社會最佳活動水平之上的算法活動,當(dāng)事人缺乏賴以保護(hù)自身的法律武器,規(guī)則制定長期滯后于技術(shù)發(fā)展,私力和公力救濟(jì)渠道都匱乏。
智能機器人與運營商之間是什么關(guān)系?是典型的委托代理關(guān)系嗎?即電子代理人在代理權(quán)限內(nèi),以被代理人(使用人)的名義實施的民事行為,后果由被代理人(使用人、營運商)承擔(dān)。顯然,這種文義復(fù)雜本身是低效而不必要的?;貧w到智能服務(wù)的委托代理關(guān)系本質(zhì),智能機器人和算法運營商應(yīng)當(dāng)被視為客戶的“共同代理人”,共同行使代理權(quán)、共同對被代理人負(fù)責(zé)。在當(dāng)智能機器人法律人格尚不明晰、算法運營商和智能機器人長期存在著因高度“人格混同”和“財產(chǎn)混同”造成“責(zé)任混同”時,作為提供專業(yè)服務(wù)的智能機器人,與算法運營商代理人一樣,也是信義義務(wù)的責(zé)任主體,盡管二者都共同對被代理人(客戶)負(fù)責(zé),在承擔(dān)責(zé)任的表現(xiàn)形式上,卻只是算法運營商全權(quán)為智能機器人給客戶造成的損害賠償買單。
(二)基于財產(chǎn)、人格的混同與分離的多元責(zé)任劃分
智能機器人作為投資顧問違反信義義務(wù)導(dǎo)致客戶蒙受損失,相關(guān)責(zé)任由誰承擔(dān)?美國的通行做法是由使用智能機器人投資顧問的咨詢公司承擔(dān)。這種責(zé)任分配方式,具有“運營商問責(zé)制”的外觀——作為“電子代理人”的機器人投資顧問不承擔(dān)責(zé)任,而是作為“電子代理人的使用人”的運營商承擔(dān)責(zé)任。各州登記在冊的是投資咨詢公司本身,尚不是一個個獨立的智能機器人,而對信義義務(wù)的追溯以登記為準(zhǔn)。不過,美國證監(jiān)會已經(jīng)考慮要求將對足夠智能的機器人進(jìn)行單獨注冊,智能機器人投資顧問在人格和財產(chǎn)上同投資咨詢公司分離已經(jīng)指日可待。
面對天馬行空的代碼程序,利用算法提供服務(wù)的運營商和接受算法服務(wù)的消費者同為信息弱勢方。負(fù)責(zé)算法維護(hù)和更新的技術(shù)開發(fā)方本身,才是算法運營商的直接受托人,理應(yīng)以運營商利益最大化謹(jǐn)慎行使職權(quán)——盡量減少算法失靈的潛在風(fēng)險。如果算法運營商不是技術(shù)開發(fā)方,二者是分離的不同人格主體,因“責(zé)任混同”,算法運營商承擔(dān)了智能機器人作為事實受托主體理應(yīng)承擔(dān)的賠償責(zé)任后,享有向技術(shù)開發(fā)方的追償權(quán)。
隨著計算能力和數(shù)據(jù)搜集能力呈指數(shù)級增長,深度神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)在最近成為可能,全自動化智能機器人將是壓垮過度簡化責(zé)任歸屬的“運營商問責(zé)制”的最后一根稻草——距離智能機器人成為獨立承擔(dān)責(zé)任的民事主體,只有一步之遙。第一,
機器學(xué)習(xí)算法已經(jīng)趨近具有自主思考和意識能力的階段。與程序員為每種可能的場景提供精確指令的經(jīng)典代碼不同,機器學(xué)習(xí)圍繞著對算法的“規(guī)訓(xùn)”——通過增加算法在未來分類時所參考的數(shù)據(jù)節(jié)點目錄,來實現(xiàn)算法的自我迭代,而不需要程序員來回重寫算法。如今,有可能每個人都不經(jīng)意地參與了對算法的“培訓(xùn)”。例如,特斯拉利用車載硬件強行搜集用戶駕駛數(shù)據(jù),以改良自動駕駛技術(shù);谷歌的響應(yīng)驗證碼測試,要求互聯(lián)網(wǎng)用戶通過選擇某一特定類別的所有圖片來驗證自己不是機器人,從而增強機器識別能力。第二,智能機器人同運營商之間的“主體混同”和“財產(chǎn)混同”可以被人為破除。在智能機器人已經(jīng)復(fù)雜和先進(jìn)到人類監(jiān)管者難以對潛在算法傷害進(jìn)行預(yù)設(shè)規(guī)避時,運營商迫切希望主張對智能機器人的“所有權(quán)”和“使用權(quán)”分離,以獲得有限責(zé)任的實體保護(hù)。建立智能機器人補償基金或引入強制保險制度,以確保算法服務(wù)對象得到合理受償?shù)姆ㄖ乌厔菀呀?jīng)成為各界共識,建立統(tǒng)一的人工智能登記平臺以構(gòu)建明晰的責(zé)任追溯體系勢在必行。
技術(shù)和制度的穩(wěn)步推進(jìn)將最終賦予智能機器人獨立人格、讓其擁有獨立財產(chǎn),并獨立地成為客戶的代理人。歐盟法律事務(wù)委員會于2016年5月提交動議,要求歐盟委員會將最先進(jìn)的自動化機器人視為具有特定權(quán)利和義務(wù)的“電子人”,并為其設(shè)立登記賬戶;2017年10月,沙特阿拉伯率先賦予機器人“索菲亞”公民身份。國內(nèi)有權(quán)威學(xué)者提出:“應(yīng)盡快賦予聯(lián)結(jié)主義設(shè)計理念下的人工智能原則上自身承擔(dān)法律后果的法律主體地位。”
機器人責(zé)任同運營商責(zé)任的分離,并不意味著運營商責(zé)任的完全免除。智能機器人完全獨立,應(yīng)視實際情況區(qū)分為相對完全獨立和絕對完全獨立。
在智能機器人相對完全獨立的智能服務(wù)中,算法運營商一般負(fù)責(zé)大數(shù)據(jù)的采集和勘校,然后交付智能機器人利用算法程序生成可供決策的評價和預(yù)測報告;此時,運營商和機器人應(yīng)當(dāng)被視作客戶的共同代理人。不過,此時的共同代理關(guān)系不同于智能機器人同算法運營商人格混同時的“共同代理關(guān)系”。基于二者間涇渭分明的分工協(xié)作,該種關(guān)系是被代理人就委托事務(wù)的各個部分分別向各代理人授權(quán),各代理人在獨立代理權(quán)限內(nèi)單獨行使職權(quán),且在獨立代理權(quán)限內(nèi)承擔(dān)相應(yīng)責(zé)任的共同代理關(guān)系。雖然,當(dāng)算法服務(wù)致使客戶權(quán)益受到損害時,很難直接將算法傷害歸因于單獨的數(shù)據(jù)偏見或程序失靈,往往是“二者兼有”使然;但是,以可讀報告形式擺在消費者面前的算法決策,才是造成損失的直接近因??紤]到智能機器人的算法和程序在數(shù)次自我迭代中,可能已經(jīng)完全偏離原編程者的意志,相較于永遠(yuǎn)受到傳統(tǒng)隱私法、數(shù)據(jù)安全法規(guī)制的數(shù)據(jù)搜集環(huán)節(jié),智能機器人在算法決策環(huán)節(jié)的行為相對更不可控,理應(yīng)承擔(dān)更大的責(zé)任??傊谥悄軝C器人相對完全獨立時,算法運營商就數(shù)據(jù)搜集和隱私保護(hù)環(huán)節(jié)負(fù)責(zé),智能機器人則應(yīng)獨自承擔(dān)算法決策和內(nèi)容生產(chǎn)環(huán)節(jié)的潛在責(zé)任。當(dāng)智能機器人以自己的補償基金無法彌補因算法決策失誤造成的巨大損失時、無法承擔(dān)相應(yīng)的責(zé)任部分,由技術(shù)開發(fā)方承擔(dān)補充賠償責(zé)任。
在智能機器人絕對完全獨立的服務(wù)關(guān)系中,算法運營商通常只負(fù)責(zé)以自己的名義招攬客戶,智能機器人則在云端完成自主數(shù)據(jù)挖掘,并利用不斷完善的算法模型即時輸出具有明確指向性的結(jié)果并為客戶提供服務(wù)。此時,運營商和機器人之間的關(guān)系類似于“商號出借”的法律關(guān)系。多數(shù)國家法律承認(rèn)商號出借的合法性,商號出借現(xiàn)象在現(xiàn)實生活中也屢見不鮮(諸如掛靠、連鎖經(jīng)營、特許經(jīng)營等)。我國法律尚未對商號出借及其法律效力和法律責(zé)任做出明確的規(guī)定,但依照發(fā)達(dá)國家的相關(guān)規(guī)定,一般由出借方與借出方承擔(dān)連帶責(zé)任。我國《侵權(quán)責(zé)任法》第34條規(guī)定了“用人者責(zé)任”,因工作人員執(zhí)行工作任務(wù)造成他人損害的,用人單位承擔(dān)侵權(quán)責(zé)任。我國消費者權(quán)益保護(hù)法第42條規(guī)定,“使用他人營業(yè)執(zhí)照的違法經(jīng)營者提供商品或者服務(wù),損害消費者合法權(quán)益的,消費者可以向其要求賠償,也可以向營業(yè)執(zhí)照的持有人要求賠償。”比照商號出借、用人單位責(zé)任、營業(yè)執(zhí)照借用等法理,當(dāng)智能機器人絕對獨立、因算法決策致使客戶蒙受損失時,算法運營商、技術(shù)開發(fā)方和智能機器人對外應(yīng)當(dāng)承擔(dān)連帶責(zé)任;連帶責(zé)任的內(nèi)部份額則根據(jù)各自責(zé)任大小確定。相較于智能機器人相對完全獨立的情形,要求算法運營商對智能機器人絕對獨立時的“失靈”承擔(dān)可能更多的潛在責(zé)任,是對算法運營商因利用完全獨立智能機器人減少自身工作量而獲得更高利潤的替代性追償。運營商使用人無過錯而承擔(dān)連帶責(zé)任,會使任何人或組織在釋放完全獨立的人工智能猛獸時三思而后行。
(三)數(shù)據(jù)受托關(guān)系的特殊性與信息信義義務(wù)
以算法服務(wù)前置為特征的電子智能服務(wù)是對傳統(tǒng)委托代理關(guān)系的映射與創(chuàng)新。服務(wù)內(nèi)容的數(shù)碼化與受托主體的智能化,決定了在電子智能服務(wù)所映射的傳統(tǒng)委托代理關(guān)系之外,還存在著一層與之并行的“信息委托代理關(guān)系”。
算法運營商搜集、???、分析并使用用戶數(shù)據(jù),這些數(shù)據(jù)本身可能對用戶造成損害。由于諸多數(shù)字化業(yè)務(wù)同生活、工作結(jié)合緊密且逐漸變得不可替代,用戶不得不提供自身數(shù)據(jù)、甚至將弱點暴露給平臺,以換取相應(yīng)服務(wù)來維持其在數(shù)字時代的“正常人”身份。在這些活動中,用戶同智能服務(wù)提供商之間的信息和知識極不對稱;對數(shù)據(jù)和算法的內(nèi)部處理方式受專利和所有權(quán)保護(hù),以“防止競爭者商業(yè)盜竊”;而用戶除了接受使用協(xié)議并選擇相信互聯(lián)網(wǎng)平臺“尊重用戶隱私”的空頭承諾外別無他法。很顯然,作為信息受托方的運營商或智能機器人,在傳統(tǒng)信義義務(wù)之外,還應(yīng)承擔(dān)同其信息優(yōu)勢地位相稱的“信息信義義務(wù)”,以保證其經(jīng)營和決策行為不會對居于弱勢的客戶造成損害。
數(shù)字化信息受托人本身是一種兼具“特別目的”和“特殊形態(tài)”的信息受托人,需要承擔(dān)的信義義務(wù)不能一概而論,必須考察其服務(wù)的本質(zhì)。但是,有一個基本原則是作為信息優(yōu)勢方的受托人不可突破的底線:不能利用委托人信息對其利益造成損害。易言之,“信息信義義務(wù)”的主要內(nèi)涵不在于保護(hù)用戶隱私,而在于不利用用戶隱私損害用戶利益。算法運營商和智能機器人不得宣稱保護(hù)用戶隱私,卻同時利用用戶數(shù)據(jù)脅迫、操縱、歧視其接受服務(wù)的用戶。
信息信義義務(wù)與傳統(tǒng)信義義務(wù)有諸多不同。第一,在傳統(tǒng)的委托代理關(guān)系中,委托人對受托人抱有較高期待:除了不傷害自己,還應(yīng)該為自身福利的提升謹(jǐn)慎行事;互聯(lián)網(wǎng)用戶往往無法對智能服務(wù)提供商、搜索引擎和社交網(wǎng)站抱有這般綜合期待。因此,信息信義義務(wù)具有較低的注意義務(wù)內(nèi)涵。第二,通過各種途徑變現(xiàn)用戶數(shù)據(jù),是很多網(wǎng)絡(luò)服務(wù)提供商的核心收入來源,因為只有這樣,他們才能繼續(xù)“免費”為客戶提供具有競爭力的服務(wù)。因此,利用用戶信息獲得補償或適當(dāng)牟利,并不構(gòu)成對信息信義義務(wù)的違反。即便如此,網(wǎng)絡(luò)服務(wù)提供商不得在任何情況下將用戶數(shù)據(jù)打包出售或分配給其他公司和平臺。第三,媒體網(wǎng)站依賴其用戶生產(chǎn)更多內(nèi)容以帶來源源不斷的流量,搜索引擎期待更多數(shù)據(jù)和頁面以實現(xiàn)更精準(zhǔn)索引和分析,他們都具有誘導(dǎo)客戶在網(wǎng)絡(luò)公共空間暴露更多內(nèi)容并從中獲利的現(xiàn)實激勵。這種誘導(dǎo)不同于操縱,并不構(gòu)成對信息信義義務(wù)的違反。
總之,算法運營商和智能機器人對與其形成直接合同關(guān)系的客戶負(fù)有因傳統(tǒng)委托代理關(guān)系而引發(fā)的普通信義義務(wù),還對普通用戶負(fù)有因服務(wù)數(shù)字化而引發(fā)的信息信義義務(wù);二者共同構(gòu)成算法運營商和智能機器人內(nèi)部法定義務(wù)的輪廓。
三、外部監(jiān)管重構(gòu):智能時代的企業(yè)責(zé)任與利益衡平
有效監(jiān)管是技術(shù)普惠的前提。然而,在內(nèi)部信義義務(wù)所賦予的用戶保護(hù)外衣無法掩蓋算法活動外部性擴(kuò)散的公共領(lǐng)域,卻長期面臨“基本法適用缺位”的問題。人們的生活細(xì)節(jié)和私密信息可能在算法程序面前一絲不掛,自愿或不自愿地臣服于算法決策。當(dāng)人工智能通過算法決策獲得了本該由政府或公共機構(gòu)掌握的權(quán)力時,對這種權(quán)力的約束,就顯得尤為重要。畢竟,以技術(shù)賦能而取得的具有公共屬性的權(quán)力,并不具備“自由人們的自由同意”的正當(dāng)性。正是在這個意義上,算法權(quán)力濫用的防范與治理需要實現(xiàn)私法責(zé)任和公法責(zé)任的無縫銜接,揭開技術(shù)面紗,構(gòu)建以人為本、公平至上的道德法律框架。
(一)以公共滋擾定性算法妨害的正當(dāng)性基礎(chǔ)
外國侵權(quán)法學(xué)者已經(jīng)關(guān)注到私人領(lǐng)域經(jīng)濟(jì)行為的外部化效應(yīng),視“增強公共義務(wù)”為根本解決方案。弗蘭克·帕斯夸勒觀察到商業(yè)活動對公眾利益的侵蝕,并提出運營商和搜索引擎適用的商業(yè)倫理規(guī)范。耶魯大學(xué)杰克·巴爾金教授將算法活動對第三方和公眾可能造成的妨害比作美國侵權(quán)責(zé)任法中的公共滋擾(Public Nuisance),建議政府通過建立類似于消費者保護(hù)或環(huán)境保護(hù)的法律體制來應(yīng)對算法妨害。美國法上的公共滋擾泛指影響公共財產(chǎn)或公共權(quán)益的侵權(quán)行為,該概念最早來自英國法中所定義的“在實質(zhì)上影響女王臣民生活舒適和便利”的不法行為。例如,駁船的不當(dāng)系泊堵塞運河公共航道、劇院門口的長隊影響附近茶館生意、抱著帶天花的小孩在路邊行走驚擾路人、流行音樂會滋擾社區(qū)生活、合法示威干擾居民正常上班,甚至因高爾夫球被擊至高速公路造成交通隱患也構(gòu)成公共滋擾。在“Attorney-General v. PYA Quarries Ltd案”中,英國法院確立了公共滋擾不同于私人滋擾(Private Nuisance)的判定標(biāo)準(zhǔn)——公共滋擾妨害必須是:足夠廣;無差別性地;對群體造成傷害;且不指望任何個人可以獨自負(fù)責(zé)解決;必須由社區(qū)整體共同承擔(dān)。美國聯(lián)邦法院在“Attorney General v. Hastings Corporation案”中沿襲了英國法院對“群體”標(biāo)準(zhǔn)的劃分,規(guī)定在公共滋擾中受到損害的必須至少是“一類人”。
將算法妨害比作公共滋擾有其合理性,這是因為:
首先,算法妨害具有明顯的公共特性,并且會隨著公共和私營部門的決策積累,對公眾產(chǎn)生交叉?zhèn)ΑU蚬静讹L(fēng)捉影公眾數(shù)字化的身份、軌跡和數(shù)據(jù),利用程序進(jìn)行分析、歸類,得出能夠影響公眾機會(求職、信用、金融等)或?qū)€體進(jìn)行區(qū)別對待(監(jiān)督、操縱、排除等)的算法決策。數(shù)據(jù)處理和算法決策又將產(chǎn)生新的指向用戶特性、軌跡、交集的評價和分值,這些評價和分值可能在數(shù)據(jù)挖掘的過程中被別的平臺采納,重復(fù)構(gòu)建用戶數(shù)字表征并強化甚至顯化用戶的弱點。隨著個體數(shù)字身份因算法決策的“過度消費”而每況愈下,整個公共數(shù)據(jù)體系都面臨嚴(yán)重污染的現(xiàn)狀。鑒于此,算法妨害是對公眾諸多實體權(quán)利的“累積侵蝕”,符合公共滋擾特性。
其次,算法妨害無法因個人訴訟而得以完全解決。算法妨害是不受控制的算力拓展引發(fā)外部性擴(kuò)散的必然結(jié)果,因其傷害隱蔽但傷害面廣,對于每個獨立的個體而言,算法妨害并不是非此即彼的二分法——要么受到妨害、要么沒有受到妨害——就能簡單概括的?,F(xiàn)實的情況要微妙得多,算法主體在制定和設(shè)計算法要解決的特定問題時,面臨不可避免的權(quán)衡取舍。通過法律很難為算法操作劃定妨害底線,也不可能將負(fù)面效應(yīng)隔離于單一因緣。問題的實質(zhì)在于,是否因為算法活動外部性的擴(kuò)散對無辜的大眾群體造成了不合理的社會成本。個人民事訴訟無法對算法妨害的群體外部性給予補償,必須依賴于集體訴訟甚至公權(quán)力介入。
再次,公共滋擾的歸責(zé)原則,適用算法妨害的無過錯責(zé)任歸責(zé)原則。公共滋擾的定性和量刑,完全取決于滋擾后果的嚴(yán)重程度,而不論當(dāng)事人的主觀意愿。算法妨害的特性在于,難以認(rèn)定算法運營商、技術(shù)開發(fā)方和操作員是否具有主觀過失或重大惡意;對于具有自我意識的智能機器人更是如此。算法本身不具有意圖、欲望和惡意,算法程序也不是其創(chuàng)造者、使用者內(nèi)心偏見和歧視的簡單投射。實際上,算法妨害來源于對人們數(shù)字身份數(shù)據(jù)勘校、分析和擬合的積累效應(yīng)。有學(xué)者指出,“算法系統(tǒng)中常見的‘?dāng)?shù)據(jù)驅(qū)動中介建立在‘信息和行為而不是‘意圖和活動的基礎(chǔ)上?!甭毷侵?,算法妨害的責(zé)任同公共滋擾的責(zé)任類似,是一種無過錯侵權(quán)責(zé)任,不以加害人主觀故意為構(gòu)成要件,因為其意圖和目的無從考證。算法活動中的當(dāng)事人應(yīng)該聚焦于特定算法的使用所造成的特定社會效應(yīng),以及從整體的角度出發(fā)這些效應(yīng)是否合理、正當(dāng)。
(二)算法經(jīng)濟(jì)功能重校與通用治理規(guī)則再造
公共滋擾本質(zhì)上是一種違法行為。根據(jù)其侵害群體利益后果的嚴(yán)重程度,由代表全體民眾的公訴人提起刑事訴訟或由代表特定群體利益的律師提起民事訴訟。
1. 鼓勵個人或集體訴訟的市場化監(jiān)督體制
《美國侵權(quán)責(zé)任法》規(guī)定,公職人員必須對公共滋擾提起訴訟從21世紀(jì)開始,美國各州的公訴人通過訴訟不斷擴(kuò)展公共滋擾的適用,為大規(guī)模侵權(quán)行為、公共衛(wèi)生問題和環(huán)境污染尋求補救辦法;康涅狄格州甚至起訴電力公司排放過多的二氧化碳。不過,自然人只要能夠證明自己在滋擾中“承受了特別傷害”,就享有公共滋擾中的訴權(quán),法院對自然人的公共滋擾訴權(quán)亦予以認(rèn)可。
隨著智能機器人對各個領(lǐng)域和行業(yè)的滲透,算法妨害具有全面而分散的特點:少數(shù)受害者能被輕易識辨出來,多數(shù)則不能。在這種情況下,可以適當(dāng)鼓勵民事律師積極介入并代表特定算法活動的受害方提起損害賠償?shù)募w訴訟。中國學(xué)界已經(jīng)意識到,集體訴訟是解決群體性小額爭議、節(jié)約司法資源、保護(hù)消費者權(quán)益的靈丹妙藥,是市場化的監(jiān)督體制。《美國聯(lián)邦民事訴訟程序規(guī)則》和判例法規(guī)定,只要原告團(tuán)體滿足了眾多性(Numerosity)、共同性(Commonality)、典型性(Typicality)的特征且具有充分代理關(guān)系,就可以提起集體訴訟;該訴訟標(biāo)準(zhǔn)同我國《民事訴訟法》的規(guī)定在字面上有一定相似性,但受制于律師行業(yè)的整體發(fā)展?fàn)顩r和長期司法實踐的制度慣性,集體訴訟在我國并不常見。面對人工智能的異軍突起,未來立法者需要及時轉(zhuǎn)變對集體訴訟的態(tài)度并輔之以必要法律基礎(chǔ)設(shè)施。對于個人因受到特別傷害而提起的民事訴訟,法院也應(yīng)當(dāng)鼓勵。美國聯(lián)邦法院在“Tate and Lyle v. GLC 案”中裁定,即便與妨害方無任何法律關(guān)系,只要在公共滋擾中受到損失,就可以單獨提起訴訟或加入集體訴訟。因此,即便不是算法運營商的客戶或終端用戶,也可以因受到特定滋擾而起訴。
2. 加強以預(yù)期效果為導(dǎo)向的信息披露
然而,無論是集體還是個人,針對算法妨害提起訴訟,都會面臨舉證困難的特殊難處。算法活動技術(shù)壁壘的存在,原告方難以自證看似中立的算法活動與自身權(quán)益受損之間的直接關(guān)聯(lián)。對來自公眾的懷疑和質(zhì)詢,算法運營商可以很方便地搪塞以難以捉摸的空話和故弄玄虛的解釋。
鑒于此,算法活動中的信息優(yōu)勢方有必要就技術(shù)黑箱的運作方式和裁判機制做出詳細(xì)且外行人也能理解的信息披露。信息披露的核心在于算法決策的運算、邏輯和分析過程而不在于源代碼本身。算法決策的正當(dāng)性需要智能機器人運算和分析過程中的程序透明和因果透明得以支持,并能經(jīng)得起從結(jié)果向數(shù)據(jù)輸入的倒推。算法運營商應(yīng)當(dāng)主動解釋清楚智能機器人的硬件、軟件和外部環(huán)境之間的相互作用,如何導(dǎo)致其當(dāng)下的行為模式,并清晰、直觀地就以下事項(包括但不限于)作出完整信息披露:信息挖掘的數(shù)據(jù)來源、典型特征和分類方式;算法程序的運作原理、代碼邏輯和預(yù)期效果;可能存在的系統(tǒng)偏差、運行故障和矯正機制。對于算法代碼(人為或自動的)重大修改和刪減,算法運營商也應(yīng)當(dāng)補充必要的信息披露。
3. 確保責(zé)任主體鏈條的追蹤識別
針對算法妨害提起訴訟,還會面臨確定被告的特殊難處。在算法妨害背后,有著盤根錯節(jié)的法律關(guān)系以及由此產(chǎn)生的多個潛在責(zé)任方,原告方要準(zhǔn)確確定被告非常困難。隨著深度學(xué)習(xí)技術(shù)的不斷完善以及智能平臺的相互開源,很多智能機器人和算法程序已經(jīng)自我改良到完全偏離其造物者預(yù)設(shè),只是缺少人類的自主思考、意識能力且尚未獲得獨立法律地位的地步,這進(jìn)一步加大在損害賠償訴訟中確定責(zé)任主體的難度。
當(dāng)人工智能尚不能被視為獨立的責(zé)任主體時,技術(shù)開發(fā)方對算法妨害負(fù)有主要責(zé)任,該責(zé)任僅當(dāng)其證明公共滋擾是由于算法運營商的不當(dāng)使用或拙劣修改而造成時才能得以免除。因自我迭代而“脫韁”的智能機器人造成的公共滋擾,可比照因“產(chǎn)品缺陷”而導(dǎo)致的無過錯侵權(quán)責(zé)任:受害人既可以向生產(chǎn)者(技術(shù)開發(fā)方)要求賠償,也可以向銷售者(算法運營商)要求賠償?!懊擁\”原因主要由哪一方造成,另一方有權(quán)向其追償。在智能機器人尚未獲得明確法律地位之前,確保其算法程序能夠被追蹤至自然人責(zé)任主體,比提升算法運營商和技術(shù)開發(fā)方的透明度要求更加重要。
注冊登記制度,是確保責(zé)任追蹤識別的良方妙藥。例如,2016年,美國聯(lián)邦法律要求,所有模型機以外的小型無人機都必須實名登記,有效減少了無人機利用的不當(dāng)行為。當(dāng)然,在人工智能領(lǐng)域,穿透技術(shù)黑箱的責(zé)任追蹤識別必然更加困難,但在技術(shù)上也并非完全不可行。美國證監(jiān)會和美國商品期貨交易委員會共同要求,所有人工智能投資顧問的底層算法,必須嵌入“法律識別標(biāo)識符”,防止算法運營商在算法中預(yù)置有損投資者利益的代碼。對于集成了多個算法程序的智能機器人,每個算法程序都應(yīng)當(dāng)自帶“法律識別標(biāo)識符”,算法之間必須遵循特定的業(yè)務(wù)關(guān)聯(lián)協(xié)議,且應(yīng)在主程序中寫入硬核編碼的審計日志,為未來可能的責(zé)任劃分留下充分記錄。
4. 保障個體受眾的主動退出機制
消除妨害是公共滋擾訴訟中最常適用的救濟(jì)手段。在人工智能語境下,受侵害方可以通過訴訟,請求算法侵害方利用技術(shù)手段消除影響、恢復(fù)名譽。
2012年1月,歐盟議會著手改革數(shù)據(jù)保護(hù)法規(guī),2018年5月,開始強制推行“全球最嚴(yán)”歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,下簡稱GDPR)。作為當(dāng)前波及面最廣、懲罰措施最嚴(yán)厲的全球性立法,GDPR賦予歐盟公民隨時訪問、刪除、更正、索取個人數(shù)據(jù)的權(quán)利,并對與歐盟客戶有任何形式業(yè)務(wù)往來的企業(yè)設(shè)置合規(guī)門檻,被稱為人工智能時代的“人權(quán)宣言”。我國可以借鑒歐盟以及西方主要發(fā)達(dá)國家的立法實踐,賦予受侵害方不受限制的擦除權(quán)和遺忘權(quán),以脫離算法妨害。
(三)算法妨害訴訟中的法益衡量標(biāo)準(zhǔn)
1. 提高算法侵害的免責(zé)門檻
面對公共滋擾的起訴,被告方常用“自尋滋擾”作為辯護(hù)理由,宣稱原告明知存在潛在危害卻仍然靠近,借此免除損害賠償責(zé)任。在人工智能時代,算法運營商對個人信息的采集采取了“自覺自愿”的誘導(dǎo)進(jìn)路,其對消費公眾的吸引力在于“免費”提供更“個性化”的服務(wù)。用戶同意網(wǎng)絡(luò)服務(wù)平臺和算法程序搜集、利用甚至分享個人數(shù)據(jù)已經(jīng)成為獲取各類基礎(chǔ)服務(wù)的必要前提,而算法運營商對信息搜集的終極用途三緘其口。通過用戶知情同意書、服務(wù)協(xié)議和各類免責(zé)條款,當(dāng)危害產(chǎn)生時,算法運營商可以輕易證明受害人“自尋滋擾”。即使對于與之沒有直接關(guān)系的第三方,被告也可以辯稱其服務(wù)和影響力是如此廣泛,已經(jīng)構(gòu)成潛在的“公共知識”,進(jìn)而批判原告沒有盡到適當(dāng)?shù)淖⒁饬x務(wù)。的確,在已經(jīng)深入滲透市民生活方方面面的算法面前,潛在的被侵害人難以脫離侵害的最終發(fā)生,脫離侵害就意味著完全喪失找工作、租房、醫(yī)療保險或參與任何日常生活中司空見慣的正?;顒拥幕緳?quán)利。
考慮到算法應(yīng)用給個體公民帶來的潛在脅迫,在以公共滋擾對算法妨害提起的民事訴訟中,被告不得以“自尋滋擾”為由得以免責(zé)。
2. 引入利益衡平機制
免責(zé)門檻的提升,并不是法律對算法運營商過度苛責(zé)。算法妨害的實質(zhì),是算法外部性擴(kuò)散引發(fā)的社會成本向普羅大眾和弱勢群體的不合理轉(zhuǎn)嫁。算法規(guī)制的終極目的,是在盡可能不犧牲社會總體福祉的基礎(chǔ)上,利用規(guī)則引導(dǎo)讓算法運營商、技術(shù)開發(fā)方自行消化算法外部性擴(kuò)散導(dǎo)致的社會成本。因此,法律應(yīng)兼顧“卡爾多-??怂沟男в米非蟆迸c“社會總體帕累托最優(yōu)”,合理促進(jìn)算法與社會的深度融合。
1970年,美國聯(lián)邦法院在“Boomer v. Atlantic Cement案”中首次引入成本收益分析模型,考察造成公共滋擾經(jīng)濟(jì)活動的社會效用以確定最終的賠償金額與方式。該案中的原告,代表全體土地所有人對水泥廠造成環(huán)境惡化提起訴訟;法院裁定水泥廠的工業(yè)污染構(gòu)成公共滋擾且承擔(dān)相應(yīng)責(zé)任。在該案的基礎(chǔ)上,法院在“Estancias Dallas Corporation v. Schultz案”中,發(fā)展出了用于比較訴訟雙方權(quán)益訴求的多重衡平測試:某商業(yè)公寓的中央空調(diào)系統(tǒng)的噪音構(gòu)成對周圍居民的公共滋擾,居民們遂向法院申請禁令。法院對證據(jù)進(jìn)行審核后,考慮到不安裝中央空調(diào),商業(yè)公寓根本無法對外租賃產(chǎn)生經(jīng)濟(jì)收益,但安裝靜音空調(diào)系統(tǒng)的開銷明顯大于周圍居民所受的可推算損失,法院因此駁回了居民群體申請禁令的請求,但判決商業(yè)公寓的管理人在安裝靜音空調(diào)系統(tǒng)前,每年對受滋擾居民持續(xù)支付總計1萬美元的賠償金。
法院的成本收益分析并不總將區(qū)域經(jīng)濟(jì)效益置于個人合法權(quán)益之上。1982年的“Prah v. Maretti案”,法院禁止被告在自己土地上建造高層公寓,因為過高的建筑將妨礙周圍居民樓的采光。法院裁定:被告對陽光的阻擋將妨礙周圍居民樓頂太陽能集熱器的正常使用,會對打算使用新能源設(shè)備的“一類人”,構(gòu)成公共滋擾。由此可見,在公共滋擾案件的審判實踐中,美國聯(lián)邦法院并非單一地在區(qū)域經(jīng)濟(jì)效益和個人合法權(quán)益之間作權(quán)衡取舍,也同時兼顧當(dāng)多個潛在個人合法權(quán)益受損時,整體社會效益的變化。當(dāng)公共滋擾對社會整體效益造成威脅時,不因個案中區(qū)域經(jīng)濟(jì)效益遠(yuǎn)甚于個人合法權(quán)益,就放任公共滋擾橫行;這是算法社會所需要的法律底線,也是人工智能時代必須遵循的基本原則。
當(dāng)經(jīng)濟(jì)實體更加依賴新技術(shù)以獲得市場競爭優(yōu)勢時,利用算法作出決策,會使公共部門、商業(yè)公司能夠更有力且更廉價地影響更大規(guī)模的受眾群體,反過來進(jìn)一步拓展以算法為核心的智能機器人在分組、歸類和決策上的速度、深度和廣度,進(jìn)而造成算法外部性擴(kuò)散升級。這些副作用就好比工廠活動的提升導(dǎo)致污染水平的提升,是商業(yè)繁榮和算法拓展互為因果造成的整體環(huán)境惡化。鑒于此,法律應(yīng)當(dāng)在技術(shù)發(fā)展與個體保護(hù)之間謹(jǐn)慎衡平,避免局部經(jīng)濟(jì)利益的雪球效應(yīng)顛覆社會整體效益。應(yīng)當(dāng)明確,內(nèi)部治理、消化算法自身的“污染”,是所有利用算法實現(xiàn)特定經(jīng)濟(jì)目的的公司和企業(yè)的基本社會責(zé)任。
四、結(jié)語
在大數(shù)據(jù)驅(qū)動算法語境下加強責(zé)任穿透,與國務(wù)院《新一代人工智能發(fā)展規(guī)劃》相一致。人工智能具有顯著溢出效應(yīng),合理運用能推動經(jīng)濟(jì)社會各領(lǐng)域從數(shù)字化、網(wǎng)絡(luò)化向智能化加速躍升并實現(xiàn)對社會、經(jīng)濟(jì)和生活的全面治理。先進(jìn)的法律制度可以為確保算法活動不至于具有脅迫性而建立防火墻,本質(zhì)上,這是一種對“治理的治理”。
在世界范圍內(nèi),至今尚不存在一套完整的規(guī)范人工智能法律制度。鑒于此,本論文從內(nèi)外兩個方面,就人工智能時代的責(zé)任歸宿的基本框架以及法益衡量提出了通用標(biāo)準(zhǔn)。從合同相對性出發(fā),算法社會的責(zé)任主體識別,宜遵循信息優(yōu)勢方承當(dāng)更大責(zé)任的基本原則。具體而言,算法運營商和算法開發(fā)商相較于算法受眾具有更大信息優(yōu)勢,在智能機器人不具有獨立法律地位之前,由算法運營商和算法技術(shù)開發(fā)商對智能機器人提供的算法服務(wù)造成的妨害全盤承擔(dān)民事責(zé)任;一旦智能機器人具有獨立法律地位,則可認(rèn)定智能機器人有優(yōu)于運營商和技術(shù)開發(fā)方的信息地位,由智能機器人與運營商、技術(shù)開發(fā)方共同承擔(dān)連帶責(zé)任。人工智能時代的責(zé)任和義務(wù)框架是以變應(yīng)變的。從合同外部關(guān)系出發(fā),算法活動除可能對合同直接當(dāng)事人造成“故意妨害”外,也可能對合同關(guān)系之外的普羅大眾造成“公共滋擾”。侵害個人權(quán)益的算法行為如果具有更高價值的法益,則應(yīng)當(dāng)被適當(dāng)允許,以促進(jìn)區(qū)域經(jīng)濟(jì)效益、鼓勵科技進(jìn)步;對個體權(quán)益的技術(shù)侵害因時間或范圍的疊加可能上升為對整體社會效益的累積侵蝕,那么,即使該算法活動具有較高的區(qū)域經(jīng)濟(jì)價值,也必須及時制止以防范系統(tǒng)性風(fēng)險。
Algorithm Regulation in the AI Era: Liability and Compliance
TANG Linyao
(Institute of Law, Chinese Academy of Social Sciences, Beijing 100009, China)Abstract:
With cloud data mining providing the fuel for algorithm activity, artificial intelligence robots are vividly becoming human agents in sophisticated commercial activities, reshaping the credit system of the society. Traditional fiduciary system is now facing critical challenges due to the lack of public legal infrastructure against regulatory arbitrage and big data rentseeking. In essence, algorithm nuisance is a special kind of public nuisance. In order to internalize unreasonable social costs associated with AI products, compliance obligations shall apply to all entities involved in AI production and utilization.
Key Words: ?artificial intelligence; algorithm activity; fiduciary duty; public nuisance; liability framework
本文責(zé)任編輯:李曉鋒
收稿日期:2019-11-02
基金項目:中國博士后科學(xué)基金資助項目(2019M650947);中國社會科學(xué)院博士后創(chuàng)新資助計劃成果
作者簡介:
唐林垚(1990),男,四川省成都人,中國社會科學(xué)院法學(xué)研究所助理研究員研究人員,法學(xué)博士。
① 1959年,馬文·明斯基(Marvin Minsky)在麻省理工學(xué)院建立第一個人工智能實驗室,距今正好60年。
② 本文中“監(jiān)管套利”指人工智能運用產(chǎn)生機器人取代自然人的新情況,導(dǎo)致制度、規(guī)章和法律缺失,算法營運商借機獲取超額利潤、轉(zhuǎn)嫁成本。