張凌寒
(東北師范大學(xué) 政法學(xué)院,吉林長春 130021)
人工智能時代,“算法”從只有計算機(jī)專業(yè)人員熟悉的術(shù)語,成為了人盡皆知的時代熱點。人們猛然發(fā)現(xiàn),算法已經(jīng)滲透到了社會生活的方方面面:Facebook的News Feed算法決定了大部分美國人的日常新聞閱讀內(nèi)容,廣泛普及的手機(jī)導(dǎo)航算法指引著路上的無數(shù)司機(jī),法官利用算法輔助對犯罪嫌疑人的量刑和假釋決定,[注]Northpoint公司開發(fā)的犯罪風(fēng)險評估算法COMPAS對犯罪人的再犯風(fēng)險進(jìn)行評估,并非出一個再犯風(fēng)險分?jǐn)?shù),法官可以據(jù)此決定犯罪人所遭受的刑罰。Kirchner, Julia Angwin Surya Mattu, Jeff Larson, Lauren. 2016. ‘Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks.’ ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. 2017年11月1日訪問。政府公共部門利用算法進(jìn)行行政管理以提高工作效率降低支出……算法正在全方位地推動著人類社會日常生活的運轉(zhuǎn),改變著人類的社會面貌。
究竟什么是算法?算法本質(zhì)是以數(shù)據(jù)為填充,通過計算步驟得到具體結(jié)果。算法的運算結(jié)果與算法設(shè)計、算法部署及應(yīng)用有關(guān)。算法看似是艱深的計算科學(xué)概念,實際上在計算機(jī)科學(xué)家看來,通過一系列步驟,用輸入的數(shù)據(jù)得到輸出的結(jié)果就是算法的本質(zhì)。從這個意義上來說,一份祖?zhèn)鞯氖匙V,一項招生政策,甚至人早上起床后決定穿什么出門的思維過程,都是具備了輸入、輸出、明確性、有限性和有效性要素的算法。[注]參見[美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,人民郵電出版社2014年版,第21頁。
本文旨在討論應(yīng)對算法法律地位的變化,法律如何做出因應(yīng)性變革。早在30年前,美國華爾街的股票商就開始利用算法進(jìn)行證券交易以獲得更高利潤。因此,有必要回溯對于算法造成的不利法律后果,當(dāng)時的法律是如何應(yīng)對規(guī)范的?近年來算法的技術(shù)發(fā)展和角色變化,又對既往的法律規(guī)制提出了哪些挑戰(zhàn)?法律應(yīng)如何回應(yīng)這些挑戰(zhàn)?
人工智能時代,算法憑借其在數(shù)據(jù)驅(qū)動下調(diào)配資源的力量,新晉為立法與理論關(guān)注的焦點。然而在此之前的互聯(lián)網(wǎng)時代,算法始終存在并發(fā)揮其作用。隨著算法技術(shù)發(fā)展與作用不斷更新,法律對算法引起的不利法律后果的調(diào)整規(guī)則也在不斷迭代。從算法規(guī)制迭代的梳理中,可以一窺算法法律地位的變遷。
互聯(lián)網(wǎng)1.0時代具體指網(wǎng)絡(luò)發(fā)展的前期,互聯(lián)網(wǎng)的主要特征是“聯(lián)”,互聯(lián)網(wǎng)作為信息傳輸?shù)那馈4藭r算法技術(shù)剛剛開始利用互聯(lián)網(wǎng)傳輸?shù)臄?shù)據(jù)的速度優(yōu)勢,改變傳統(tǒng)行業(yè)的運行規(guī)則。如算法直接運用于證券交易,以及利用自動內(nèi)容分發(fā)算法影響互聯(lián)網(wǎng)信息傳輸。
1.規(guī)制原因:算法技術(shù)初現(xiàn)于法律視野。法律規(guī)制算法應(yīng)用的事件最早發(fā)生于1987年。華爾街的證券交易商托馬斯·彼得非構(gòu)造了分層算法用來模仿證券交易員的操作,分層算法包含了交易員在決策時要考慮的全部因素。因為電腦運行算法、核實價格和執(zhí)行交易所用的時間要遠(yuǎn)遠(yuǎn)少于人為操作,彼得非獲得巨大的利潤。[注]參見[美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,人民郵電出版社2014年版,第22頁。納斯達(dá)克交易所注意到了彼得非在當(dāng)時非同尋常的交易速度、穩(wěn)定性與利潤率,因此派出調(diào)查員到其交易所,發(fā)現(xiàn)了裝有世界上第一臺全自動算法交易系統(tǒng)的IBM電腦。這套算法交易系統(tǒng)自動讀取納斯達(dá)克交易數(shù)據(jù),全權(quán)決定并執(zhí)行交易,再將交易單傳回納斯達(dá)克終端。
納斯達(dá)克交易所面臨的問題是:沒有相關(guān)規(guī)則的前提下,用算法代替人進(jìn)行交易是否合法?最終納斯達(dá)克交易所并未回答此問題,而是沿用原有規(guī)則要求必須通過鍵盤打字逐條輸入交易指令。但是彼得非用六天時間造出了自動化打字手柄,由手柄敲擊鍵盤以保證交易速度,規(guī)避了此條規(guī)則。隨后二十年算法自動交易系統(tǒng)逐漸統(tǒng)治了華爾街。
此時的法律并未將算法作為在設(shè)計法律制度時需要考量的對象,而是僅從技術(shù)的角度來討論算法技術(shù)應(yīng)用的行為是否合法。換句話說,此時算法還僅僅具有技術(shù)上的意義,而并不享有法律為其設(shè)定的規(guī)則。
2. 調(diào)整方式:沿用傳統(tǒng)嚴(yán)格責(zé)任制度。自動算法交易系統(tǒng)的險些夭折,充分顯示了互聯(lián)網(wǎng)1.0時代法律滯后性,法律規(guī)則并未作出因應(yīng)性調(diào)整,而是沿用該傳統(tǒng)規(guī)則。這也同樣體現(xiàn)在網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任認(rèn)定規(guī)則的發(fā)展歷程中。網(wǎng)絡(luò)服務(wù)提供者用算法來處理、排序用戶上傳的海量信息,而其中可能包括侵害著作權(quán)的文件。網(wǎng)絡(luò)服務(wù)提供者沒有進(jìn)行人工逐一嚴(yán)格審查而被訴侵權(quán)。1995年美國立法主張對網(wǎng)絡(luò)服務(wù)提供者適用關(guān)于傳播媒介的版權(quán)法規(guī)定,承擔(dān)直接侵權(quán)的嚴(yán)格責(zé)任。德國法院早期的判決也認(rèn)為網(wǎng)絡(luò)服務(wù)提供者有義務(wù)確保任何侵犯版權(quán)的行為不會在他的服務(wù)器中發(fā)生。[注]參見王遷:《論“信息定位服務(wù)”提供者“間接侵權(quán)”行為的認(rèn)定》,載《知識產(chǎn)權(quán)》 2006年第16期。這一規(guī)定加重了網(wǎng)絡(luò)服務(wù)提供者的法律責(zé)任,遭到了強(qiáng)烈反對。
3.算法地位:僅具技術(shù)上的意義。在互聯(lián)網(wǎng)1.0時代,算法尚未得到法律的針對性調(diào)整。算法應(yīng)用與人的行為被法律合并評價,即采用傳統(tǒng)規(guī)則來應(yīng)對算法的應(yīng)用。此時算法僅僅具有技術(shù)上的意義,而并不具有法律上的地位。這種規(guī)制模式帶來兩種截然相反的后果:其一,法律放任算法在某一領(lǐng)域的應(yīng)用,算法應(yīng)用在這一領(lǐng)域得到蓬勃發(fā)展進(jìn)而顛覆了整個行業(yè)。其二,法律用對行為人的評價機(jī)制來評價算法應(yīng)用,忽視了算法應(yīng)用的特點,阻礙了技術(shù)和行業(yè)的發(fā)展。這些都為互聯(lián)網(wǎng)2.0時代法律的變遷提供了驅(qū)動力。
互聯(lián)網(wǎng)2.0時代大約始于2000年,主要特征是“互”。網(wǎng)民之間、網(wǎng)絡(luò)與網(wǎng)民之間實現(xiàn)了“點對點”的互動,每個網(wǎng)民都可以成為信息來源,網(wǎng)站的角色從提供信息者變成了提供網(wǎng)絡(luò)服務(wù)者。互聯(lián)網(wǎng)2.0時代,法律逐步建立起一套完整的原則、規(guī)則與制度,來調(diào)整算法造成的不利法律后果。
1.升級原因:互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的抑制效應(yīng)。彼時由算法引發(fā)的不利法律后果的情況,多是網(wǎng)絡(luò)服務(wù)提供者提供算法(軟件或程序),供用戶或自身使用,造成對第三方的損害結(jié)果。此階段尤以版權(quán)侵權(quán)案例居多。WEB2. 0 技術(shù)的應(yīng)用和普及,使原來自上而下的網(wǎng)絡(luò)服務(wù)提供者集中控制主導(dǎo)的信息發(fā)布和傳播體系,逐漸轉(zhuǎn)變成了自下而上的由廣大用戶集體智能和力量主導(dǎo)的體系[注]參見胡泳:《眾聲喧嘩:網(wǎng)絡(luò)時代的個人表達(dá)與公共討論》,廣西師范大學(xué)出版社2008年版,第116頁。。經(jīng)過反復(fù)理論探討和實踐探索,立法者逐漸認(rèn)識到,原有的嚴(yán)格責(zé)任制度造成了互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的抑制效應(yīng),以DMCA為里程碑,美國法律對網(wǎng)絡(luò)服務(wù)提供者的著作權(quán)侵權(quán)責(zé)任規(guī)則原則上經(jīng)歷了“嚴(yán)格責(zé)任”到“過錯責(zé)任”的轉(zhuǎn)變[注]參見王遷:《信息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例中“避風(fēng)港”規(guī)則的效力》,載《法學(xué)》 2010年第6期。,以減輕網(wǎng)絡(luò)產(chǎn)業(yè)的負(fù)擔(dān)。
2.調(diào)整對象:算法設(shè)計。網(wǎng)絡(luò)服務(wù)提供者設(shè)計出算法后,或者提供給用戶使用,或者在自身網(wǎng)站上使用。算法如在這兩種情況下產(chǎn)生不利法律后果,法律均只評價網(wǎng)絡(luò)服務(wù)提供者在算法設(shè)計階段有無侵權(quán)的故意,如果沒有則無需承擔(dān)直接侵權(quán)責(zé)任。如2002年著名的Grokster案,被告公司開發(fā)的P2P軟件(算法)被用戶使用從事版權(quán)侵權(quán)活動,多家唱片公司起訴被告指控其提供軟件并獲利,應(yīng)承擔(dān)侵權(quán)責(zé)任[注]參見Metro-Goldwyn-Mayer Studios, Inc. v. Grokster, Ltd., 545U. S. 913 at948 (2005).。但法院認(rèn)為,P2P軟件具有“實質(zhì)性非侵權(quán)用途”,不能推定兩被告提供軟件的目的是幫助用戶進(jìn)行版權(quán)侵權(quán),因此不承擔(dān)侵權(quán)責(zé)任。
即使是網(wǎng)絡(luò)服務(wù)提供者自身使用算法造成了不利法律后果,法律也傾向于以算法設(shè)計時的主觀過錯狀態(tài)為標(biāo)準(zhǔn),判斷其是否構(gòu)成侵權(quán)。如2006年百代公司訴阿里巴巴案中,涉訴的算法應(yīng)用為搜索蜘蛛程序“自動在索引數(shù)據(jù)庫中進(jìn)行檢索及邏輯運算,以鏈接列表的方式給出搜索結(jié)果”[注]見北京市高級人民法院《(2007)高民初字第 1201號民事判決書》。。阿里巴巴辯稱其只是提供了搜索和鏈接服務(wù),第三方網(wǎng)站提供歌曲,因此自己并無侵權(quán)故意。據(jù)此,法院認(rèn)定被告涉案行為不構(gòu)成對信息網(wǎng)絡(luò)傳播權(quán)的直接侵權(quán)。案件經(jīng)二審后維持原判。
以上案例均顯示,在互聯(lián)網(wǎng)2.0階段,法院將算法設(shè)計作為調(diào)整對象。從時間節(jié)點上,法院只評價算法設(shè)計時是否具有侵權(quán)的故意;從因果關(guān)系上,只考察算法設(shè)計是否造成了損害結(jié)果,而不將算法應(yīng)用造成損害結(jié)果作為判斷要件。
3.調(diào)整方式:技術(shù)中立與間接責(zé)任。互聯(lián)網(wǎng)2.0時代,秉承既往索尼案確立的技術(shù)中立原則,逐步發(fā)展出間接侵權(quán)責(zé)任制度,以減輕網(wǎng)絡(luò)服務(wù)提供者負(fù)擔(dān)。技術(shù)中立的規(guī)則得到了國際廣泛認(rèn)同,在提供深層鏈接[注]如美國、澳大利亞等國版權(quán)法學(xué)界與實務(wù)界均認(rèn)為,提供指向侵權(quán)文件站點的鏈接并非“直接侵權(quán)”。有關(guān)搜索鏈接行為法律性質(zhì)的認(rèn)定對于信息定位鏈接行為不是“網(wǎng)絡(luò)傳播行為”、不構(gòu)成“直接侵權(quán)”的結(jié)論,在國際上是高度一致的。參見梁志文:《論版權(quán)法之間接侵權(quán)責(zé)任》,載《法學(xué)論壇》 2006年第5期。,提供信息定位服務(wù)[注]“信息定位服務(wù)”提供者一般有監(jiān)視被鏈接信息內(nèi)容的能力。因此,在早期的網(wǎng)絡(luò)侵權(quán)訴訟中, 法院通常會基于“信息定位服務(wù)”提供者沒有發(fā)現(xiàn)并及時制止他人利用自己的服務(wù)實施侵權(quán)而推定其至少存在過錯,應(yīng)當(dāng)承擔(dān)侵權(quán)法律責(zé)任。但隨著信息網(wǎng)絡(luò)技術(shù)的飛速發(fā)展, 法院這一“過錯推定”的做法極大地影響了網(wǎng)絡(luò)服務(wù)業(yè)的發(fā)展。法澄清適用于網(wǎng)絡(luò)環(huán)境的“幫助侵權(quán)”規(guī)則。美國《千禧年數(shù)字版權(quán)法》以及歐盟《電子商務(wù)指令》均一致規(guī)定:網(wǎng)絡(luò)服務(wù)商沒有監(jiān)視網(wǎng)絡(luò)、尋找侵權(quán)活動的義務(wù)。對此, 盡管我國尚未有法律明確承認(rèn)這一規(guī)則,但相關(guān)判例卻認(rèn)可了該規(guī)則。,空白搜索框[注]“空白搜索框”的搜索模式是,“信息定位服務(wù)商”通過設(shè)置搜索框向用戶提供其所選定的關(guān)鍵詞的搜索鏈接。在這種搜索模式下,搜索引擎按照用戶輸入的關(guān)鍵詞進(jìn)行自動查找并列出指向第三方網(wǎng)站或其中文件的鏈接,用戶選擇輸入什么樣的關(guān)鍵詞直接決定了其搜索信息的精確性,而不能決定該搜索出的信息是否侵權(quán)。換句話說,它可以搜索出任何內(nèi)容,搜索出的信息既可能是侵權(quán)的,也可能是公有領(lǐng)域的信息,或者經(jīng)權(quán)利人許可傳播的不侵權(quán)的內(nèi)容。因此,從這種意義上說,“空白搜索框”是一個中立的技術(shù)工具,具有“實質(zhì)性非侵權(quán)用途”。等多項技術(shù)的應(yīng)用是否構(gòu)成侵權(quán)時,均會引起一波理論探討熱潮,但最后各國一般均認(rèn)為這些算法應(yīng)用并不構(gòu)成網(wǎng)絡(luò)服務(wù)提供者的直接侵權(quán)。正如學(xué)者指出,如果將一項特定技術(shù)作為版權(quán)立法的依據(jù),由此產(chǎn)生的規(guī)則很難經(jīng)受技術(shù)發(fā)展的考驗,因此技術(shù)中立原則是立法所必須遵循的原則。[注]參見王遷:《“索尼案”二十年祭——回顧、反思與啟示》,載《科技與法律》2004年第4期。
法律責(zé)任的設(shè)置則根據(jù)算法設(shè)計時主觀過錯不同區(qū)分為直接侵權(quán)與間接侵權(quán)。[注]參見梅夏英、劉明:《網(wǎng)絡(luò)侵權(quán)歸責(zé)的現(xiàn)實制約及價值考量——以侵權(quán)責(zé)任法第36條為切入點》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2013年第2期。美國《千禧年數(shù)字版權(quán)法》以及歐盟《電子商務(wù)指令》也均一致認(rèn)定“幫助侵權(quán)”規(guī)則的前提:網(wǎng)絡(luò)服務(wù)商沒有監(jiān)視網(wǎng)絡(luò)、尋找侵權(quán)活動的義務(wù),此規(guī)則在我國也得到了相關(guān)判例的認(rèn)可。這充分體現(xiàn),算法運行后,網(wǎng)絡(luò)服務(wù)提供者只承擔(dān)運行環(huán)境的安全保障義務(wù)。當(dāng)算法應(yīng)用造成了不利后果時,網(wǎng)絡(luò)服務(wù)提供者只承擔(dān)未盡到注意義務(wù)的間接侵權(quán)責(zé)任。
4.算法地位:產(chǎn)品化的算法。將算法設(shè)計作為調(diào)整對象,確立技術(shù)中立原則和間接責(zé)任體系,體現(xiàn)了算法作為技術(shù)產(chǎn)品的法律地位。算法一旦“生產(chǎn)完畢”,其部署和應(yīng)用即不再對侵權(quán)行為的認(rèn)定產(chǎn)生直接影響。如此,一方面能夠鼓勵技術(shù)發(fā)展;另一方面能減輕網(wǎng)絡(luò)服務(wù)提供者為算法應(yīng)用和部署承擔(dān)的責(zé)任,促進(jìn)互聯(lián)網(wǎng)產(chǎn)業(yè)的發(fā)展。縱觀互聯(lián)網(wǎng)2.0時期的諸多知識產(chǎn)權(quán)領(lǐng)域的經(jīng)典案例,基調(diào)是各國立法者和司法者疲于應(yīng)對層出不窮的最新算法技術(shù)。
2008年之后,互聯(lián)網(wǎng)2.0進(jìn)入自己的平臺時代,大型網(wǎng)絡(luò)服務(wù)提供者演化為網(wǎng)絡(luò)平臺逐漸崛起[注]互聯(lián)網(wǎng)平臺,也被稱為互聯(lián)網(wǎng)服務(wù)提供商。相關(guān)研究可參見周漢華:《論互聯(lián)網(wǎng)法》,載《中國法學(xué)》2015年第3期。。如果說互聯(lián)網(wǎng)時代的關(guān)鍵詞是“互”,平臺時代的關(guān)鍵詞則是“融”。網(wǎng)絡(luò)平臺逐漸超越了互聯(lián)網(wǎng)服務(wù)提供者的角色,成為了網(wǎng)絡(luò)空間規(guī)則的制定者和執(zhí)行者。算法實質(zhì)上主宰了網(wǎng)絡(luò)空間日常運營,其角色和地位的變化催生了一系列理論與實踐的變化。
1.升級原因:平臺私權(quán)力的崛起?;ヂ?lián)網(wǎng)平臺經(jīng)濟(jì)大規(guī)模崛起, Facebook、Twitter、阿里巴巴、騰訊等一系列大型互聯(lián)網(wǎng)公司快速崛起,社交類平臺和電商平臺迅速升溫。平臺影響日益深遠(yuǎn),網(wǎng)絡(luò)空間成為了虛擬場域。在此虛擬場域中,算法實際上承擔(dān)了網(wǎng)絡(luò)空間的日常治理。而公權(quán)力此時由于技術(shù)力量和手段的限制,疲于應(yīng)對網(wǎng)絡(luò)空間監(jiān)管。對網(wǎng)絡(luò)交易中的違法行為或自媒體中的失范言論,網(wǎng)絡(luò)平臺擁有最便利的發(fā)現(xiàn)和限制能力,它是成本最低的違法行為的控制者。為加強(qiáng)對網(wǎng)絡(luò)空間的監(jiān)管與治理,實踐中立法與司法逐漸摒棄了算法作為“技術(shù)產(chǎn)品”的中立性法律地位,通過加強(qiáng)平臺與算法之間的關(guān)系,要求平臺承擔(dān)法律責(zé)任。
2. 調(diào)整對象:算法設(shè)計與算法部署應(yīng)用。在網(wǎng)絡(luò)平臺時代,法律的調(diào)整對象除了算法設(shè)計,也擴(kuò)張至平臺對于算法的部署和應(yīng)用。當(dāng)算法不利法律后果發(fā)生后,法律不再秉持技術(shù)中立理念。除了考察算法設(shè)計的行為外,也要求平臺對算法部署和應(yīng)用的不當(dāng)承擔(dān)法律責(zé)任。如2015 年,國家工商總局發(fā)布 《關(guān)于對阿里巴巴集團(tuán)進(jìn)行行政指導(dǎo)工作情況的白皮書》(以下簡稱《白皮書》)[注]轉(zhuǎn)引自趙鵬:《私人審查的界限——論網(wǎng)絡(luò)交易平臺對用戶內(nèi)容的行政責(zé)任》,載《清華法學(xué)》2016年第6期。,直指阿里巴巴縱容平臺用戶銷售侵權(quán)和違禁商品。雖然未直接啟動行政處罰,這一行為仍然引發(fā)阿里巴巴市值在四天內(nèi)蒸發(fā)367. 53 億美元,并導(dǎo)致針對阿里巴巴的證券欺詐訴訟等連鎖反應(yīng)。國家工商總局在《白皮書》中指出阿里存在“涉嫌在明知、應(yīng)知、故意或過失等情況下為無照經(jīng)營、商標(biāo)侵權(quán)、虛假宣傳、傳銷、消費侵權(quán)等行為提供便利、實施條件”,而這種便利和幫助是由阿里部署算法提供的。自動分類、提供搜索工具算法,幫助消費者搜索相關(guān)產(chǎn)品和服務(wù),客觀上幫助了違法行為的實施[注]參見趙鵬:《私人審查的界限——論網(wǎng)絡(luò)交易平臺對用戶內(nèi)容的行政責(zé)任》,載《清華法學(xué)》2016年第6期。。
無獨有偶,國外的學(xué)者也不再堅持技術(shù)中立,而是認(rèn)為平臺通過算法的部署,對交易產(chǎn)生了重大影響?!熬W(wǎng)絡(luò)交易平臺的角色已經(jīng)遠(yuǎn)非如單純信息傳送通道一樣消極和中立,它們在商品和服務(wù)展示、交易規(guī)則安排、商品和服務(wù)評價、商戶信用評價等方面均扮演了非常積極的角色。這些積極的角色增加了用戶已有內(nèi)容的價值并在很大程度上塑造了交易秩序”。[注]參見Hogan B.The presentation of self in the age of social media: Distinguishing performances and exhibitions online. Bulletin of Science, Technology & Society, 2010, 30(6): 377-386.
3. 責(zé)任方式:平臺責(zé)任擴(kuò)張。對于算法造成的不利后果,在沿用網(wǎng)絡(luò)服務(wù)提供者的間接侵權(quán)責(zé)任制度外,世界各國均加強(qiáng)了對網(wǎng)絡(luò)平臺的責(zé)任,以調(diào)整平臺對算法的部署和應(yīng)用。從時間節(jié)點上,平臺承擔(dān)法律責(zé)任從“設(shè)計開發(fā)時”延伸至算法應(yīng)用產(chǎn)生損害結(jié)果時。從因果關(guān)系上,不再局限于算法設(shè)計與損害結(jié)果的因果關(guān)系,而是擴(kuò)展至算法部署和應(yīng)用與損害結(jié)果是否存在因果關(guān)系。
除了世界各國要求電商平臺就不當(dāng)?shù)乃惴ú渴鸷蛻?yīng)用造成的違法交易承擔(dān)法律責(zé)任外,2016 年以來很多國家開始要求社交媒體平臺主動承擔(dān)監(jiān)控義務(wù),對用戶上傳的恐怖、色情、仇恨等非法內(nèi)容加強(qiáng)監(jiān)管并承擔(dān)法律責(zé)任。[注]為加強(qiáng)網(wǎng)絡(luò)言論管理,德國聯(lián)邦議會周五通過了新的網(wǎng)絡(luò)管理法,新法將于 10 月正式實施。在此法律下,F(xiàn)acebook 等社交媒體未能 在 24 小時內(nèi)刪除“顯而易見的非法內(nèi)容”——包括仇恨性言論、誹謗及煽動暴力等。http://finance.sina.com.cn/roll/2017-07-01/doc- ifyhryex5667798.shtml 2017 年 7 月 15 日訪問。印尼要求社交媒體關(guān)閉宣揚極端言論的賬戶。印尼通信部長警告社交媒體不關(guān)閉激進(jìn)內(nèi)容賬戶將被阻止共享 http://finance.sina.com.cn/roll/2017-07-01/doc-ifyhryex5667798.shtml 2017 年 7 月 12 日訪問。我國國家網(wǎng)信辦明確提出,采取“強(qiáng)雙責(zé)”的方針——強(qiáng)化網(wǎng)絡(luò)平臺的主體責(zé)任與社會責(zé)任。[注]參見《強(qiáng)化網(wǎng)站主體責(zé)任正當(dāng)時》,中華人民共和國互聯(lián)網(wǎng)信息辦公室官方網(wǎng)站,http://www.cac.gov.cn/2016- 12/22/c_1120166441.htm 2017 年 7 月 15 日訪問。平臺責(zé)任制度在世界范圍內(nèi)廣泛應(yīng)用。
4. 算法地位:工具化的算法。互聯(lián)網(wǎng)2.0時代,網(wǎng)絡(luò)平臺不僅要對算法的設(shè)計負(fù)起責(zé)任,同樣也要對算法在部署和應(yīng)用中產(chǎn)生的不利法律后果承擔(dān)責(zé)任。此種規(guī)則的設(shè)置隱含了將算法作為網(wǎng)絡(luò)平臺工具的假設(shè)。換句話說,此種法律規(guī)則默認(rèn)平臺不僅能夠控制算法設(shè)計,也能夠控制算法的應(yīng)用過程和結(jié)果。以算法部署和應(yīng)用作為調(diào)整對象,設(shè)置網(wǎng)絡(luò)平臺責(zé)任,是公權(quán)力治理網(wǎng)絡(luò)空間力有不逮的無奈之舉,也是對網(wǎng)絡(luò)平臺技術(shù)權(quán)力擴(kuò)張的因應(yīng)性變革。但是,要求平臺為算法部署和應(yīng)用的不利后果承擔(dān)責(zé)任,可能存在以下隱患:(1)沒有評判算法部署和應(yīng)用是否合理的法定標(biāo)準(zhǔn),平臺責(zé)任范疇模糊,往往以違法行為數(shù)量巨大來論證平臺過錯。(2)僅僅設(shè)置平臺責(zé)任無法涵蓋算法的全部應(yīng)用范圍。在社會公共管理中算法也存在廣泛應(yīng)用,這類部署和應(yīng)用的不當(dāng)平臺責(zé)任無法覆蓋。
縱觀算法規(guī)制的歷史,算法的法律地位隨著互聯(lián)網(wǎng)的時代變遷和技術(shù)的發(fā)展而進(jìn)化。從僅具有技術(shù)意義的算法到具有法律意義的算法,法律對于算法的地位功能假設(shè)也從產(chǎn)品化的算法迭代為工具化的算法。相應(yīng)地,從沿用傳統(tǒng)規(guī)則到技術(shù)中立原則,再到平臺責(zé)任的加強(qiáng)與擴(kuò)張,法律規(guī)則也應(yīng)對算法功能地位的變化做出因應(yīng)性的調(diào)整。隨著智能時代的來臨,大數(shù)據(jù)和深度學(xué)習(xí)算法技術(shù)的進(jìn)一步發(fā)展,原有的法律規(guī)則已無法應(yīng)對算法地位功能的進(jìn)一步發(fā)展,新的算法規(guī)制在算法技術(shù)的發(fā)展下呼之欲出。
人工智能時代已如浪潮般襲來,各類平臺在利用算法不斷智能化升級,融入性進(jìn)化。依據(jù)“奧康剃刀”(如無必要,勿增實體)原則,對算法規(guī)制的擴(kuò)用的思路是充分保留原有制度,同時創(chuàng)制必要制度,以應(yīng)對算法技術(shù)與作用的演進(jìn)。
智能時代,隨著大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的發(fā)展,以及算法在互聯(lián)網(wǎng)平臺和社會治理中的廣泛應(yīng)用,法律應(yīng)調(diào)整的對象發(fā)生了變化,算法的法律地位進(jìn)一步演進(jìn)。
1. 調(diào)整對象的增加:算法自主決策。在互聯(lián)網(wǎng)時代工具化算法的情況下,算法經(jīng)由人的設(shè)計開發(fā)、部署應(yīng)用行為發(fā)揮效力。例如,在電商平臺上,對搜索算法和推薦商品算法的設(shè)計開發(fā)、部署應(yīng)用兩個步驟,決定了用戶可以收到怎樣的商品推薦結(jié)果。醫(yī)院委托科技企業(yè)進(jìn)行算法(門診系統(tǒng))開發(fā),進(jìn)而使用算法,以幫助提高效率。開發(fā)者和使用者對算法都具有較高的控制力,能夠預(yù)測算法產(chǎn)生的后果并對算法決策結(jié)果給出解釋。相應(yīng)的,法律對于算法造成的不利法律后果,評價對象為在人對算法的開發(fā)或部署行為中是否存在過錯,以確定算法開發(fā)者或部署者的法律責(zé)任。
隨著大數(shù)據(jù)算法的技術(shù)迭代以及部署和運用的平臺化,基于數(shù)據(jù)的技術(shù)運算迅速成長為一種擁有資源配置的新興社會力量。[注]參見Diakopoulos, N. Algorithmic accountability: journalistic investigation of computational power structures. Digit. Journal. 3(3), 398-415 (2015) .算法逐漸脫離了純粹的工具性角色,而有了自主性和認(rèn)知特征,甚至具備了自我學(xué)習(xí)的能力。這使得算法對現(xiàn)實社會和個人發(fā)生效力的流程,在算法設(shè)計(指設(shè)計者進(jìn)行初始編碼,進(jìn)行開發(fā)算法的訓(xùn)練數(shù)據(jù)和管理的行為)、算法應(yīng)用和部署(指網(wǎng)絡(luò)平臺之部署應(yīng)用算法的行為)之外,增加了一步,即算法本身自主決策。換句話說,算法作為決策者,其決策原因和推理過程對于人類處于黑箱之中。智能算法的自主決策,使得算法從提高效率的“工具”上升為“決策者”。[注]Ben Wagner, Efficiency vs. Accountability? - Algorithms, Big Data and Public Administration.https://cihr.eu/efficiency-vs-accountability-algorithms-big-data-and-public-administration/ 2017年12月14日訪問。2017年的Loomis案件中,被告人認(rèn)為法院使用的COMPASS算法對其進(jìn)行的犯罪風(fēng)險評估包含種族歧視,起訴要求評估算法。[注]2016年,一名叫 Eric L.Loomis的被告人被判處了 6 年有期徒刑,部分原因是COMPAS認(rèn)定他為“高風(fēng)險”。Loomis認(rèn)為法官對量刑算法的依賴侵害了他的法定訴訟權(quán)益。他提出審查COMPAS算法的請求,被威斯康辛州立法院駁回,提交給美國最高法院后也于2017年6月宣告訴訟失敗 。參見《紅星專訪美國機(jī)器判案法院:機(jī)器說你有罪,你果然有罪》,http://3g.163.com/news/article/CK3OKBQF0514ADND.html.對被告發(fā)生法律效力的算法則經(jīng)過了公司的算法開發(fā)行為、法院算法的部署行為、以及算法自動決策三個層次。其分離算法的黑箱使得算法決策過程和因素不被人所理解,而算法決策作為單獨的步驟,與人的行為相分離。
2.算法地位的演進(jìn):本體化的算法。算法的法律地位隨著算法自主決策能力越來越強(qiáng)而演進(jìn),算法已經(jīng)從平臺的工具演變?yōu)榫哂凶灾鳑Q策能力的“決策者”,成為本體化的算法。本體化的算法的效力,體現(xiàn)在算法的自主決策一方面不可被人類完全理解和解釋,另一方面具有直接的法律效力。例如,淘寶的算法對用戶的支付寶賬戶采取取消收款、資金止付等強(qiáng)制措施,用戶推翻其決策要舉證其決定錯誤[注]淘寶自動化決策對用戶違約的認(rèn)定(6.1),“6.1淘寶可在淘寶平臺規(guī)則中約定違約認(rèn)定的程序和標(biāo)準(zhǔn)。如:淘寶可依據(jù)您的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關(guān)系來認(rèn)定您是否構(gòu)成違約;您有義務(wù)對您的數(shù)據(jù)異常現(xiàn)象進(jìn)行充分舉證和合理解釋,否則將被認(rèn)定為違約?!币姟短詫毱脚_服務(wù)協(xié)議全文(2016年10月版)》,http://b2b.toocle.com/detail--6361764.html,2017年11月23日訪問。。甚至算法直接扮演了執(zhí)法者的決策角色,如美國聯(lián)邦尋親處的算法錯誤地將56歲的瓦爾特·福爾摩認(rèn)定為“拒付撫養(yǎng)費的父母”,而直接給其開出了定額20.6萬美元的撫養(yǎng)費罰單。[注]參見[美]盧克·多梅爾:《算法時代:新經(jīng)濟(jì)的新引擎》,胡小銳、鐘毅譯,中信出版社2016年版,第87頁。算法與人的行為的分離,其法律意蘊在于人的行為與引發(fā)的責(zé)任的分離,[注]參見Gillespie, T. Algorithms(digital keywords).(2014) available at http://culturedigitally.org/2014/06/algorithm-draft-digitalkeyword/。傳統(tǒng)的人的行為——責(zé)任的邏輯鏈條被算法的自動決策切斷。
同時,算法借由私營平臺和社會公共部門,深度嵌入社會運行,實現(xiàn)了無孔不入的構(gòu)建、干預(yù)、引導(dǎo)和改造。算法在接管人類讓渡的決策權(quán)。有學(xué)者指出,私營企業(yè)和政府公共部門采用算法和大數(shù)據(jù)做出的自動決策,使得數(shù)百萬人無法獲得保險、貸款、出租房屋等一系列服務(wù)。然而,算法不公開、不接受質(zhì)詢,不提供解釋、不進(jìn)行救濟(jì),相對人無從知曉決策的原因,更遑論“改正”的機(jī)會,這種情況被學(xué)者稱為“算法暴政”。[注]參見Lepri B, Staiano J, Sangokoya D:The Tyranny of Data? The Bright and Dark Sides of Data-Driven Decision-Making for Social Good, Transparent Data Mining for Big and Small Data. Springer International Publishing, 2017: 3-24.
本體化算法的不可解釋性對現(xiàn)有的法律責(zé)任體系適用困難,本體化算法也對社會的結(jié)構(gòu)性嵌入對傳統(tǒng)的場景化規(guī)制提出了挑戰(zhàn)。這些使得原有的民事間接責(zé)任加平臺責(zé)任模式不敷適用,并造成了平臺運行與公眾利益的隔離,這些問題驅(qū)動算法規(guī)制再次迭代。
1. 算法的不可解釋性對現(xiàn)有法律責(zé)任的逃逸。在現(xiàn)行的法律責(zé)任制度,平臺公司往往主張拒絕對算法設(shè)計、部署和應(yīng)用的不當(dāng)承擔(dān)責(zé)任。原因在于:(1)平臺可以主張用戶通過平臺服務(wù)協(xié)議對面臨的算法自動化決策知情同意,[注]參見胡凌:《人工智能視閾下的網(wǎng)絡(luò)法核心問題》,載《中國法律評論》2018年第2期。因此基于算法對用戶造成的損害無需承擔(dān)責(zé)任。如淘寶網(wǎng)的用戶協(xié)議要求用戶接受自動化決策對于違約行為、支付風(fēng)險的判定結(jié)果。“淘寶可依據(jù)您的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關(guān)系來認(rèn)定您是否構(gòu)成違約:您有義務(wù)對您的數(shù)據(jù)異?,F(xiàn)象進(jìn)行充分舉證和合理解釋,否則將被認(rèn)定為違約”。[注]淘寶自動化決策對用戶違約的認(rèn)定(6.1),“6.1淘寶可在淘寶平臺規(guī)則中約定違約認(rèn)定的程序和標(biāo)準(zhǔn)。如:淘寶可依據(jù)您的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關(guān)系來認(rèn)定您是否構(gòu)成違約;您有義務(wù)對您的數(shù)據(jù)異?,F(xiàn)象進(jìn)行充分舉證和合理解釋,否則將被認(rèn)定為違約?!币姟短詫毱脚_服務(wù)協(xié)議全文(2016年10月版)》,http://b2b.toocle.com/detail--6361764.html,2017年11月23日訪問。(2)算法決策的使用者一般主張算法錯誤為客觀“技術(shù)錯誤”而非主觀錯誤,因此無需承擔(dān)侵權(quán)責(zé)任。而以普通民眾的技術(shù)能力證明其使用的算法確實存在嵌入的偏見和數(shù)據(jù)的濫用,極不現(xiàn)實。自動化決策實際上是根據(jù)數(shù)據(jù)得出的一個運算結(jié)果,包括平臺公司也只能看到輸入的數(shù)據(jù)以及得出的結(jié)果,而對中間的運算過程則一概不甚明了。(3)用戶如果請求平臺提供自動化決策的解釋,自動化決策的算法的平臺公司都可以商業(yè)秘密為抗辯理由拒絕公開決策的內(nèi)容和理由。即使在支持?jǐn)?shù)據(jù)控制者對用戶有一定信息披露義務(wù)的歐洲,適用于自動化決策的算法訪問權(quán)限的限制,尚未在歐洲各地的法院的判例中得到普遍的明確范圍。
2. 算法嵌入性結(jié)構(gòu)擴(kuò)張導(dǎo)致場景化規(guī)制的困境。算法對除平臺以外的社會結(jié)構(gòu)實現(xiàn)深度的結(jié)構(gòu)性嵌入,僅以平臺責(zé)任作為規(guī)制算法的路徑,存在以下困境:(1)以具體人和公司為調(diào)整對象的法律體系,仍適用于具體算法應(yīng)用場景,規(guī)制效率較為低下。當(dāng)數(shù)據(jù)流動共享機(jī)制和復(fù)雜的算法生態(tài)形成后,場景化規(guī)制則捉襟見肘;(2)算法的使用已經(jīng)逐漸脫離平臺系統(tǒng),尤其進(jìn)入公共部門應(yīng)用于社會治理時,一方面,公共部門沒有平臺一樣程度的算法控制能力;另一方面系統(tǒng)性損害風(fēng)險增大。如2007年4月,來自私營公司的程序員將900多條不正確的規(guī)則植入美國科羅拉多州的公共福利系統(tǒng),而由于程序員缺乏相關(guān)的背景知識,導(dǎo)致誤讀法律致使成千上萬的人遭受不公平的對待。這些錯誤包括把“無家可歸”解讀為“行乞為生”,導(dǎo)致一位失去住所流落街頭的60歲婦女在申請增加食品券數(shù)量時遭到多次拒絕,原因是系統(tǒng)認(rèn)定其為乞丐。最終為了繞開錯誤,資質(zhì)審查人員不得不輸入虛假數(shù)據(jù)。[注]參見Pasquale F. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.算法嵌入性的結(jié)構(gòu)擴(kuò)張,使場景化的規(guī)制手段已無法充分保護(hù)公眾權(quán)益。
3. 算法平臺化運行與公共利益的隔離。在人工智能時代,公共領(lǐng)域和私人領(lǐng)域早已被模糊。即使是私人公司開發(fā)和使用的算法,也往往承載了公共利益價值。例如,私營公司谷歌開發(fā)的google flu算法可以預(yù)測疾病的爆發(fā),具有極強(qiáng)的公共衛(wèi)生價值。2018年Facebook的用戶隱私數(shù)據(jù)被私人公司算法用于美國競選的事件也充分說明,私人公司的行為早已承載了公共利益的價值,甚至直接影響了政治走向。
然而,算法搭載于商業(yè)開發(fā),往往作為公司專有產(chǎn)品和服務(wù)的一部分,這種情況下規(guī)制算法有干預(yù)商業(yè)自由之嫌;這使得算法權(quán)力受到現(xiàn)有制度的保護(hù),甚至直接造成了公共利益的損害。引起廣泛關(guān)注的“大數(shù)據(jù)殺熟”事件即使得消費者受到價格反向歧視,無法享受平等公開的商業(yè)服務(wù)。同樣,在Facebook的數(shù)據(jù)泄漏事件中,劍橋分析始終表示“我們沒有破解 Facebook 或違反任何法律”[注]相反,劍橋分析還表示,它的政治部門 SCL Elections 公司是從一家公司獲得的授權(quán)數(shù)據(jù),這家公司是通過 Facebook 提供的工具獲取數(shù)據(jù)——這是“當(dāng)時的普遍做法”。http://36kr.com/p/5128498.html,2018年6月20日訪問。,可見現(xiàn)行對公司有關(guān)算法和數(shù)據(jù)的法律規(guī)制遠(yuǎn)遠(yuǎn)無法保護(hù)公共利益。
以上分析顯示,現(xiàn)有法律制度針對算法的場景化規(guī)制、責(zé)任平臺化、標(biāo)準(zhǔn)私益化問題十分嚴(yán)重,與當(dāng)下算法的嵌入性結(jié)構(gòu)擴(kuò)張、社會全層面覆蓋等特性嚴(yán)重不符。根據(jù)算法的技術(shù)性優(yōu)勢和結(jié)構(gòu)性特征盡快升級算法規(guī)制迫在眉睫。
技術(shù)發(fā)展帶來的科林格里奇困境(collingridge dilemma)使及時性的立法供給顯得日趨緊迫。這一困境警示我們,當(dāng)一項技術(shù)的社會后果不能在技術(shù)生命的早期被預(yù)料到而加以及時調(diào)控和規(guī)制時,技術(shù)的普及和應(yīng)用將使其成為經(jīng)濟(jì)和社會結(jié)構(gòu)的一部分,由于對負(fù)面結(jié)果的控制變得昂貴、困難和消耗時間,以致難以或者不能改變。[注]參見張欣:《數(shù)字經(jīng)濟(jì)時代公共話語格局變遷的新圖景——平臺驅(qū)動型參與的興起、特征與機(jī)制》,載《中國法律評論》2018年第2期。本文對智能時代算法的本體化演進(jìn)及法律規(guī)制的不足,主張應(yīng)建立規(guī)制路徑的雙軌制,具體包括:
1.調(diào)整對象的升級:增加算法自主決策。本文上一部分梳理法律對算法規(guī)制的調(diào)整對象,無論是算法設(shè)計還是算法的部署應(yīng)用,均以算法的運行結(jié)果作為規(guī)制啟動的原因。算法的運行結(jié)果包括出于侵權(quán)目的進(jìn)行算法設(shè)計,未盡到合理注意義務(wù)進(jìn)行算法部署和應(yīng)用等。這種規(guī)制方法顯然無法應(yīng)對算法地位的演進(jìn)。因此,有必要建立算法規(guī)制調(diào)整對象的雙軌制,既調(diào)整算法設(shè)計與部署應(yīng)用的結(jié)果,也調(diào)整算法自主決策本身。調(diào)整對象的升級帶來以下規(guī)制發(fā)展。
(1)指向算法本身增強(qiáng)風(fēng)險防范。結(jié)果監(jiān)管指向內(nèi)容審查,而對預(yù)防性監(jiān)管則必然指向?qū)λ惴ū旧磉M(jìn)行審查。這就意味著監(jiān)管審查的對象,從單軌的內(nèi)容監(jiān)管應(yīng)轉(zhuǎn)化為內(nèi)容與算法的雙軌制監(jiān)管。這種監(jiān)管以算法為目標(biāo),以預(yù)防技術(shù)產(chǎn)生的負(fù)面效應(yīng)或副作用。[注]參見張凌寒:《風(fēng)險防范下算法的監(jiān)管路徑研究》,載《交大法學(xué)》2018年第4期。算法從工具到?jīng)Q策者的角色的轉(zhuǎn)化,要求必須在算法投入使用前就進(jìn)行充分地考察以加強(qiáng)風(fēng)險防范 。
(2)突破規(guī)制企業(yè)行為進(jìn)行算法規(guī)制。監(jiān)管部門設(shè)立一系列規(guī)則尋求規(guī)范的是企業(yè)行為,而非算法本身,在算法自動化決策日益自主化的情況下,除沿用規(guī)制企業(yè)行為外,應(yīng)進(jìn)階直接對算法本身進(jìn)行規(guī)制。例如在我國2019年實施的《電子商務(wù)法》中,立法者直接算法的設(shè)計和部署進(jìn)行規(guī)則,要求電商平臺的算法能夠為消費者提供自然搜索結(jié)果。隨著算法將現(xiàn)實社會上傳為無形化、數(shù)字化、虛擬化的場景,并對社會進(jìn)行切割和提供海量定制式規(guī)則,算法必然將成為立法的直接調(diào)整對象。
2. 責(zé)任承擔(dān)的雙軌制:平臺責(zé)任與技術(shù)責(zé)任。以上規(guī)制對象的變化,必然引起法律責(zé)任設(shè)置的變化。應(yīng)繼續(xù)沿用現(xiàn)有的平臺責(zé)任,平臺作為社會大量算法設(shè)計、部署和應(yīng)用的場景應(yīng)負(fù)有相應(yīng)的法律責(zé)任。但為了彌補平臺責(zé)任規(guī)制場景化、標(biāo)準(zhǔn)私益化、責(zé)任主體有限性等問題,應(yīng)及時針對算法作為調(diào)整對象的法律,建立技術(shù)責(zé)任制度。技術(shù)責(zé)任意指機(jī)器倫理、法律責(zé)任的設(shè)置應(yīng)圍繞技術(shù)的運行,而非不論網(wǎng)絡(luò)平臺與算法的關(guān)系,一味由平臺承擔(dān)責(zé)任。
(1)技術(shù)責(zé)任制度專任化。由于專業(yè)知識的障礙,之前的算法規(guī)制一般由專業(yè)部門進(jìn)行,如在美國對高頻交易算法由金融市場行為管理局(FCA)執(zhí)行。隨著機(jī)器深度學(xué)習(xí)技術(shù)的發(fā)展,算法自動化決策的黑箱飽受詬病,也被認(rèn)為是對算法進(jìn)行規(guī)制的主要障礙。[注]參見Pasquale F. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.為避免將司法者陷入未知境地,各國普遍傾向于采用成立專業(yè)委員會來對算法進(jìn)行規(guī)制。無論是機(jī)器學(xué)習(xí)委員會[注]參見Geoff Mulgan:A machine intelligence commission for the UK, Mulgan, https://www.nesta.org.uk/team/geoff-mulgan/.,美國紐約市政府的專業(yè)委員會[注]參見Devin Coldewey:NewYork City moves to establish algorithm-monitoring task force. https://techcrunch.com/2017/12/12/new-york-city-moves-to-establish-algorithm-monitoring-task-force/2018年6月18日訪問。,還是美國國家算法安全委員會[注]參見Macaulay T. Pioneering computer scientist calls for National Algorithm Safety Board. 2017,201.,都體現(xiàn)了專業(yè)規(guī)制的思路。對于算法透明度的評估、是否有歧視可能、以及對可疑結(jié)果的回溯都需要專業(yè)委員會提供咨詢意見甚或直接執(zhí)行,方可保證規(guī)制有效性。
非生育期覆膜對河套灌區(qū)鹽堿地耕作層鹽分的影響…… 杜 超,溫埃清,李 軍,柴玉鑫,王 剛,任志遠(yuǎn),張俊峰,鄔雪瑞(50)
(2)技術(shù)責(zé)任的救濟(jì)原則。然而,算法的技術(shù)性要求規(guī)制的專業(yè)性,但同時也應(yīng)警惕社會精英化對公共利益的背離。有學(xué)者甚至悲觀的預(yù)見,這種技術(shù)資源上的差異將使得富有的精英能夠設(shè)計他們自身或者他們的后代,使其成為生理和心理能力都更為高等的“超人”,人類先前的社會經(jīng)濟(jì)階層系統(tǒng)可能會轉(zhuǎn)化為生物階層系統(tǒng)。[注]參見赫拉利:《人類簡史》, 中信出版社2014年版,第289頁??萍紝ζ降仍瓌t的沖擊,使得我們必須訴諸“人類中心主義”來尋求危機(jī)的解除。[注]參見周濂:《用政治“鎖死”科技?》,載《讀書》2016年第7期。在算法規(guī)制中也必然更加強(qiáng)調(diào)公共利益的嵌入,用以避免算法權(quán)力獨大,以公共利益限制算法權(quán)力。
算法規(guī)制的雙軌制升級同時考慮了設(shè)置事前的風(fēng)險防范機(jī)制和事后的問責(zé)機(jī)制。在算法規(guī)制的運行階段,算法運行結(jié)果和算法自主化決策本身,平臺責(zé)任和技術(shù)責(zé)任,勢必要融合于算法規(guī)制的各個流程中。在此過程中,復(fù)雜的智能和自主技術(shù)系統(tǒng)的法律地位問題與更廣泛的法律問題交織在了一起。本部分以流程為導(dǎo)向,對算法技術(shù)監(jiān)管及責(zé)任對現(xiàn)行法律制度的滲透做系統(tǒng)梳理。
現(xiàn)有法律制度使得平臺公司利用算法設(shè)計開發(fā)的商業(yè)模式有監(jiān)管套利之嫌。例如,滴滴平臺雖然通過平臺、汽車出租者、司機(jī)與乘客,以及保險公司等多份合同設(shè)計,成功地繞開了對于商業(yè)運營車輛的監(jiān)管,但最終結(jié)果仍是一種運輸服務(wù)的租賃業(yè)務(wù)。而當(dāng)監(jiān)管部門責(zé)難時,這種在設(shè)計上對監(jiān)管的完美規(guī)避,并不能掩蓋其本質(zhì)的營運行為。同理,當(dāng)平臺公司的算法設(shè)計上線時,一旦造成損害結(jié)果,設(shè)計者往往主張:第一,對任何算法的發(fā)展和最終損害,可能有多個潛在的責(zé)任方,設(shè)計并無過錯。第二,設(shè)計行為是智力創(chuàng)造過程不應(yīng)受到法律的規(guī)制。設(shè)計者躲在實驗主義的盾牌之后躲避干預(yù)和法律責(zé)任。因此,設(shè)計階段應(yīng)及時加入對算法本身的技術(shù)監(jiān)管。
1.要求設(shè)計者在設(shè)計算法過程中嵌入算法倫理。在設(shè)計階段應(yīng)以立法形式要求算法通過道德審查標(biāo)準(zhǔn),來防止對用戶的操縱或產(chǎn)生不公平的后果。當(dāng)然,目前這種方法面臨著許多挑戰(zhàn),目前可能僅在某些敏感性和風(fēng)險較高的算法決策領(lǐng)域更適用倫理性的審查要求,并基于數(shù)量只能采用人工審查模式。同時,要求社會學(xué)家、法學(xué)家等共同設(shè)計倫理框架,在算法設(shè)計階段就為算法的研發(fā)和應(yīng)用提供道德準(zhǔn)則。
2. 要求算法設(shè)計者承擔(dān)一定的設(shè)計責(zé)任。為了保證設(shè)計過程監(jiān)管與未來責(zé)任回溯,監(jiān)管機(jī)構(gòu)將需要增加設(shè)計責(zé)任的制度,以補充現(xiàn)有的設(shè)計安全模型和隱私設(shè)計模式。具體包括將設(shè)計日志責(zé)任法定化,如涉及在封閉式和開放式機(jī)器人中要求某些硬編碼的審計日志;或嚴(yán)格執(zhí)行實驗許可,在實驗階段充分考慮可能存在的問題,如對開放式機(jī)器人許可實驗。這些設(shè)計責(zé)任類似于在金融領(lǐng)域建立的“審計線索”,現(xiàn)在已經(jīng)成為重要的法律措施。這些設(shè)計責(zé)任不僅有利于算法投入使用后的管理,也必然會反向影響系統(tǒng)開發(fā),即使對符合價值取向的算法設(shè)計進(jìn)行制度激勵。[注]Robot law. Edward Elgar Publishing, 2016.
3. 要求設(shè)計者承擔(dān)充分的測試責(zé)任和披露責(zé)任。應(yīng)將敏感和關(guān)鍵領(lǐng)域算法設(shè)計的測試責(zé)任和披露責(zé)任法定化。應(yīng)在第一步機(jī)器倫理指導(dǎo)下,算法投入使用前,要求設(shè)計者充分測試算法。并且應(yīng)細(xì)化要求算法設(shè)計,必須進(jìn)行必要的迭代測試以達(dá)到預(yù)測性能的客觀視圖。例如犯罪預(yù)測類算法在投入使用前,應(yīng)充分在不同地區(qū)和領(lǐng)域測試,收取達(dá)到規(guī)定數(shù)量的數(shù)據(jù)集,并測試其在打擊犯罪中的實際作用。測試責(zé)任也應(yīng)充分考慮公共利益標(biāo)準(zhǔn),避免將算法設(shè)計中可能存在的危害外在化。否則,算法設(shè)計者應(yīng)承擔(dān)責(zé)任,或被迫撤回或修改算法。
運營階段的算法規(guī)制目標(biāo)仍在于以評價標(biāo)準(zhǔn)與正當(dāng)程序促使算法權(quán)力運行處于公眾監(jiān)督之下。
2. 部署應(yīng)用算法的平臺責(zé)任嚴(yán)格化。有必要對原有責(zé)任制度進(jìn)行擴(kuò)充,打破平臺公司的過錯和算法的不可解釋性這兩大歸責(zé)障礙。目前各國均有擴(kuò)用責(zé)任制度的嘗試。例如,美國對無人機(jī)登記制度正全面鋪開,政府要求無人機(jī)必須有牌照,以對任何魯莽或者疏忽飛行的無人機(jī)與相關(guān)人員聯(lián)系起來。[注]參見《民航局:6月1日起民用無人機(jī)實行實名登記制》,http://www.cnhan.com/html/tech/20170516/599807.htm此外,即使平臺公司無法解釋算法如何產(chǎn)生結(jié)果,也應(yīng)對其使用的算法所作出的自動化決策負(fù)責(zé)。雖然算法的不可解釋性仍未有實質(zhì)解決方案,但歐盟開始嘗試創(chuàng)制算法解釋權(quán)。美國的監(jiān)管者則主張在財務(wù)和信用方面的算法造成不利法律后果時,確?!耙鈭D”不是責(zé)任的必要條件。[注]ROBINSON,D., Yu H. Knowing the score: New data, underwriting and marketing in the consumer credit marketplace. A Guide for Financial Inclusion Stakeholders, 2014: 1-34. https://www.teamupturn.com/static/files/Knowing_the_Score_Oct_2014_v1_1.pdf. Ifeoma Ajunwa, EEOC Public Meeting on Big Data in the Workplace (Oct. 13, 2016), 在此文中作者描述了信用算法對數(shù)據(jù)的使用。Clint Boulton, The hidden risk of blind trust in AI’s ‘black box’, at http://www.cio.com/article/3204114/artificial - intelligence/the - hidden - risk - of - blind - trust - in - ai - s - black - box.html(July 6, 2017) 。在此文中作者描述了雇傭算法的驗證。在新的人工智能責(zé)任體系建立完善之前,沿用與擴(kuò)用責(zé)任制度是必然也是一種無奈。2016年,歐洲議會提出了“機(jī)器人法”立法建議報告,盡管此報告中暢想了未來對人工智能自動化決策設(shè)立法律人格,并沒有提出具體的方案。而是主張機(jī)器人造成的損害由主人來承擔(dān)責(zé)任,[注]如果機(jī)器人對人造成了損害,無論是適用羅馬法中的“繳出賠償”(noxoe deditio)原則(即把機(jī)器人交給受害者或其家屬處置),還是讓機(jī)器人支付賠償金或坐牢,最終承擔(dān)責(zé)任的始終是機(jī)器人的“主人”,因為機(jī)器人不可能有獨立的收入,限制它的“自由”則等于剝奪了其“主人”的財產(chǎn)權(quán)。參見鄭戈:《人工智能與法律的未來》,載《探索與爭鳴》2017年第10期。并提議公司為機(jī)器人購買保險和成立專門基金補充保險機(jī)制。應(yīng)對人工智能的沖擊,擴(kuò)用現(xiàn)行制度仍是當(dāng)下保守而不是明智的選擇。
3. 算法自動化決策程序的正當(dāng)化。算法自動化決策對公民權(quán)利影響甚巨,卻完全規(guī)避正當(dāng)程序。尤其是算法的自動化決策已經(jīng)大規(guī)模進(jìn)入公共部門決策程序,在公法領(lǐng)域,自動化決策的算法解釋權(quán)是正當(dāng)程序的基本要求。當(dāng)公權(quán)力機(jī)關(guān)對當(dāng)事人做出不利決定時,應(yīng)當(dāng)要告知當(dāng)事人決定的內(nèi)容并且說明理由,同時給予當(dāng)事人陳述申辯的機(jī)會和救濟(jì)的途徑。[注]參見周佑勇:《行政法的正當(dāng)程序原則》,載《中國社會科學(xué)》2004年第4期。在美國聯(lián)邦憲法上,正當(dāng)程序條款甚至取得了概括性人權(quán)保障條款的地位。[注]參見余軍:《正當(dāng)程序:作為概括性人權(quán)保障條款——基于美國聯(lián)邦最高法院司法史的考察》,載《浙江學(xué)刊》2014第6期。我國司法實踐中也在實際運用正當(dāng)程序原則審查行政行為。[注]參見何海波《司法判決中的正當(dāng)程序原則》,載《法學(xué)研究》2009年第1期。隨著私人規(guī)制和公權(quán)力的界限日益模糊,“私行政”的理念下也日益要求參與社會事務(wù)并實際履行公益和人權(quán)保障功能的私主體,也應(yīng)接受國家對其組織形式和程序的監(jiān)督義務(wù)。[注][日]山本隆司:「公私協(xié)働の法構(gòu)造」碓井光明他編『公法學(xué)の法と政策(下)』,有斐閣2000年版,556頁。轉(zhuǎn)引自杜儀方:《公私協(xié)作中國家責(zé)任理論的新發(fā)展——以日本判決為中心的考察》,載《當(dāng)代法學(xué)》2015年第3期。而算法的自動化決策因披著技術(shù)的外衣,一直拒絕對利害關(guān)系人公開。應(yīng)用于美國社區(qū)管理的“真知”算法的設(shè)計者理查德·伯克坦陳:“不透明性可以幫助我擺脫一切麻煩……我在做出對某些人不利的預(yù)測時,從來不會給出理由,我唯一的目標(biāo)就是做出正確的預(yù)測?!盵注]Angwin, J., Larson, J., Mattu, S. and Kirchner, L. (2016) Machine Bias. There is software that is used across the county to predict future criminals. And it is biased against blacks, ProPublica, 23 May 2016.正當(dāng)程序下,受到不利決策的自動化決策的人應(yīng)有權(quán)知曉決定的內(nèi)容與理由,并享有申訴和申辯的機(jī)會。
法律規(guī)范行為主要有兩種機(jī)制:事前(ex ante)和事后(ex post)。[注]參見Calabresi G, Melamed A D. Property rules, liability rules, and inalienability: one view of the cathedral. Harvard law review, 1972: 1089-1128 . See also Lessig L. Code and Other Laws of Cyberspace'Basic Books, 1999. 1999.前者是預(yù)防型的,即預(yù)測并防止某一事件的發(fā)生,后者為反應(yīng)型,即對某一事件作出反應(yīng)。[注]參見龍衛(wèi)球:《數(shù)據(jù)新型財產(chǎn)權(quán)構(gòu)建及其體系研究》,載《政法論壇》2017年第4期。無救濟(jì)則無權(quán)利,算法規(guī)制必然包含事后救濟(jì)和追責(zé)制度的建立。
1. 算法解釋權(quán)制度。算法解釋權(quán)指的是,當(dāng)自動化決策的具體決定對相對人有法律上或者經(jīng)濟(jì)上的顯著影響時,相對人向算法使用人提出異議,要求提供對具體決策解釋,并要求更新數(shù)據(jù)或更正錯誤的權(quán)利。[注]參見張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第3期。目前學(xué)界對自動化決策算法法律制度的討論多集中在如何進(jìn)行風(fēng)險防范,[注]參見司曉、曹建峰:《論人工智能的民事責(zé)任:以自動駕駛汽車和智能機(jī)器人為切入點》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》 2017年第5期。而算法解釋權(quán)意在風(fēng)險發(fā)生后如何分配損害。
算法解釋權(quán)的主體應(yīng)為認(rèn)為受到自動化決策不利決策的相對人,如經(jīng)過算法評估不被雇傭的候選人,量刑和假釋輔助算法決策的相對人等。負(fù)有義務(wù)者為自動化決策的使用者,包括根據(jù)合同自動化決策的使用者如網(wǎng)絡(luò)平臺、保險公司、銀行等,也包括使用自動化決策決定涉及資格、權(quán)利等事項的公共部門,如決策有關(guān)福利發(fā)放、犯罪風(fēng)險評估,教育入學(xué)資格等。需要指出的是,當(dāng)算法的使用者無法提供解釋時(如由于技術(shù)能力的限制),算法的開發(fā)者有義務(wù)進(jìn)行協(xié)助,以為相對人提供具體決策的解釋。
此外,算法的深度學(xué)習(xí)依賴數(shù)據(jù),責(zé)任難以從數(shù)據(jù)流和算法中被識別,只有算法本身才有可能提供合理的解釋。[注]參見張凌寒 :《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》 2018年第3期。在今年3月7日,谷歌大腦團(tuán)隊的克里斯·歐拉(Chris Olah)公布了一項題為“可解釋性的基礎(chǔ)構(gòu)件”的研究成果,該成果解決了神經(jīng)網(wǎng)絡(luò)這種最令人難以捉摸的算法的可視化問題,谷歌將其比喻為人工神經(jīng)網(wǎng)絡(luò)的核磁共振成像(MRI)。這種可視化解釋技術(shù)簡化了相關(guān)信息,使算法的工作狀態(tài)回到了“人類尺度”,能夠被普通人看懂和理解。未來這種“解釋算法的算法”或者“監(jiān)督算法的算法”必將成為算法規(guī)制的革新手段。
2. 算法有限主體化。在現(xiàn)行可能的規(guī)范手段中,可對算法復(fù)雜性列出定性尺度,有助于評估算法自主程度并因應(yīng)性地予以規(guī)范。算法主體性不同于法人等法律擬制制度,而是人造物基于智能性而非為法律規(guī)制便宜性獲得的法律主體地位。算法法律主體化后,可能享有個人財產(chǎn),享有一定言論自由,承擔(dān)有限侵權(quán)責(zé)任,并受到法律保護(hù)不受到攻擊、傷害。[注]參見胡凌:《人工智能視閾下的網(wǎng)絡(luò)法核心問題》,載《中國法律評論》2018年第2期。人工智能,機(jī)器學(xué)習(xí)和機(jī)器人領(lǐng)域的前沿領(lǐng)域,無論是智能合約,高頻交易算法(時間跨度是人類無法察覺的),還是未來的機(jī)器人,都強(qiáng)調(diào)自主性。面對此類超級智能體的出現(xiàn),人類的本能想法是賦予人工智能算法以法律主體地位,并發(fā)展一系列相應(yīng)制度以納入現(xiàn)有法律體系規(guī)制框架內(nèi)。2016年,歐洲議會的“機(jī)器人法”立法建議報告提出:“從長遠(yuǎn)來看要創(chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動化機(jī)器人可以被確認(rèn)為享有電子人(electronic persons)的法律地位,有責(zé)任彌補自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格(electronic personality)?!?賦予人工智能體以法律主體地位的設(shè)想否定了來源定律,即假定任何給定的機(jī)器人或算法系統(tǒng)都有創(chuàng)造者,控制者或所有者。
人工智能時代法律政策是基于風(fēng)險的制度選擇和法律安排。[注]參見周漢華:《論互聯(lián)網(wǎng)法》,載《中國法學(xué)》 2015年第3期。本文是對人工智能時代社會結(jié)構(gòu)性變革應(yīng)對研究的拋磚引玉,具體制度設(shè)計仍有待法學(xué)學(xué)者的深入研究。