韓旭至
內(nèi)容摘要:當(dāng)前,刷臉的屬性已發(fā)生了轉(zhuǎn)變。刷臉不再限于“把人認(rèn)出來”的身份識(shí)別過程,而是重在人臉驗(yàn)證/人臉辨析基礎(chǔ)上所進(jìn)行的人臉分析或其他關(guān)聯(lián)分析,已從純粹的身份識(shí)別機(jī)制轉(zhuǎn)換為識(shí)別分析機(jī)制。識(shí)別分析機(jī)制的應(yīng)用正是刷臉引起社會(huì)普遍憂慮的核心問題所在。此時(shí),刷臉的安全風(fēng)險(xiǎn)被重新放大,監(jiān)視權(quán)力進(jìn)一步擴(kuò)張,為基本權(quán)利保護(hù)帶來了更為嚴(yán)峻的挑戰(zhàn)。為應(yīng)對風(fēng)險(xiǎn)變遷,刷臉的規(guī)制機(jī)制適用亦出現(xiàn)了轉(zhuǎn)向的需求,即在生物識(shí)別信息保護(hù)機(jī)制中限制告知同意的適用;在公共監(jiān)控信息保護(hù)機(jī)制中引入自動(dòng)化決策及風(fēng)險(xiǎn)影響評估的框架;在規(guī)制理念上向數(shù)字人權(quán)保護(hù)與場景化規(guī)制轉(zhuǎn)向。對此,構(gòu)建適應(yīng)識(shí)別分析機(jī)制的法律治理路徑要求:應(yīng)以比例原則作“最小必要”檢驗(yàn),適用自動(dòng)化決策框架進(jìn)行場景化規(guī)制,通過優(yōu)化架構(gòu)設(shè)計(jì)以進(jìn)一步降低識(shí)別分析的風(fēng)險(xiǎn)。
關(guān)鍵詞:人臉識(shí)別 個(gè)人信息保護(hù)法 生物識(shí)別信息 公共監(jiān)控 數(shù)字人權(quán) 用戶畫像
中圖分類號(hào):DF0文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1674-4039-(2021)05-0069-79
引言
人臉識(shí)別俗稱刷臉,刷臉解鎖、刷臉支付、刷臉進(jìn)站、刷臉入校等形塑了數(shù)字時(shí)代的生活方式,也帶來了信息保護(hù)的挑戰(zhàn)。2021年4月全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)公布了《信息安全技術(shù) 人臉識(shí)別數(shù)據(jù)安全要求(征求意見稿)》(以下簡稱“人臉識(shí)別國標(biāo)草案”),從安全處理的角度對刷臉進(jìn)行規(guī)范;2021年7月最高人民法院發(fā)布“人臉識(shí)別司法解釋”(法釋〔2021〕15號(hào)),明確將刷臉納入生物識(shí)別信息保護(hù)的范疇;2021年8月20日通過的《個(gè)人信息保護(hù)法》第62條第2項(xiàng)更是明確要求國家網(wǎng)信部門針對人臉識(shí)別制定專門的規(guī)則。
在比較法上,部分發(fā)達(dá)國家和地區(qū)亦發(fā)布了相關(guān)規(guī)范。例如,早在2012年,美國聯(lián)邦通訊委員會(huì)即發(fā)布了“人臉識(shí)別技術(shù)的最佳商業(yè)實(shí)踐建議”;2019年,美國馬塞諸塞州薩默維爾市、加州奧克蘭市等地通過立法禁止政府部門使用人臉識(shí)別;同年,歐盟人工智能高級專家組(HLEG AI)提出必須適當(dāng)使用人臉識(shí)別技術(shù),歐盟基本權(quán)利機(jī)構(gòu)發(fā)布了“人臉識(shí)別技術(shù):執(zhí)法過程中的基本權(quán)利考慮”報(bào)告;2020年,美國華盛頓州通過了針對政府機(jī)構(gòu)的“人臉識(shí)別法”,紐約州亦立法禁止了在學(xué)校中使用人臉識(shí)別。
然而,直接套用上述規(guī)范實(shí)難以對刷臉的根本問題形成清晰的認(rèn)識(shí)。在“刷臉進(jìn)小區(qū)”的爭議中,為何保安“看”可以而機(jī)器“看”不行?在我國“人臉識(shí)別第一案”中, 〔1 〕同為利用生物識(shí)別信息進(jìn)行的身份識(shí)別,又為何當(dāng)事人能接受指紋識(shí)別卻強(qiáng)烈反對刷臉?這些問題均與刷臉的技術(shù)肌理密不可分。筆者將沿著刷臉技術(shù)屬性轉(zhuǎn)換的主線,考察刷臉的風(fēng)險(xiǎn)變遷與規(guī)制機(jī)制轉(zhuǎn)向,最終提出適應(yīng)于技術(shù)發(fā)展的法律治理路徑。
一、刷臉的屬性轉(zhuǎn)換
從人“看”到技術(shù)“看”的升級中,刷臉的技術(shù)特征就是模仿人的認(rèn)知模式,底層技術(shù)邏輯是通過捕獲圖像、人臉檢測、人臉提取、匹配,最終完成驗(yàn)證或識(shí)別,屬于一種身份識(shí)別機(jī)制。隨著技術(shù)發(fā)展,在眾多應(yīng)用場景中,刷臉又走向了利用人臉信息對個(gè)人進(jìn)行分析的技術(shù)路線。此時(shí),刷臉進(jìn)一步使用了人工智能技術(shù),在識(shí)別/驗(yàn)證的基礎(chǔ)上對人進(jìn)行了情感計(jì)算、健康評估、習(xí)慣分析等畫像,其屬性已轉(zhuǎn)換為一種識(shí)別分析機(jī)制。
(一)刷臉的起源與實(shí)質(zhì):身份識(shí)別機(jī)制
“臉”具有直接識(shí)別性、方便性、不可更改性、易采集性、不可匿名性等獨(dú)特的屬性,是“生物性的通用標(biāo)識(shí)符”?!? 〕臉是人體的重要組成部分。人類一直以來都通過臉來表達(dá)情感、辨識(shí)個(gè)人。以小區(qū)刷臉門禁系統(tǒng)為例,在沒有采用刷臉的技術(shù)系統(tǒng)前,小區(qū)門衛(wèi)保安亦通過直接的臉部特征、行為模式辨識(shí)業(yè)主。刷臉實(shí)際是通過自動(dòng)化手段完成人工的身份識(shí)別。這一技術(shù)源于20世紀(jì)60年代,伍迪·布萊索團(tuán)隊(duì)發(fā)明的第一套半自動(dòng)的面部識(shí)別系統(tǒng),該系統(tǒng)通過計(jì)算機(jī)識(shí)別人像照片的若干特征,進(jìn)而進(jìn)行進(jìn)一步的人工測量。隨著計(jì)算機(jī)與人工智能技術(shù)的發(fā)展,最終實(shí)現(xiàn)在自然環(huán)境下對人臉信息的完全自動(dòng)化采集與比對,發(fā)展成為今天的刷臉科技。又由于臉的普遍性和獨(dú)特性,刷臉被應(yīng)用在密碼驗(yàn)證、安全監(jiān)控、受害者和失蹤者識(shí)別等多種領(lǐng)域,成為了應(yīng)用最廣泛的生物識(shí)別方法。
刷臉與賬號(hào)密碼、數(shù)字簽名、人工核驗(yàn)等多種方式共同發(fā)揮著身份識(shí)別機(jī)制的作用?!度嗣穹ㄔ涸诰€訴訟規(guī)則》規(guī)定,既可以“通過證件證照在線比對、身份認(rèn)證平臺(tái)認(rèn)證等方式驗(yàn)證身份”,也可以“采取人臉識(shí)別方式驗(yàn)證身份”?!度嗣駲z察院辦理網(wǎng)絡(luò)犯罪案件規(guī)定》指出,“賬戶信息、身份認(rèn)證信息、數(shù)字簽名、生物識(shí)別信息等”都可用于識(shí)別犯罪嫌疑人。中國銀保監(jiān)會(huì)更是明確指出,可通過“銀行預(yù)留信息核實(shí)、人臉識(shí)別、人工核驗(yàn)方式”“設(shè)置有效的身份識(shí)別機(jī)制”。實(shí)踐中,刷臉在一定程度上替代了密碼,成為更為便捷的識(shí)別/驗(yàn)證機(jī)制。密碼驗(yàn)證對保密的安全要求較高,部分系統(tǒng)會(huì)定期提示用戶更換密碼,部分系統(tǒng)更會(huì)要求用戶采用高度復(fù)雜的密碼,如同時(shí)包含大小寫字母與特殊字符。然而,用戶將不可避免地會(huì)忘記密碼,從而需要郵箱驗(yàn)證、短信驗(yàn)證、掃二維碼驗(yàn)證等其他識(shí)別/驗(yàn)證機(jī)制找回密碼。與之相對,通過刷臉驗(yàn)證有顯而易見的優(yōu)勢,其不僅極為便捷而且還不存在密碼丟失的煩惱。2018年,國務(wù)院辦公廳即將刷臉登錄便捷辦理民生服務(wù)作為優(yōu)化營商環(huán)境的典型做法進(jìn)行通報(bào)。
(二)刷臉的發(fā)展與憂慮:識(shí)別分析機(jī)制
在身份識(shí)別外,臉亦是被觀察、分析的對象。生活中,人們時(shí)常直觀地通過臉對人的個(gè)性、狀態(tài)進(jìn)行分析。慈眉善目、兇神惡煞、賊眉鼠眼、蓬頭垢面均指向截然不同的狀態(tài)。這些判斷大多是主觀的,有時(shí)還具有一定的迷信色彩,如民間大多將“天庭飽滿、地閣方圓”視為福相。采取量化分析方法,對臉進(jìn)行分析可追溯至一百多年以前龍勃羅梭的“天生犯罪人”理論,其根據(jù)“對1279名意大利罪犯的人體測量和相貌分析”,指出特定外貌特征的人具有犯罪傾向?!? 〕顯然,這一理論有極大的歷史局限性,且極易導(dǎo)致種族主義傾向的結(jié)論。2002年著名科幻電影《小數(shù)派報(bào)告》描繪了刷臉的識(shí)別分析應(yīng)用的兩類場景:一是根據(jù)預(yù)測性分析在嫌疑人將要實(shí)施犯罪前就實(shí)施逮捕;二是購物消費(fèi)時(shí)對顧客進(jìn)行刷臉以調(diào)取其購物記錄并結(jié)合已知的數(shù)據(jù)庫進(jìn)行分析。當(dāng)前,電影中的商業(yè)應(yīng)用場景已經(jīng)成為現(xiàn)實(shí),部分商場的刷臉廣告牌已具備了根據(jù)路過人群進(jìn)行客流量統(tǒng)計(jì)、根據(jù)停留時(shí)間或其他注意力標(biāo)準(zhǔn)作參與度估算、根據(jù)個(gè)性化分析結(jié)果進(jìn)行定向廣告等多項(xiàng)功能。在部分公共監(jiān)控中,刷臉也已被用于識(shí)別目標(biāo)對象的情緒,服務(wù)于社會(huì)治理與維穩(wěn)目的。廣州互聯(lián)網(wǎng)法院的在線調(diào)解系統(tǒng)便使用了情感計(jì)算,根據(jù)臉部的微表情進(jìn)行數(shù)據(jù)畫像,實(shí)時(shí)顯示出當(dāng)事人的“平靜、高興、憤怒、恐懼、悲傷、厭惡、驚奇”7項(xiàng)指標(biāo)數(shù)值。
此時(shí),刷臉的屬性已發(fā)生了轉(zhuǎn)變。刷臉不再限于“把人認(rèn)出來”的身份識(shí)別過程,而是重在人臉驗(yàn)證/人臉辨析基礎(chǔ)上所進(jìn)行的人臉分析或其他關(guān)聯(lián)分析,已從純粹的身份識(shí)別機(jī)制轉(zhuǎn)換為識(shí)別分析機(jī)制。從技術(shù)上看,刷臉的這種識(shí)別分析機(jī)制又極具特殊性,與人主觀的“看臉”、龍勃羅梭的測量分析系相比至少有三大差異。第一,不僅采用量化的數(shù)學(xué)方法進(jìn)行,而且預(yù)測分析的特征更為深入和廣泛。通過刷臉可對個(gè)人進(jìn)行性別、年齡和種族的特征進(jìn)行深入分析。第二,利用互聯(lián)網(wǎng)與既有數(shù)據(jù)庫,能結(jié)合大數(shù)據(jù)進(jìn)行預(yù)測分析。實(shí)驗(yàn)表明,可以輕易地將刷臉設(shè)備所采集的信息與社交網(wǎng)站上的公開信息相關(guān)聯(lián),進(jìn)而推斷出額外的信息?!? 〕第三,能分析更為隱秘的、敏感的信息,且分析結(jié)論更為準(zhǔn)確、可信。2017年,斯坦福大學(xué)即開發(fā)出一套通過人臉識(shí)別判斷性取向的神經(jīng)網(wǎng)絡(luò)算法,準(zhǔn)確率達(dá)91%?!? 〕
刷臉的識(shí)別分析機(jī)制通過自動(dòng)化的技術(shù)閉環(huán)對個(gè)人信息進(jìn)行整合分析,正是引起社會(huì)普遍憂慮的根本問題所在。借用技術(shù)哲學(xué)的分析框架,人的直接“看臉”行為無關(guān)技術(shù);人利用工具對臉進(jìn)行測量,工具是一階技術(shù);刷臉的身份識(shí)別機(jī)制中,人通過設(shè)備感知臉部,再作用于識(shí)別、驗(yàn)證程序,是二階技術(shù)運(yùn)用;刷臉的識(shí)別分析機(jī)制中,往往是完全自動(dòng)化的,形成了設(shè)備感知、識(shí)別/驗(yàn)證、關(guān)聯(lián)分析的三階技術(shù)邏輯。此時(shí),相關(guān)結(jié)論往往又重新作用于新的識(shí)別分析,由此形成技術(shù)閉環(huán)。在此種技術(shù)閉環(huán)中,公眾擔(dān)心的不是身份識(shí)別機(jī)制本身,而是將人臉信息與個(gè)人的購物記錄、健康情況、行蹤軌跡、親友關(guān)系等信息進(jìn)行關(guān)聯(lián)匹配,以及可能產(chǎn)生的歧視、異化等問題。
二、刷臉的風(fēng)險(xiǎn)變遷
伴隨著從身份機(jī)制到識(shí)別分析機(jī)制的屬性轉(zhuǎn)換,刷臉的風(fēng)險(xiǎn)也發(fā)生了變化和遷移。雖然,隨著技術(shù)的升級,身份識(shí)別機(jī)制的信息安全風(fēng)險(xiǎn)已在很大程度上得到了有效控制,但在識(shí)別分析機(jī)制的應(yīng)用中,安全風(fēng)險(xiǎn)又被重新放大。此外,刷臉的識(shí)別分析機(jī)制在公共監(jiān)控中的應(yīng)用更是直接導(dǎo)致監(jiān)視權(quán)力的擴(kuò)張,為基本權(quán)利保護(hù)帶來更為嚴(yán)峻的挑戰(zhàn)。
(一)安全風(fēng)險(xiǎn)的產(chǎn)生、緩解與再現(xiàn)
身份識(shí)別機(jī)制中,刷臉的安全風(fēng)險(xiǎn)突出地表現(xiàn)為錯(cuò)誤率高與易被破解。一方面,刷臉系統(tǒng)的錯(cuò)誤率較高。刷臉受姿態(tài)、表情、光線、角度等因素的影響,并極大局限在正面識(shí)別的應(yīng)用。2017年,英國警方嘗試在歐冠決賽中使用刷臉系統(tǒng),但卻出現(xiàn)了高達(dá)92%的誤報(bào)率?!? 〕另一方面,刷臉系統(tǒng)有被破解的風(fēng)險(xiǎn)。曾經(jīng)有小學(xué)生成功用打印照片開啟了小區(qū)的智能快遞柜。近年更是出現(xiàn)了利用刷臉技術(shù)漏洞實(shí)施違法犯罪的案件,如利用公民照片制作3D人臉動(dòng)態(tài)圖像后通過刷臉登錄竊取網(wǎng)絡(luò)賬戶金額,或結(jié)合相關(guān)人臉圖像與其他非法獲取的個(gè)人信息,假冒他人身份注冊網(wǎng)絡(luò)賬戶牟利。
隨著刷臉的算法不斷發(fā)展,識(shí)別分析機(jī)制的上述安全風(fēng)險(xiǎn)已在一定程度上得到緩解。當(dāng)前,刷臉的正確率已大為提升。所采集的人臉關(guān)鍵點(diǎn)亦已由最初的21個(gè)提高到240個(gè)甚至更高精度的采集,能適應(yīng)側(cè)臉、表情變化、局部遮擋等變化。例如,DeepID算法驗(yàn)證準(zhǔn)確率已達(dá)97.45%?!? 〕部分刷臉系統(tǒng)已升級至動(dòng)態(tài)的活體檢測系統(tǒng),要求用戶完成一定動(dòng)作,亦提升安全性。若采取雙重或多重因子認(rèn)證,將進(jìn)一步提升身份識(shí)別機(jī)制的安全性。在這個(gè)意義上,刷臉增強(qiáng)了身份識(shí)別的安全可靠。例如教育部即明確提出,高考考生身份核驗(yàn)要輔之以刷臉的技術(shù)措施;國家廣播電視總局亦曾經(jīng)要求,要結(jié)合實(shí)名驗(yàn)證、人臉識(shí)別、人工審核等措施以落實(shí)網(wǎng)絡(luò)實(shí)名制。
然而,識(shí)別分析機(jī)制的應(yīng)用,又再次放大了刷臉的安全風(fēng)險(xiǎn)。一方面,刷臉的代碼/算法一旦出現(xiàn)漏洞,將不僅僅涉及身份識(shí)別錯(cuò)誤,更可能得出對個(gè)人不利的分析結(jié)論,進(jìn)而作出侵害個(gè)人權(quán)益的自動(dòng)化決策。另一方面,識(shí)別分析機(jī)制也可能關(guān)聯(lián)錯(cuò)誤的信息,且可能導(dǎo)致錯(cuò)誤在技術(shù)閉環(huán)的反饋中被反復(fù)放大。因此,在刷臉的識(shí)別分析機(jī)制中,即便是極低的錯(cuò)誤率也有可能帶來不可接受的風(fēng)險(xiǎn)。
(二)監(jiān)視權(quán)力的形成、擴(kuò)張及后果
一方面,借助刷臉的身份識(shí)別機(jī)制,監(jiān)控能更為高效、迅速地在公共空間中識(shí)別出特定個(gè)人,其運(yùn)行邏輯高度契合“確保不對稱、不平衡和差異”的權(quán)力機(jī)制。??略栌眠吳叩摹叭俺ㄒ暠O(jiān)獄”闡釋監(jiān)視權(quán)力的邏輯,即面對觀看的權(quán)力,被觀看者只能選擇服從?!俺掷m(xù)可見”的監(jiān)視“造成一種有意識(shí)的和持續(xù)的可見狀態(tài),從而確保權(quán)力自動(dòng)地發(fā)揮作用”。〔8 〕聯(lián)合國人權(quán)事務(wù)高級專員曾表示這種監(jiān)視權(quán)力有可能侵犯人權(quán)。
另一方面,刷臉的識(shí)別分析機(jī)制,又使監(jiān)視權(quán)力進(jìn)一步擴(kuò)張。研究表明,公共視頻監(jiān)控實(shí)現(xiàn)權(quán)力規(guī)訓(xùn)的程度,往往取決于監(jiān)控系統(tǒng)的網(wǎng)絡(luò)化程度、回應(yīng)速度與識(shí)別分析能力?!? 〕識(shí)別分析機(jī)制中,常借助互聯(lián)網(wǎng)、大數(shù)據(jù)對人臉信息進(jìn)行分析。2020年《紐約時(shí)報(bào)》報(bào)道用于執(zhí)法的Clearview刷臉應(yīng)用,可以自動(dòng)地對人們在就業(yè)、新聞、教育、社交等各種網(wǎng)站上的數(shù)據(jù)進(jìn)行爬取?!?0 〕利用網(wǎng)絡(luò)社會(huì)所形成“觀看—權(quán)力”關(guān)系,識(shí)別分析機(jī)制將輕易揭示出極為隱秘的信息,形成個(gè)人的數(shù)字形象,對個(gè)人進(jìn)行持續(xù)的追蹤和監(jiān)視,“構(gòu)成了一座‘超級全景監(jiān)獄”?!?1 〕
監(jiān)視權(quán)力的野蠻生長直接對基本權(quán)利保護(hù)帶來更為嚴(yán)峻的挑戰(zhàn)。當(dāng)下,刷臉至少涉及以下基本權(quán)利保護(hù)問題。第一,政治權(quán)利和自由的保護(hù)。2019年,歐盟基本權(quán)利機(jī)構(gòu)即表示,類似應(yīng)用將產(chǎn)生寒蟬效應(yīng),對言論自由、集會(huì)自由、結(jié)社自由以及行動(dòng)自由帶來消極影響?!?2 〕第二,平等權(quán)利的保護(hù)。研究表明,女性和有色人種刷臉出錯(cuò)率更高,容易產(chǎn)生有偏見的結(jié)果。第三,人格尊嚴(yán)、信息權(quán)利的保護(hù)。2016年,俄羅斯開發(fā)商Trinity Digital推出“FindFace”程序,通過該程序進(jìn)行人臉識(shí)別,可以找出個(gè)人的社交賬號(hào),有網(wǎng)民利用該服務(wù)披露性工作者和色情影片演員的真實(shí)身份。這些刷臉應(yīng)用正在迅速地將一個(gè)以信息保護(hù)為基礎(chǔ)的社會(huì)轉(zhuǎn)變?yōu)橥该魃鐣?huì)。
值得注意的是,刷臉的識(shí)別分析機(jī)制亦指向大數(shù)據(jù)經(jīng)濟(jì)中的另一種監(jiān)視。被稱為“監(jiān)視資本主義”的生產(chǎn)過程,即通過對用戶數(shù)據(jù)進(jìn)行識(shí)別分析,并將相關(guān)分析結(jié)果用作定向營銷,最終實(shí)現(xiàn)數(shù)據(jù)要素向利潤的轉(zhuǎn)化?!?3 〕刷臉廣告的運(yùn)行機(jī)制與這一過程完全吻合。由此亦帶來了個(gè)人信息保護(hù)的風(fēng)險(xiǎn)。
三、刷臉的規(guī)制機(jī)制適用與轉(zhuǎn)向
刷臉作為一種身份識(shí)別機(jī)制指向特定自然人,屬于個(gè)人信息的處理,適用信息保護(hù)機(jī)制。隨著刷臉技術(shù)的發(fā)展,生物識(shí)別信息保護(hù)機(jī)制的適用,需要限制告知同意的適用;公共監(jiān)控信息保護(hù)機(jī)制的適用,又需要引入自動(dòng)化決策及風(fēng)險(xiǎn)影響評估的框架;信息保護(hù)的規(guī)制理念,更需向數(shù)字人權(quán)保護(hù)與場景化規(guī)制轉(zhuǎn)向。
(一)生物識(shí)別信息保護(hù)機(jī)制的適用與轉(zhuǎn)向
從生物識(shí)別信息保護(hù)機(jī)制來看,“人臉識(shí)別司法解釋”第1條第3款明確規(guī)定人臉信息屬于生物識(shí)別信息?!?4 〕無論是身份識(shí)別還是識(shí)別分析,刷臉均適用生物識(shí)別信息保護(hù)機(jī)制。傳統(tǒng)的生物識(shí)別信息保護(hù)機(jī)制在很大程度上仍遵循告知同意的規(guī)則?;诿舾袀€(gè)人信息的處理規(guī)則,個(gè)人信息保護(hù)法第29條、“人臉識(shí)別司法解釋”第2條第3項(xiàng)均強(qiáng)調(diào)了單獨(dú)同意或書面同意的要求。個(gè)人信息保護(hù)法第13條第2款亦實(shí)際確立了同意為原則的個(gè)人信息合法處理要件。域外法中,美國伊利諾斯州生物信息隱私法(以下簡稱BIPA)第15條即明確提出了書面告知與書面同意的要求。歐盟通用數(shù)據(jù)保護(hù)條例(以下簡稱GDPR)第9條亦將“信息主體明確同意”規(guī)定為敏感信息的處理依據(jù)之一。
然而,在刷臉的實(shí)踐中,告知同意的機(jī)制已經(jīng)出現(xiàn)失靈。歐洲國家的個(gè)人信息保護(hù)機(jī)構(gòu)已明確表示,面對不特定主體自動(dòng)化運(yùn)行的刷臉應(yīng)用難以依靠同意而獲得合法性?!?5 〕分析可知,告知同意機(jī)制的適用存在以下障礙:第一,臉部信息具有易采集性,刷臉是通過非接觸方式進(jìn)行的,無須自然人進(jìn)行配合。尤其是在無感刷臉的場景中,信息主體難以知悉其正在被技術(shù)監(jiān)控。第二,刷臉常在權(quán)力/地位不對等的環(huán)境中被使用,難以確保同意的有效性。2019年,瑞典的一所學(xué)校采用刷臉方式考勤,且征得了學(xué)生同意,瑞典數(shù)據(jù)保護(hù)局認(rèn)為“鑒于信息主體和信息控制者之間的不平衡,同意不是有效的法律依據(jù)”,最終對該學(xué)校開具了1000萬瑞典克朗的罰單。該案件也是瑞典適用GDPR的首個(gè)案件。〔16 〕第三,刷臉技術(shù)較為復(fù)雜且缺乏透明度,信息主體難以理解同意的后果和風(fēng)險(xiǎn)。尤其是在識(shí)別分析機(jī)制下,信息主體不僅難以知悉其臉部信息在何種程度上與何種數(shù)據(jù)庫進(jìn)行關(guān)聯(lián)比對,最終又將被何種機(jī)構(gòu)用于何種用途,更難以獲得關(guān)于信息存儲(chǔ)安全性、自動(dòng)化決策算法邏輯的信息。
因此,在刷臉的生物識(shí)別信息保護(hù)中,需要嚴(yán)格限制告知同意的事由。參照歐盟法的規(guī)定,同意只有在自由的、知情的前提下作出,而且是明確、單獨(dú)地針對具體的信息處理行為的同意,才是有效的。在告知同意外,BIPA第15條亦提出“不得出售、出租、交易或以其他方式”利用生物識(shí)別信息牟利的規(guī)定。GDPR第9條則亦規(guī)定了履行義務(wù)或?qū)嵤?quán)利所必要、保護(hù)信息主體權(quán)利所必須等多項(xiàng)例外事由。事實(shí)上,無論同意是否有效,刷臉的合法性亦必須回歸到敏感信息處理的一般條款中進(jìn)行分析。根據(jù)個(gè)人信息保護(hù)法第28條,刷臉的處理必須符合“具有特定的目的和充分的必要性”“并采取嚴(yán)格保護(hù)措施”的規(guī)定。
(二)公共監(jiān)控信息保護(hù)機(jī)制的適用與轉(zhuǎn)向
當(dāng)刷臉被用于公共監(jiān)控場景時(shí),此時(shí)刷臉不僅適用于生物識(shí)別信息的保護(hù)機(jī)制,而且還適用建立在人權(quán)法框架之下的公共監(jiān)控信息保護(hù)機(jī)制。從制度發(fā)展來看,公共監(jiān)控信息保護(hù)隨著技術(shù)的發(fā)展而不斷加強(qiáng)。在美國法中,監(jiān)控技術(shù)的發(fā)展直接推翻了“公共場無隱私”的觀點(diǎn)。在著名的“凱諾案”中,美國聯(lián)邦最高法院認(rèn)定使用熱成像設(shè)備掃描住宅外部構(gòu)成了不合理的搜查?!?7 〕“瓊斯案”中,美國聯(lián)邦最高法院又認(rèn)定未經(jīng)授權(quán)使用GPS信息監(jiān)控構(gòu)成違憲?!?8 〕英國“調(diào)查權(quán)力法案”和“公共監(jiān)控實(shí)務(wù)守則”,更是直接適用于公共監(jiān)控中的刷臉,其規(guī)定公共監(jiān)控必須遵循比例性、合法性、可靠性、必要性原則,限定在的合法必要的目的使用,且充分考慮對個(gè)人權(quán)利的影響。隨著刷臉被廣泛使用于商業(yè)和其他目的,發(fā)端于人權(quán)法框架的公共監(jiān)控規(guī)制邏輯也逐漸被拓展到一般的公共場所刷臉之中。近年來,我國法院也注意到私人主體在公共空間安裝智能監(jiān)控的風(fēng)險(xiǎn)。例如,在“劉某與沈某隱私權(quán)糾紛案”中,法院認(rèn)為具有刷臉功能的智能門鈴對鄰居的“出行規(guī)律、人員流動(dòng)等進(jìn)行了記錄”,造成了侵?jǐn)_后果,應(yīng)予拆除?!?9 〕
然而,傳統(tǒng)公共監(jiān)控信息保護(hù)制度實(shí)難以全面回應(yīng)前述監(jiān)視權(quán)力擴(kuò)張的風(fēng)險(xiǎn)。對于刷臉的識(shí)別分析機(jī)制,至少還應(yīng)涵蓋自動(dòng)化決策框架下的透明度和結(jié)果公平合理的要求,以及引入風(fēng)險(xiǎn)影響評估制度,這些要求將對公共監(jiān)控的合法性判斷產(chǎn)生重要影響。2019年英國“布里奇斯案”中,基于傳統(tǒng)公共監(jiān)控信息保護(hù)制度,英國高等法院認(rèn)定南威爾士警方對示威者使用自動(dòng)面部識(shí)別技術(shù)合法。英國信息專員辦公室對該案提出批評,認(rèn)為警方?jīng)]有對信息保障進(jìn)行恰當(dāng)?shù)娘L(fēng)險(xiǎn)影響評估,在“全面和不加區(qū)分的基礎(chǔ)上”收集個(gè)人信息將產(chǎn)生過大風(fēng)險(xiǎn)。2020年英國上訴法院改判,認(rèn)定該刷臉系統(tǒng)的使用方式侵犯了人權(quán)?!?0 〕針對刷臉的最新發(fā)展與應(yīng)用,2021年英國信息專員辦公室發(fā)布“公共場所中人臉識(shí)別技術(shù)的使用”報(bào)告指出,公共場所中的刷臉應(yīng)當(dāng)符合公平、透明、必要性、風(fēng)險(xiǎn)影響評估等基本要求。
此外,從我國立法來看,公共監(jiān)控信息保護(hù)機(jī)制與生物識(shí)別信息保護(hù)機(jī)制之間存在相對割裂的問題。根據(jù)個(gè)人信息保護(hù)法第26條規(guī)定“公共場所安裝圖像采集、個(gè)人身份識(shí)別設(shè)備”,強(qiáng)調(diào)的是“為維護(hù)公共安全所必需”以及“設(shè)置顯著的提示標(biāo)識(shí)”?!叭四樧R(shí)別司法解釋”第5條第2項(xiàng)規(guī)定亦將“為維護(hù)公共安全,依據(jù)國家有關(guān)規(guī)定在公共場所使用人臉識(shí)別技術(shù)的”作為明確的免責(zé)事由,缺乏對公共安全作基本的必要性分析與比例原則衡量的要求。若直接適用這些條款,將存在架空敏感個(gè)人信息保護(hù)機(jī)制的危險(xiǎn)。公共監(jiān)控信息保護(hù)機(jī)制是進(jìn)一步限制刷臉的機(jī)制,不應(yīng)成為突破生物識(shí)別信息保護(hù)機(jī)制的例外。必須通過相關(guān)條例的解釋,使得公共監(jiān)控中的刷臉適用“生物識(shí)別信息保護(hù)機(jī)制+公共監(jiān)控信息保護(hù)機(jī)制”的雙重限制。
(三)呼喚信息保護(hù)的理念轉(zhuǎn)向
信息保護(hù)機(jī)制失靈的根本原因在于,傳統(tǒng)隱私和信息保護(hù)的代表性理論已難以適應(yīng)刷臉的技術(shù)發(fā)展。第一,從獨(dú)處權(quán)理論來看,一個(gè)多世紀(jì)以前,為應(yīng)對新興的攝影技術(shù),沃倫、布蘭代斯首次借用“獨(dú)處權(quán)”的概念對隱私權(quán)進(jìn)行了論述?!?1 〕這一經(jīng)典理論所強(qiáng)調(diào)的是物理空間的隱私保護(hù),難以適應(yīng)于數(shù)字時(shí)代的刷臉。第二,從有限接近和保密理論來看,加夫森將隱私描述為“保密、匿名和獨(dú)處”?!?2 〕有國內(nèi)學(xué)者亦指出,“看破不說破”是隱私規(guī)范的重要內(nèi)容,即要求知情人“在一定范圍內(nèi)掩飾其對特定信息的占有或使用狀態(tài)”?!?3 〕然而,刷臉對個(gè)人權(quán)益的侵害并不在于信息泄密。識(shí)別分析機(jī)制更是常會(huì)利用信息主體主動(dòng)上傳分享到網(wǎng)絡(luò)中的數(shù)據(jù)進(jìn)行分析。第三,從個(gè)人信息控制權(quán)理論來看,“隱私是對自己信息的控制”?!?4 〕對于是否被刷臉,刷臉信息如何被比對,信息主體往往缺乏控制力。
對此,首先應(yīng)從數(shù)字人權(quán)的高度把握刷臉中的信息保護(hù)理論命題。刷臉的機(jī)制與人的“數(shù)字屬性”息息相關(guān),刷臉的信息保護(hù)必須堅(jiān)持?jǐn)?shù)字人權(quán)的引領(lǐng)。在“雙層空間、虛實(shí)同構(gòu)”的數(shù)字時(shí)代中,發(fā)生了“從自然人到‘信息人的轉(zhuǎn)變”。〔25 〕一方面,刷臉的身份識(shí)別機(jī)制本身就是一種通過“信息人”證明自然人身份的“可信身份認(rèn)證”模式;另一方面,刷臉的識(shí)別分析機(jī)制通過數(shù)據(jù)匯集、比對、分析,進(jìn)一步強(qiáng)化了“生活方式的數(shù)字化表達(dá)”?!?6 〕正是人的“數(shù)字屬性”賦予了人權(quán)數(shù)字屬性,構(gòu)成了數(shù)字人權(quán)的基礎(chǔ)。以數(shù)字人權(quán)的理念引領(lǐng),即要求以人權(quán)的尺度作為評判刷臉的根本標(biāo)準(zhǔn),由此可對信息保護(hù)機(jī)制進(jìn)行重新審視。
其次,從信息保護(hù)理論發(fā)展角度,應(yīng)通過“情景脈絡(luò)完整性理論”,引入場景化規(guī)制的方法。尼森鮑姆指出,若信息流動(dòng)脫離既定的語境和場景,將構(gòu)成對隱私的侵犯?!?7 〕也就是說,信息保護(hù)與具體場景中的社會(huì)規(guī)范息息相關(guān)。物理空間的生活中“看臉”與設(shè)備刷臉的場景有極大差異,在身份識(shí)別意義上的刷臉又與在識(shí)別分析意義上的刷臉場景大為不同。身份識(shí)別的場景中,信息流動(dòng)的范圍較為有限,對傳統(tǒng)信息保護(hù)機(jī)制的挑戰(zhàn)較小。識(shí)別分析的場景中,卻極易使人臉信息脫離其特定的使用背景,必須予以重點(diǎn)規(guī)制。由此,可進(jìn)一步構(gòu)建適應(yīng)識(shí)別分析機(jī)制的法律治理路徑。
四、適應(yīng)識(shí)別分析機(jī)制的法律治理路徑
在邁向識(shí)別分析的屬性轉(zhuǎn)換中,刷臉的法律治理路徑可分為三個(gè)層次。第一,在刷臉法律治理的一般原則上,強(qiáng)調(diào)比例原則的檢驗(yàn)。第二,在識(shí)別分析機(jī)制的特殊規(guī)制上,適用自動(dòng)化決策框架進(jìn)行場景化規(guī)制。第三,以架構(gòu)設(shè)計(jì)進(jìn)一步降低識(shí)別分析的風(fēng)險(xiǎn),支持刷臉的合法應(yīng)用與發(fā)展。
(一)一般原則的優(yōu)化:以比例原則作“最小必要”檢驗(yàn)
適應(yīng)識(shí)別分析機(jī)制的法律治理,絕非只適用于識(shí)別分析機(jī)制的法律治理。如前所述,刷臉的識(shí)別分析機(jī)制中的許多突出問題,是身份識(shí)別機(jī)制中相關(guān)問題的放大。對此,必須根據(jù)數(shù)字人權(quán)的價(jià)值指引,從信息保護(hù)一般原則的優(yōu)化出發(fā),以比例原則作“最小必要”檢驗(yàn)。
比例原則的檢驗(yàn)是個(gè)人信息保護(hù)“最小必要”原則的題中應(yīng)有之義。必要原則一直是我國個(gè)人信息保護(hù)的基本原則。個(gè)人信息保護(hù)法第6條更是明確指出處理個(gè)人信息“應(yīng)當(dāng)采取對個(gè)人權(quán)益影響最小的方式、限于實(shí)現(xiàn)處理目的的最小范圍”。同時(shí),刷臉作為生物識(shí)別信息處理,依該法第28條亦須以“充分的必要性”為前提?!叭四樧R(shí)別國標(biāo)草案”更是將“非人臉識(shí)別方式安全性或便捷性顯著低于人臉識(shí)別方式”作為刷臉的前提條件。
比例原則要求信息處理者在使用刷臉系統(tǒng)前應(yīng)嚴(yán)格審查使用該系統(tǒng)的預(yù)期目標(biāo),同時(shí)考慮對信息主體權(quán)利的影響。信息處理者必須證明其不能通過使用侵入性較低的其他方式合理地實(shí)現(xiàn)相關(guān)目的。如果有可能通過其他對個(gè)人權(quán)利干預(yù)較小的方式合理地實(shí)現(xiàn)相同或類似結(jié)果,那么刷臉的使用就是不合比例的。當(dāng)刷臉并非是其實(shí)現(xiàn)目標(biāo)的唯一可能手段時(shí),就必須考慮其他侵入性較小的替代措施。提高效率并非刷臉的正當(dāng)理由,即便稍微比其他不使用生物識(shí)別信息的措施更具效率,刷臉也可能是不必要的。在前述瑞典對學(xué)校使用刷臉考勤的處罰案件中,瑞典數(shù)據(jù)保護(hù)局即根據(jù)比例原則指出,應(yīng)采取對學(xué)生個(gè)人信息權(quán)益侵害更小的其他方式實(shí)現(xiàn)考勤目的?!?8 〕
未經(jīng)比例原則檢驗(yàn),僅憑“為維護(hù)公共安全”本身不能認(rèn)定刷臉的必要性。如前所述,個(gè)人信息保護(hù)法第26條、“人臉識(shí)別司法解釋”第5條第2項(xiàng)必須作嚴(yán)格限縮。對信息保護(hù)基本權(quán)利的限制需要有充分的理由。即便是為執(zhí)法的目的,對敏感個(gè)人信息的處理亦必須符合“充分的必要性”要求。在“馬普爾案”中,歐洲人權(quán)法院即表示,以公共利益為由無限期保留已無罪釋放的嫌疑人的生物識(shí)別信息屬于不合比例的措施?!?9 〕
此外,比例原則檢驗(yàn)是一個(gè)利益衡量的過程。追求的是信息處理者的利益、個(gè)人的權(quán)利和社會(huì)的公共利益之間的平衡,因此必須進(jìn)行風(fēng)險(xiǎn)影響評估。實(shí)際上,根據(jù)個(gè)人信息保護(hù)法第55條第1項(xiàng)及第2項(xiàng),刷臉的機(jī)制至少涉及“處理敏感個(gè)人信息”與“利用個(gè)人信息進(jìn)行自動(dòng)化決策”,必須在事前進(jìn)行風(fēng)險(xiǎn)評估。根據(jù)該條,至少應(yīng)結(jié)合刷臉的目的、處理方式、對個(gè)人可能造成的影響、安全措施進(jìn)行綜合評判。參照GDPR序言第75條,可通過對個(gè)人身體、財(cái)產(chǎn)或其他非物質(zhì)損害的角度評價(jià)具體風(fēng)險(xiǎn)。經(jīng)風(fēng)險(xiǎn)評估和利益衡量,若刷臉的預(yù)期目標(biāo)足夠重要,且能證明對個(gè)人信息權(quán)益的干預(yù)是必要、合理的,即可進(jìn)行相關(guān)應(yīng)用。例如,在特定地點(diǎn)進(jìn)行刷臉以抓捕逃犯、為高效防控疫情進(jìn)行刷臉均符合數(shù)字人權(quán)價(jià)值與比例原則的要求。
(二)特殊規(guī)則的細(xì)化:自動(dòng)化決策框架下的場景化規(guī)制
在個(gè)人信息保護(hù)法第73條第2款的意義上,自動(dòng)化決策的概念與識(shí)別分析存在一定混同。〔30 〕刷臉的識(shí)別分析機(jī)制天然應(yīng)適用自動(dòng)化決策的分析框架。從自動(dòng)化決策的角度,根據(jù)該法第24條第1款,刷臉的識(shí)別分析至少需要滿足“保證決策的透明度和結(jié)果公平、公正”的基本要求。第一,透明度的要求超越了該法第30條敏感信息處理的告知義務(wù)。參照英國的相關(guān)文件,自動(dòng)化決策的透明度不僅要求向信息主體告知“必要性以及對個(gè)人權(quán)益的影響”,而且需要提供關(guān)于臉部信息被如何處理的清晰信息,即需要采取便利、可獲取的方式,向信息主體充分展示刷臉的使用狀態(tài)與目的、數(shù)據(jù)處理方式、維權(quán)途徑等信息。〔31 〕第二,結(jié)果公平、公正不僅要求技術(shù)的上有效和準(zhǔn)確,而且要求排除偏見和歧視的風(fēng)險(xiǎn)。參照歐盟的相關(guān)文件,刷臉系統(tǒng)不得根據(jù)種族、民族、宗教信仰、性取向等高風(fēng)險(xiǎn)類別對人群進(jìn)行分類。〔32 〕
自動(dòng)化決策的分析框架,應(yīng)進(jìn)一步適用于刷臉的具體應(yīng)用場景中。尤其是當(dāng)刷臉的識(shí)別分析機(jī)制被用于金融、住房、保險(xiǎn)、教育、司法、就業(yè)、健康等將對個(gè)人權(quán)益有重大影響的場景時(shí),根據(jù)個(gè)人信息保護(hù)法第24條第3款,信息主體具有“要求個(gè)人信息處理者予以說明”的權(quán)利與自動(dòng)化決策拒絕權(quán)。該條款在邏輯結(jié)構(gòu)上與GDPR第22條第1款高度相似。參考算法解釋權(quán)的理論,應(yīng)將“予以說明”解釋為以簡單易懂的語言、易于獲取的形式,清晰地向信息主體解釋刷臉識(shí)別分析機(jī)制的基本邏輯,展示根據(jù)何種要素作出相關(guān)決策,以便信息主體行使拒絕權(quán)。此外,就信息主體的拒絕權(quán)而言,對于刷臉的拒絕權(quán)絕不限于自動(dòng)化決策。對于任何不符合比例原則、不必要的刷臉,個(gè)人均有權(quán)拒絕?!叭四樧R(shí)別司法解釋”第10條即指出,個(gè)人有權(quán)拒絕將刷臉作為“出入物業(yè)服務(wù)區(qū)域的唯一驗(yàn)證方式”,并有權(quán)“請求其提供其他合理驗(yàn)證方式”。
值得注意的是,常見的公共部門/私營部門分別規(guī)制的模式,不應(yīng)作為場景化規(guī)制引入。該種規(guī)制模式下,公共部門刷臉可以分為絕對禁止和嚴(yán)格限制兩種類型。前述美國馬塞諸塞州薩默維爾市、加州奧克蘭市等即嚴(yán)格禁止公共部門獲得、保留、接入或使用人臉識(shí)別技術(shù)。美國華盛頓州“人臉識(shí)別法”則采取了嚴(yán)格限制的立場,對刷臉明確提出了算法解釋、算法問責(zé)、算法審計(jì)等要求。與之相比,對私營部門的刷臉則更為強(qiáng)調(diào)告知同意機(jī)制的優(yōu)化。筆者并不贊同我國采用這一規(guī)制邏輯,理由有三:第一,公共部門與私營部門的劃分多見于美國法,是美國行業(yè)分散立法的信息保護(hù)模式所決定的。我國個(gè)人信息保護(hù)已采取統(tǒng)一立法模式,無須根據(jù)行業(yè)或部門對某一信息保護(hù)事項(xiàng)進(jìn)行區(qū)分。第二,對公共部門進(jìn)行重點(diǎn)規(guī)制的理由并不充分。公共部門刷臉不一定比私營部門具有更高的風(fēng)險(xiǎn)。而且從社會(huì)公共利益與商業(yè)利益比較的角度,更可能得出對私營部門嚴(yán)格規(guī)制的結(jié)論。第三,公共部門與私營部門只是刷臉的主體,無法指向刷臉的具體應(yīng)用場景。唯有從具體的應(yīng)用場景出發(fā),才能充分評估刷臉對信息主體的影響和風(fēng)險(xiǎn),并提出相應(yīng)的規(guī)制策略。
(三)“隱私設(shè)計(jì)”與去標(biāo)識(shí)化、匿名化的倡導(dǎo)
個(gè)人信息保護(hù)法第51條明確要求信息處理者應(yīng)采取措施實(shí)現(xiàn)個(gè)人信息保護(hù)。該規(guī)定契合了“隱私設(shè)計(jì)”的邏輯。參照GDPR第25條,“隱私設(shè)計(jì)”即要求將個(gè)人信息保護(hù)理念提前融入到刷臉的產(chǎn)品設(shè)計(jì)之中。就刷臉的架構(gòu)設(shè)計(jì)而言,至少可采取以下方式:第一,在選擇技術(shù)解決方案時(shí),應(yīng)首選“隱私計(jì)算”技術(shù),并不斷提高刷臉的安全性、精確度、活體檢測技術(shù),制定合理的安全保護(hù)措施,以“最小必要”原則約束產(chǎn)品代碼。第二,在開發(fā)刷臉產(chǎn)品和服務(wù)時(shí)考慮信息的敏感性,且采取措施保障信息主體的知情權(quán)、選擇權(quán)。例如在手機(jī)端的刷臉應(yīng)用中,可通過“彈窗”的方式直接履行告知義務(wù),且應(yīng)同時(shí)提供其他驗(yàn)證方式,不得通過“默認(rèn)勾選”的方式逾越信息采集的必要范圍。第三,鼓勵(lì)開發(fā)供用戶使用的信息保護(hù)技術(shù)。例如感應(yīng)到鏡頭時(shí)發(fā)出閃光從而破壞圖像“防狗仔裝置”,或通過手機(jī)端向一定范圍內(nèi)的信息處理者廣播拒絕刷臉的技術(shù)。
針對刷臉的識(shí)別分析機(jī)制,應(yīng)充分發(fā)揮去標(biāo)識(shí)化與匿名化的作用。個(gè)人信息保護(hù)法第51條第3項(xiàng)即明確將去標(biāo)識(shí)化規(guī)定為一種安全技術(shù)措施。通過“計(jì)算機(jī)視覺偽裝”技術(shù),可對臉部圖像可作去標(biāo)識(shí)化處理。當(dāng)達(dá)到“經(jīng)過處理無法識(shí)別特定自然人且不能復(fù)原”的標(biāo)準(zhǔn)時(shí),即進(jìn)一步構(gòu)成匿名信息。在前述刷臉廣告的事例中,當(dāng)相關(guān)信息被用于日后的廣告推送時(shí),即便進(jìn)行了相關(guān)去標(biāo)識(shí)化處理也必然是具有識(shí)別性的,屬于個(gè)人信息處理。然而,這并不表明人臉信息就無法實(shí)現(xiàn)匿名。2016年德國零售商Real使用AdPack人臉分析技術(shù)進(jìn)行戶外廣告,該技術(shù)僅在150毫秒內(nèi)對所采集的人臉信息進(jìn)行本地化緩存隨后即馬上刪除?!?3 〕對于類似的“瞬態(tài)刷臉”而言,無論是信息處理者還是任何第三方均無法通過合理的成本復(fù)原相關(guān)信息并識(shí)別到特定個(gè)人,已經(jīng)實(shí)現(xiàn)了匿名化。
盡管如此,以AdPack為代表的應(yīng)用還是受到了大量批評與投訴,最終被迫下架。這里的核心問題是:識(shí)別分析機(jī)制中的匿名信息是否應(yīng)受到信息保護(hù)機(jī)制約束。對此,有學(xué)者主張,“應(yīng)當(dāng)將用戶匿名行為信息納入個(gè)人信息的范疇”,“采取特殊的個(gè)人信息保護(hù)機(jī)制”。 〔34 〕筆者認(rèn)為,不能輕易動(dòng)搖個(gè)人信息的基本概念,作為非個(gè)人信息的匿名信息屬于可自由流動(dòng)的信息。對刷臉的限制措施并非越多越好,刷臉的法律治理必須從刷臉的實(shí)際風(fēng)險(xiǎn)出發(fā),切勿由于對新技術(shù)的恐懼而不當(dāng)限制技術(shù)的發(fā)展。桑斯坦指出,對新風(fēng)險(xiǎn)的認(rèn)知偏差導(dǎo)致容易產(chǎn)生“概率忽視”的現(xiàn)象,即人們傾向于關(guān)注負(fù)面結(jié)果,而不是它的可能性。法律可能會(huì)過度補(bǔ)償以解決消費(fèi)者的憂慮,從而導(dǎo)致“花費(fèi)巨大卻收效甚微或毫無收獲”?!?5 〕歷史經(jīng)驗(yàn)表明,如果過度補(bǔ)償短期恐懼,基于最敏感的一方設(shè)定規(guī)則,將不利于新技術(shù)的發(fā)展與應(yīng)用。
就刷臉的法律治理而言,必須認(rèn)識(shí)到滯后性不是法律的缺點(diǎn)而是法律的特性,對于一個(gè)尚未發(fā)展成熟的新技術(shù)應(yīng)保持適當(dāng)?shù)闹t抑。當(dāng)前,刷臉的匿名化有極大的應(yīng)用空間和現(xiàn)實(shí)需求。刷臉的分析機(jī)制本身即不一定建立在身份識(shí)別的基礎(chǔ)之上,人臉驗(yàn)證、人臉辨析、人臉分析可以相互獨(dú)立。公共場所人流量統(tǒng)計(jì)、體溫檢測、圖片美化都屬于典型的不以識(shí)別為基礎(chǔ)的人臉分析應(yīng)用。在匿名化后,刷臉即可合法地應(yīng)用于自動(dòng)駕駛的行人判斷、公共場所的人流量統(tǒng)計(jì)等眾多場景之中。由此,通過架構(gòu)設(shè)計(jì)的優(yōu)化,推動(dòng)刷臉的合法應(yīng)用不斷發(fā)展,刷臉的風(fēng)險(xiǎn)將會(huì)降低,人們對刷臉的恐懼也將消除。
結(jié)? 語
信息保護(hù)制度隨著技術(shù)的發(fā)展而發(fā)展。1890年,在攝影技術(shù)的背景下,沃倫與布蘭代斯提出了“隱私權(quán)”的理論。1983年,在計(jì)算機(jī)技術(shù)的背景下,在著名的“人口普查案”基礎(chǔ)上,德國學(xué)者提出了“個(gè)人信息自決權(quán)”理論。當(dāng)前,數(shù)字時(shí)代已經(jīng)到來,刷臉作為一種高效、便捷、可用的技術(shù),其未來應(yīng)用必將更加廣泛和深入。總而言之,在人“看”到技術(shù)“看”升級的過程中,刷臉風(fēng)險(xiǎn)的核心既不在于“看”也不于“臉”,而在于對個(gè)人信息的數(shù)字化處理、比對和分析。作為一種身份識(shí)別機(jī)制,刷臉的技術(shù)邏輯與規(guī)制方式均不復(fù)雜。在身份識(shí)別機(jī)制向識(shí)別分析機(jī)制的轉(zhuǎn)換中,刷臉的風(fēng)險(xiǎn)了發(fā)生遷移,規(guī)制機(jī)制的適用產(chǎn)生了轉(zhuǎn)向。對此,必須從比例原則檢驗(yàn)、自動(dòng)化決策下的場景化規(guī)制與技術(shù)架構(gòu)設(shè)計(jì)三個(gè)方面予以應(yīng)對,使野蠻生長的刷臉回歸到合法的軌道上,捍衛(wèi)數(shù)字時(shí)代的個(gè)人信息權(quán)益。
Abstract: Currently, the attributes of face recognition have changed. Face recognition is no longer limited to the identification process of "recognizing a person", but is focused on face analysis or other correlation analysis based on face verification/face recognition, and has been transformed from a pure identification mechanism to a profiling mechanism. The core concern of face recognition in society is the application of profiling. At this time, the security risk of face recognition is re-amplified and the surveillance power is further expanded, which brings a more serious challenge to the protection of basic rights. In order to cope with the change of risk, the application of the regulation mechanism of face recognition has also shifted, namely, limiting the application of informed-consent in the mechanism of biometric information protection; introducing the framework of automated decision-making and Privacy Impact Assessment (PIA) in the mechanism of public surveillance information protection; and shifting to the protection of digital human rights and scenario-based regulation in the theory of regulation. In this regard, in order to build a legal governance path adapted to user profiling, the test of proportionality principle should be emphasized, the application of automated decision-making framework for scenario-based regulation should be introduced, and the architectural design of privacy protection should be encouraged.
Key words: face recognition; personal information protection law; biometric information; public surveillance; digital human rights; profiling