王淑琳 陳曉英
摘要:近些年,在人工智能的熱潮下,人臉識(shí)別技術(shù)快速發(fā)展,在社會(huì)各個(gè)領(lǐng)域中廣泛應(yīng)用。但人臉識(shí)別技術(shù)目前還缺乏有效的倫理規(guī)制,所以為我們提供便利的同時(shí)也不可避免地帶來了不可忽視的倫理問題,對(duì)這些倫理問題進(jìn)行研究,有利于人們對(duì)人臉識(shí)別技術(shù)的應(yīng)用所帶來的風(fēng)險(xiǎn)做好防范,也會(huì)更加促進(jìn)人臉識(shí)別技術(shù)的發(fā)展與廣泛應(yīng)用,更好地趨利避害,使這項(xiàng)技術(shù)的社會(huì)風(fēng)險(xiǎn)降到最低。
關(guān)鍵詞:人臉識(shí)別;隱私安全;倫理問題
1. 人臉識(shí)別技術(shù)及其應(yīng)用價(jià)值
1.1 人臉識(shí)別技術(shù)的內(nèi)涵
人臉識(shí)別是一種基于人的臉部特征信息進(jìn)行身份識(shí)別的生物識(shí)別技術(shù)[1]。該技術(shù)根據(jù)每個(gè)人不同的臉部特征,對(duì)輸入的人臉圖像或視頻流進(jìn)行識(shí)別,依據(jù)眉毛、眼睛、鼻子、嘴巴、下巴和瞳孔距離等信息,給出每個(gè)人臉的位置,大小及主要面部器官的位置信息,準(zhǔn)確而快速做出身份識(shí)別,具有很強(qiáng)的可塑性和穩(wěn)定性。
1.2 人臉識(shí)別技術(shù)的應(yīng)用價(jià)值
人臉識(shí)別技術(shù)已有近60年的歷史,該技術(shù)隨著科技進(jìn)步與經(jīng)濟(jì)發(fā)展,也獲得了各國政府的大力支持,被大規(guī)模廣泛應(yīng)用到公共安全、商業(yè)、教育、醫(yī)療等各個(gè)領(lǐng)域,從而得以迅速擴(kuò)張,愈加凸顯其自身的社會(huì)和經(jīng)濟(jì)價(jià)值。首先是社會(huì)價(jià)值。雖然人臉識(shí)別技術(shù)在應(yīng)用中帶有一定的風(fēng)險(xiǎn),但其巨大的社會(huì)價(jià)值日益顯現(xiàn)。該技術(shù)在交通、教育、醫(yī)療等領(lǐng)域廣泛應(yīng)用,解決了很多痛點(diǎn)難點(diǎn)問題,在不斷改變民眾的生產(chǎn)生活方式的同時(shí),極大提升了社會(huì)的運(yùn)作效率。其次是經(jīng)濟(jì)價(jià)值。人臉識(shí)別技術(shù)的應(yīng)用大大降低了社會(huì)整體的工作量,節(jié)約了時(shí)間和運(yùn)營成本,其豐富的應(yīng)用場(chǎng)景在一定程度上促進(jìn)了經(jīng)濟(jì)的發(fā)展,也為經(jīng)濟(jì)社會(huì)的創(chuàng)新發(fā)展帶來了新的機(jī)遇。
2. 人臉識(shí)別技術(shù)應(yīng)用引發(fā)的倫理問題及其成因
人臉識(shí)別技術(shù)在加速應(yīng)用的同時(shí),有關(guān)它的爭議也成了國內(nèi)外社會(huì)關(guān)注的焦點(diǎn)問題,尤其是隱私安全、自由和權(quán)利、算法歧視等方面的倫理風(fēng)險(xiǎn)問題,引發(fā)人們憂慮和深層次的思考。因此,如何構(gòu)建有效的倫理機(jī)制去應(yīng)對(duì)觸發(fā)的倫理挑戰(zhàn),已刻不容緩。
2.1 人臉識(shí)別技術(shù)應(yīng)用引發(fā)的主要倫理問題表現(xiàn)
2.1.1 隱私安全問題
隨著人臉識(shí)別技術(shù)的廣泛應(yīng)用,關(guān)于該技術(shù)帶來的隱私安全問題已經(jīng)屢見不鮮。當(dāng)今人們已經(jīng)來到了“數(shù)字時(shí)代”,個(gè)人信息在不知情的情況下可能早已被獲取,面部信息一旦被采集,被采集者的家庭住址、工作、年齡、性格等各種隱私都可以被知悉,好像變成了“透明人”。這些信息可能會(huì)被非法販賣,獲得盈利。隱私權(quán)是一種基本的人格權(quán)利,不管是從法律還是倫理道德角度,我們都應(yīng)該維護(hù)公民的隱私權(quán),使其不受侵犯。
2.1.2 算法歧視問題
人臉識(shí)別技術(shù)不是孤立的技術(shù),必然要與其他的數(shù)據(jù)、算法相關(guān)聯(lián),難以避免歧視性因素[2]。首先,該技術(shù)在實(shí)驗(yàn)中可能會(huì)采用一些不是研究者或被采集者主觀決定的面部數(shù)據(jù)進(jìn)行計(jì)算研究;其次,與其相關(guān)聯(lián)的技術(shù)中的算法不一定是公平公正的;最后,在具體的使用中,可能對(duì)不同群體、種族等存在偏見。
2.1.3 技術(shù)風(fēng)險(xiǎn)問題
隨著人臉識(shí)別技術(shù)的應(yīng)用,許多社會(huì)風(fēng)險(xiǎn)問題被暴露,這是因其技術(shù)本身的缺陷而造成的。人臉識(shí)別設(shè)備在采集時(shí)會(huì)受到光線不同、膚色、姿態(tài)裝扮等的影響,缺乏穩(wěn)定性,并且隨著數(shù)據(jù)庫里的面部信息增多,可能會(huì)出現(xiàn)對(duì)個(gè)人身份判定混淆的情況。雖然該技術(shù)發(fā)展至今已更加精準(zhǔn)穩(wěn)定,但也不能保證百分百準(zhǔn)確識(shí)別,其缺陷會(huì)隨著應(yīng)用繼續(xù)暴露,因此也要重視技術(shù)本身所引發(fā)的倫理問題。
3. 人臉識(shí)別技術(shù)應(yīng)用的倫理問題成因分析
3.1 人臉識(shí)別技術(shù)自身的局限性
在人臉識(shí)別技術(shù)的研發(fā)、面部數(shù)據(jù)庫的建立,以及分析參數(shù)、模型系統(tǒng)的調(diào)試過程中,研發(fā)者與調(diào)試人員不可避免地會(huì)將自己的意志嵌入其中[3],因此在其中加入個(gè)人的主觀意志、偏見是在所難免的。人臉識(shí)別看似只需一瞬間,其實(shí)背后的算法是十分復(fù)雜的,這種偏見及錯(cuò)誤會(huì)造成嚴(yán)重的影響,引發(fā)相關(guān)的風(fēng)險(xiǎn)。
3.2 人們對(duì)安全隱私問題認(rèn)識(shí)不足
互聯(lián)網(wǎng)時(shí)代改變了人們的生活方式和思維觀念,大家在網(wǎng)上分享自己的心情、生活等,對(duì)個(gè)人隱私安全問題的重視越來越弱化,甚至進(jìn)入了一個(gè)無隱私時(shí)代。人們一生的數(shù)據(jù)都在被收集,這些數(shù)據(jù)的使用目的、分享程度及去向,用戶本人并不知情,所以人臉識(shí)別技術(shù)引發(fā)的隱私安全問題和個(gè)人的重視程度有很大的關(guān)系。
3.3 缺乏倫理原則和規(guī)則
如何合理應(yīng)用人臉識(shí)別技術(shù),是目前學(xué)術(shù)界和公眾關(guān)注的一個(gè)熱門話題,倫理原則和規(guī)則的制定對(duì)該技術(shù)的規(guī)范發(fā)展是十分重要的。人臉識(shí)別技術(shù)的開發(fā)者和應(yīng)用者的利益是不相同的,這不能僅靠法律上的約束,還需要有效的倫理原則和規(guī)則。這就要求倫理學(xué)家們更應(yīng)該去關(guān)注科學(xué)工作,了解科學(xué)技術(shù),提煉出該技術(shù)領(lǐng)域可能會(huì)帶來的問題,從而制訂更符合現(xiàn)實(shí)、可以普遍應(yīng)用的倫理原則和規(guī)則。
3.4 監(jiān)督機(jī)制不健全
人臉識(shí)別技術(shù)在我國應(yīng)用的領(lǐng)域非常多,但目前相應(yīng)的監(jiān)管機(jī)制和立法工作并沒有跟上其發(fā)展速度。雖然我國《信息安全技術(shù) 個(gè)人安全信息規(guī)范》規(guī)定了個(gè)人對(duì)信息的訪問權(quán)、更正刪除權(quán)、可攜帶權(quán)等,但其只是推薦性的國家標(biāo)準(zhǔn),沒有強(qiáng)制執(zhí)行權(quán)[4]。隨著人臉識(shí)別技術(shù)應(yīng)用領(lǐng)域的不斷擴(kuò)大,問題層出不窮,我國亟須建立一套健全的監(jiān)督體制以保障技術(shù)的發(fā)展,更好地服務(wù)于人民。
4. 人臉識(shí)別技術(shù)倫理問題應(yīng)對(duì)策略
人臉識(shí)別技術(shù)的應(yīng)用引發(fā)的倫理問題挑戰(zhàn)公眾的認(rèn)知和理解,威脅了國家和個(gè)人的安全。要解決該技術(shù)所帶來的問題,我們既要對(duì)這項(xiàng)技術(shù)本身有所了解,又需要超越其本身,在宏觀的層面給出方向性的引導(dǎo),這對(duì)人臉識(shí)別技術(shù)的健康發(fā)展有著重要的意義。
4.1 技術(shù)層面
4.1.1 提高人臉識(shí)別技術(shù)水平
我國是使用人臉識(shí)別技術(shù)的大國,人們對(duì)其早已習(xí)以為常,但它本身是一項(xiàng)非常復(fù)雜的、尚在發(fā)展中的生物識(shí)別技術(shù),還存在著許多不足。隨著技術(shù)的發(fā)展,出現(xiàn)了許多被破解獲取信息的漏洞,個(gè)人數(shù)據(jù)的大規(guī)模泄露會(huì)給公民和國家?guī)順O大的危險(xiǎn),并且對(duì)不同群體、種族穩(wěn)定性較弱,這些都是技術(shù)的不完善帶來的。因此在發(fā)展該技術(shù)時(shí),首先應(yīng)提高其穩(wěn)定性,使其不受外部環(huán)境的干擾;其次要將不同群體、種族的數(shù)據(jù)都加以收集,提高其正確率避免算法歧視問題;最后要提高技術(shù)的防破解能力,不斷完善技術(shù)才能健康地發(fā)展。
4.1.2 將倫理價(jià)值作為技術(shù)研究的一部分
技術(shù)發(fā)展與人類的關(guān)系一直以來都是研究的熱門話題,怎樣化解這兩個(gè)方面的沖突需要科學(xué)的介入。在這個(gè)世界上人是最重要的生物,任何技術(shù)離開了人都是毫無意義的,不管是技術(shù)的手段還是目的都應(yīng)該是向善的,對(duì)社會(huì)有益的。倫理性與技術(shù)的實(shí)際應(yīng)用緊密結(jié)合,有助于該技術(shù)的發(fā)展和社會(huì)的穩(wěn)定。比如很多場(chǎng)合不去“刷臉”就會(huì)失去某些使用權(quán),這就將技術(shù)倫理與人的情感割裂開,使技術(shù)變得冷冰冰。所以在發(fā)展人臉識(shí)別技術(shù)時(shí)應(yīng)以馬克思主義科技觀為指導(dǎo),始終保持人的主體地位,始終保持造福人類的思想,解決人的合理需求,時(shí)時(shí)刻刻讓道德倫理價(jià)值成為約束它的一部分,才會(huì)使人臉識(shí)別技術(shù)與社會(huì)協(xié)調(diào)發(fā)展。
4.2 人類自身層面
4.2.1 提升技術(shù)研發(fā)者的道德責(zé)任感
任何一項(xiàng)技術(shù)被廣泛地應(yīng)用一定是符合人類需求的。人臉識(shí)別技術(shù)要想長久健康地發(fā)展,首先技術(shù)研發(fā)要有價(jià)值觀的加載,以造福人類為前提。科學(xué)技術(shù)和哲學(xué)是密不可分的,這就要求科學(xué)工作者們要同時(shí)關(guān)注科學(xué)和哲學(xué)領(lǐng)域,多考慮民眾的利益和需求,對(duì)技術(shù)可能產(chǎn)生的影響做出預(yù)判,盡可能改進(jìn)其中可能存在的問題。要樹立正確的科技觀,對(duì)整個(gè)社會(huì)要有道德責(zé)任擔(dān)當(dāng),使技術(shù)惠及人類。
4.2.2 提升個(gè)人信息保護(hù)意識(shí)
在一些西方國家由于隱私問題,這項(xiàng)技術(shù)被很多領(lǐng)域明確禁止使用,但在我們國家,這類意識(shí)的宣傳和普及并沒有跟上技術(shù)的發(fā)展。隨著宣傳人們保護(hù)隱私的意識(shí)有所增強(qiáng),但有時(shí)為了享用某個(gè)功能還是不得不同意被獲取信息。我國媒體應(yīng)繼續(xù)大力宣傳保護(hù)隱私的重要性,提高大家的自覺性,在隱私被窺探時(shí)要及時(shí)制止,避免個(gè)人隱私泄露。
4.2.3 增強(qiáng)企業(yè)社會(huì)責(zé)任感
隨著人臉識(shí)別技術(shù)在商業(yè)領(lǐng)域應(yīng)用,很多企業(yè)為了自身利益,不合規(guī)范地使用該技術(shù)獲取個(gè)人信息。監(jiān)管部門對(duì)于企業(yè)的倫理正義感以及對(duì)社會(huì)責(zé)任感的引導(dǎo)也比較空白,造成了越來越多的漏洞。企業(yè)是處在整個(gè)社會(huì)大環(huán)境中的,不是孤立存在的,企業(yè)家要有正確的企業(yè)價(jià)值觀和強(qiáng)烈的社會(huì)責(zé)任感,不能只追求利益而無視人民,這樣的企業(yè)也是無法長久發(fā)展的。增強(qiáng)企業(yè)倫理觀念和社會(huì)責(zé)任感,才能推動(dòng)社會(huì)長期的繁榮發(fā)展。
4.3 制度規(guī)范層面
4.3.1 加強(qiáng)制度建設(shè)
倫理制度的建設(shè)對(duì)于解決人臉識(shí)別技術(shù)的應(yīng)用所產(chǎn)生的倫理問題是不可缺少的。這里的倫理制度建設(shè)指的是人臉識(shí)別技術(shù)本身以及應(yīng)用中的倫理制度建設(shè),兩者相結(jié)合才能有效應(yīng)對(duì)這些倫理問題。首先要尊重每個(gè)人的權(quán)利,要有正當(dāng)目的、以最低限度去采集;其次公眾要有知情同意權(quán),在被采集時(shí)有刪除或拒絕的權(quán)利;最后針對(duì)可能存在的問題,要從技術(shù)本身的數(shù)據(jù)算法、數(shù)據(jù)庫的采用等環(huán)節(jié)去著手,秉持公平公正的原則,對(duì)于個(gè)人信息的存儲(chǔ)、使用要做到向大眾公開,推動(dòng)建立第三方的監(jiān)督機(jī)構(gòu),這樣才能得到公眾的信任和長久的發(fā)展。
4.3.2 立法規(guī)范人臉識(shí)別技術(shù)
人臉識(shí)別技術(shù)的應(yīng)用給我國帶來倫理風(fēng)險(xiǎn)問題的原因中,重要的一點(diǎn)是我國對(duì)于該技術(shù)的法律問題認(rèn)識(shí)并不深刻。面對(duì)這項(xiàng)技術(shù)的蓬勃發(fā)展,法律應(yīng)該具有預(yù)見性,加強(qiáng)管理,明確底線與邊界。我國應(yīng)健全配套數(shù)據(jù)安全立法和促使信息執(zhí)法全面落地,建立信息安全管理的全方位鏈條模式[5]。加強(qiáng)法律層面的制約才會(huì)使監(jiān)管起到真正的作用,保護(hù)人民的合法權(quán)益。
4.3.3 完善監(jiān)督機(jī)制、科學(xué)管理使用
建立有效的、全方位的監(jiān)督機(jī)制可以保障人臉識(shí)別技術(shù)的長久發(fā)展,對(duì)解決隱私安全和算法歧視等倫理問題有很大的作用,在一定程度上可以避免可能引發(fā)的技術(shù)風(fēng)險(xiǎn)問題。在該技術(shù)的應(yīng)用中,對(duì)人臉信息的使用情況、目的等,要做到科學(xué)管理和監(jiān)督;在人臉識(shí)別技術(shù)開發(fā)時(shí),要監(jiān)督其研發(fā)是否對(duì)社會(huì)有益,是否能在法律的監(jiān)管下運(yùn)行;在人臉識(shí)別技術(shù)的設(shè)計(jì)中,要監(jiān)督其不能對(duì)人類的隱私、尊嚴(yán)、人權(quán)等進(jìn)行傷害。對(duì)于不利于社會(huì)發(fā)展的技術(shù)應(yīng)用應(yīng)該明確禁止。人臉識(shí)別技術(shù)是一項(xiàng)還在發(fā)展中的技術(shù),隨著不斷應(yīng)用,還會(huì)引發(fā)哪些問題,還有待于深入思考。我們必須加強(qiáng)科學(xué)管理,理性地去使用和看待。
結(jié)語
人臉識(shí)別技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的嶄新成果,是人工智能發(fā)展的必然趨勢(shì)。雖然文章提到了人臉識(shí)別技術(shù)的應(yīng)用會(huì)帶來隱私安全、歧視、社會(huì)風(fēng)險(xiǎn)等一系列的倫理問題,但是也促進(jìn)了社會(huì)和經(jīng)濟(jì)的發(fā)展。對(duì)于人臉識(shí)別技術(shù)的利與弊,我們都要理性看待。文章提出了幾點(diǎn)應(yīng)對(duì)人臉識(shí)別技術(shù)倫理問題的策略,相信只要正確地看待和使用人臉識(shí)別技術(shù),使其在更加清晰的法律法規(guī)約束下發(fā)展,做到有法可依、有理可循,它將會(huì)更加健康長久,更好地造福人類。
參考文獻(xiàn):
[1]王嘉華.論人臉識(shí)別技術(shù)應(yīng)用中個(gè)人信息的法律保護(hù)[D].杭州:浙江工商大學(xué),2021.
[2]胡曉萌,李倫.人臉識(shí)別技術(shù)的倫理風(fēng)險(xiǎn)及其規(guī)制[J].湘潭大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2021,45(4):134-138.
[3]馬世順.人臉識(shí)別技術(shù)的應(yīng)用風(fēng)險(xiǎn)及其防控研究[J].河北公安警察職業(yè)學(xué)院學(xué)報(bào),2022,22(1):40-43.
[4]劉榮.人臉識(shí)別技術(shù)的問題及其規(guī)制研究[J].安徽警官職業(yè)學(xué)院學(xué)報(bào),2021,20(2):11-14.
[5]文銘,劉博.人臉識(shí)別技術(shù)應(yīng)用中的法律規(guī)制研究[J].科技與法律,2020,(4):77-85.
作者簡介:王淑琳,在讀碩士研究生,研究方向:科學(xué)技術(shù)與社會(huì)。