• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      個(gè)性化推薦服務(wù)的法律風(fēng)險(xiǎn)及其規(guī)制進(jìn)路

      2024-12-14 00:00:00王婭
      北方論叢 2024年6期

      [摘 要]信息爆發(fā)式增長的時(shí)代使得個(gè)性化推薦服務(wù)在互聯(lián)網(wǎng)中占據(jù)極其重要的地位。個(gè)性化推薦服務(wù)能有效輔助網(wǎng)絡(luò)平臺(tái)在龐大的信息海洋中篩選有效信息,在解決信息過載問題的同時(shí),極大程度地滿足用戶的個(gè)性化需求。但是,個(gè)性化推薦服務(wù)并不是百利而無一害的,其被網(wǎng)絡(luò)平臺(tái)不合理地使用容易讓用戶面臨著自主受限、隱私泄露、信息繭房、算法歧視等法律風(fēng)險(xiǎn)。針對這些現(xiàn)實(shí)的可能風(fēng)險(xiǎn),可從重申同意、技術(shù)設(shè)計(jì)、強(qiáng)調(diào)競爭、謀求平等的角度出發(fā),對個(gè)人、企業(yè)以及政府提出相應(yīng)的要求以應(yīng)對個(gè)性化推薦服務(wù)帶來的風(fēng)險(xiǎn)挑戰(zhàn)。

      [關(guān)鍵詞]個(gè)性化推薦 個(gè)人權(quán)利 多元共治

      [基金項(xiàng)目]南京財(cái)經(jīng)大學(xué)2023年度校級一般課題“量化自我技術(shù)中數(shù)據(jù)風(fēng)險(xiǎn)的法律規(guī)制研究”(KYW-YXW23001)

      [作者簡介]王婭,南京財(cái)經(jīng)大學(xué)法學(xué)院講師,博士(南京 210023)

      [DOI編號(hào)]10.13761/j.cnki.cn23-1073/c.2024.06.007

      引 言

      隨著信息技術(shù)的飛速發(fā)展以及電子設(shè)備的廣泛應(yīng)用,大量的互聯(lián)網(wǎng)信息向我們撲面而來。根據(jù)國際數(shù)據(jù)公司(IDC)發(fā)布的《數(shù)據(jù)時(shí)代2025》報(bào)告顯示,全球每年所產(chǎn)生的數(shù)據(jù)量可達(dá)175ZB(十萬億億字節(jié)),相當(dāng)于每天產(chǎn)生491EB(百億億字節(jié))的數(shù)據(jù)量。并且,全球的數(shù)據(jù)總量在過去十年以超過40%的復(fù)合增長率呈現(xiàn)爆發(fā)式的增長,這種增長趨勢在未來的5年內(nèi)仍繼續(xù)保持[1。由此可見,我們已進(jìn)入大數(shù)據(jù)時(shí)代。

      大數(shù)據(jù)時(shí)代的出現(xiàn)讓大型網(wǎng)絡(luò)購物平臺(tái)的商品種類可達(dá)幾萬種,但是,用戶所偏愛的產(chǎn)品卻各有不同,同時(shí),用戶的需求也存在著模糊性。據(jù)亞馬遜公司統(tǒng)計(jì),在網(wǎng)絡(luò)平臺(tái)購物中有明確購買意向的僅占16%,絕大多數(shù)用戶在網(wǎng)絡(luò)平臺(tái)購物都具有不確定的需求[2。因此,如何在海量的互聯(lián)網(wǎng)信息中找到用戶所需要的商品或服務(wù),這不僅是用戶所面臨的生活困境,也是互聯(lián)網(wǎng)信息服務(wù)提供者所面臨的主要挑戰(zhàn)?;诖?,個(gè)性化推薦服務(wù)應(yīng)運(yùn)而生。

      所謂個(gè)性化推薦服務(wù),是指根據(jù)用戶的信息需求、興趣和行為模式等,將用戶感興趣的信息、產(chǎn)品和服務(wù)定向推薦給用戶的一種信息服務(wù)[2。 個(gè)性化推薦服務(wù)的優(yōu)越性使其被廣泛地應(yīng)用于電子商務(wù)、社交媒體和數(shù)字娛樂等互聯(lián)網(wǎng)信息服務(wù)交互場景中,幫助網(wǎng)絡(luò)平臺(tái)收集用戶數(shù)據(jù),促進(jìn)信息內(nèi)容與用戶需求的精準(zhǔn)匹配。不過,個(gè)性化推薦服務(wù)被廣泛應(yīng)用的過程中,也引發(fā)了網(wǎng)絡(luò)用戶自主受限、隱私泄露、信息繭房、算法歧視等諸多的法律風(fēng)險(xiǎn),而這些法律風(fēng)險(xiǎn)因應(yīng)個(gè)性化推薦的算法技術(shù)產(chǎn)生。鑒于算法本身所具有的復(fù)雜性、隱秘性、專業(yè)性等特點(diǎn),這不僅讓用戶的個(gè)人權(quán)益難以在網(wǎng)絡(luò)平臺(tái)得到切實(shí)的保障,實(shí)踐中也存在維權(quán)困難的尷尬局面,而且不合理地使用用戶信息也容易擾亂社會(huì)市場秩序,使其成為企業(yè)追求利益最大化而罔顧社會(huì)責(zé)任的借口[3。此外,算法本身有其局限性,這可能會(huì)導(dǎo)致相關(guān)的系統(tǒng)性風(fēng)險(xiǎn),某種程度上甚至?xí)o國家安全和數(shù)據(jù)主權(quán)帶來極大的威脅。個(gè)性化推薦服務(wù)所帶來的法律風(fēng)險(xiǎn)不僅是個(gè)人的困境,也是社會(huì)的挑戰(zhàn)。因此,利益相關(guān)者都需采取相應(yīng)的措施以應(yīng)對個(gè)性化推薦服務(wù)帶來的不利現(xiàn)狀。

      一、個(gè)性化推薦服務(wù)的法律風(fēng)險(xiǎn)

      大數(shù)據(jù)時(shí)代的人們能接觸到足夠多的互聯(lián)網(wǎng)信息。但是,如何在海量的信息中有效地抓取用戶所需要的信息,增強(qiáng)用戶與網(wǎng)絡(luò)平臺(tái)之間的黏性,是各大網(wǎng)絡(luò)平臺(tái)服務(wù)商產(chǎn)品研發(fā)和服務(wù)推廣的重點(diǎn)。目前,大多數(shù)的網(wǎng)絡(luò)平臺(tái)都采用個(gè)性化推薦服務(wù)來滿足用戶的需求。個(gè)性化推薦服務(wù)者利用算法技術(shù)收集用戶在各個(gè)網(wǎng)頁、商品上的各類痕跡,通過算法的自動(dòng)化分析,形成針對用戶個(gè)人偏好的推薦內(nèi)容。個(gè)性化推薦服務(wù)因其獨(dú)特的優(yōu)勢能有效地提升用戶的體驗(yàn),增強(qiáng)用戶與網(wǎng)絡(luò)平臺(tái)的黏性[4。由于個(gè)性化推薦服務(wù)嚴(yán)重依賴海量信息,因此,其需要持續(xù)不斷地對用戶的信息進(jìn)行收集并處理。但是,平臺(tái)的過度或不當(dāng)操作不僅涉及用戶的敏感信息及其權(quán)益保障,甚至對社會(huì)、國家的安全也產(chǎn)生一定的威脅,加之算法本身也存在著缺陷和不足。以上這些考量都意味著個(gè)性化推薦服務(wù)在運(yùn)行過程中可能帶來諸多法律風(fēng)險(xiǎn),下面將分述之:

      (一)自主受限

      個(gè)性化推薦服務(wù)會(huì)對用戶的自主控制能力產(chǎn)生消極影響。數(shù)字經(jīng)濟(jì)時(shí)代的信息就好比互聯(lián)網(wǎng)的血液,發(fā)揮著舉足輕重的作用。網(wǎng)絡(luò)平臺(tái)為了在市場競爭中占據(jù)優(yōu)勢地位,多采用個(gè)性化推薦服務(wù)來收集用戶的各種碎片信息,如交易記錄、賬戶信息、出行記錄、瀏覽記錄以及社交記錄等[5,通過構(gòu)建“網(wǎng)絡(luò)用戶畫像”的方式,來幫助用戶在網(wǎng)絡(luò)平臺(tái)更有效地找到自己所需要的產(chǎn)品、服務(wù)。但是,用戶得以享受網(wǎng)絡(luò)平臺(tái)的便利是以個(gè)人信息被收集以及自主選擇受限為代價(jià)的,這本質(zhì)上是對個(gè)人信息自決權(quán)的侵害。

      信息自決權(quán)是個(gè)人信息保護(hù)體系中最為核心的權(quán)利,體現(xiàn)的是對個(gè)體人格尊嚴(yán)與自由意志的尊崇[6?!靶畔⒆詻Q”意味著個(gè)人擁有獨(dú)立地、不受任何不當(dāng)干涉地使用與處理個(gè)人信息的自由。目前,企業(yè)想獲取、使用與處理用戶的個(gè)人信息,會(huì)將用戶同意作為其行為的正當(dāng)性基礎(chǔ)和免責(zé)事由 。用戶在打開APP后,最先接觸到的就是APP用戶協(xié)議/隱私條款。如果用戶勾選同意,則表示其愿意接受APP用戶協(xié)議/隱私條款中的內(nèi)容,企業(yè)就可以自由獲取、使用與處理用戶的電子信息,這似乎是合理的。然而,中國青年報(bào)社社會(huì)調(diào)查中心聯(lián)合問卷網(wǎng)對1561名受訪者進(jìn)行的一項(xiàng)問卷調(diào)查中顯示,70.9%的受訪者在下載APP時(shí)從來沒有或很少閱讀APP中的用戶協(xié)議/隱私條款,20%的受訪者甚至表示從來沒有讀過王品芝、肖平華:《“我已閱讀并同意”?七成受訪者坦言很少或從沒閱讀過App用戶協(xié)議》,載《中國青年報(bào)》2022年3月第10版。。同時(shí),大多數(shù)的受訪者表示這些用戶協(xié)議/隱私條款的文字煩冗且包含較多專業(yè)術(shù)語,讓人很難閱讀下去,這讓他們更不會(huì)去深究里面的條款。而且,條款中關(guān)于用戶個(gè)人信息收集、使用的內(nèi)容非常模糊,很多用戶在完全不知道的情況下就“同意”個(gè)人信息被收集、使用了。另有調(diào)查發(fā)現(xiàn),在使用APP時(shí)拒絕非必要授權(quán)后,高達(dá)90%的APP不能使用或僅能使用部分功能。因此,用戶就不得不選擇同意用戶協(xié)議/隱私條款劉文慧:《超七成受訪者遭遇過個(gè)人信息泄露》,載《四川法治報(bào)》2023年5月第3版。。

      基于上述這些現(xiàn)實(shí)情況,用戶勾選“同意”的行為并不是一種明確且真實(shí)的同意,而是一種“被同意”。真實(shí)的同意以享有充分的知情權(quán)為前提,但是,用戶協(xié)議/隱私條款的復(fù)雜性和專業(yè)性讓用戶受制于自身的“認(rèn)知局限”,無法做出最合理的判斷。更重要的是,用于體現(xiàn)用戶意思表示的用戶協(xié)議/隱私條款更多是對合規(guī)要求的形式遵守,而非對用戶個(gè)人信息被收集所必須使其真正知情的道德義務(wù)。用戶勾選同意的根本目的在于尊重用戶的自主決定,改變平臺(tái)和用戶之間的權(quán)力勢差和信息不對稱的困境,實(shí)現(xiàn)對用戶自我尊嚴(yán)和自由利益的維護(hù)。但就目前情況來看,無處不在的個(gè)性化推薦服務(wù)已經(jīng)嚴(yán)重地威脅到用戶的自主選擇,侵蝕用戶的個(gè)人真實(shí)體驗(yàn),甚至可能導(dǎo)致用戶實(shí)現(xiàn)自我的可能性減少。因此,網(wǎng)絡(luò)平臺(tái)的發(fā)展必然要以維護(hù)用戶的個(gè)人自治為基本遵循。

      (二)隱私泄露

      個(gè)性化推薦服務(wù)以用戶數(shù)據(jù)作為支持,特別是對有關(guān)用戶個(gè)人偏好的數(shù)據(jù)。但是,這些個(gè)人偏好數(shù)據(jù)往往和用戶隱私有著密切的關(guān)系。如果對這些信息收集、處理不當(dāng),則很可能會(huì)侵犯公民的個(gè)人隱私權(quán)。公民的個(gè)人隱私權(quán)是指公民對于自己的私人事務(wù)享有不受他人干擾或干涉的自由權(quán)[7。隨著信息技術(shù)的發(fā)展,對公民個(gè)人隱私權(quán)的侵犯多以個(gè)人數(shù)據(jù)在網(wǎng)絡(luò)空間被泄露的形式出現(xiàn)。例如,美國的塔吉特公司為了提高營銷效率,利用算法技術(shù)對顧客的歷史購買記錄進(jìn)行分析,以預(yù)測女顧客可能懷孕的可能性,從而達(dá)到精準(zhǔn)投放母嬰產(chǎn)品優(yōu)惠劵的目的。一名意外懷孕的高中女孩是塔吉特公司的顧客,但是,她并沒有向任何人透露自己懷孕的隱私。但某天,她的父母收到了來自塔吉特公司的母嬰產(chǎn)品優(yōu)惠劵從而間接得知女孩意外懷孕的秘密[8。可見,在大數(shù)據(jù)時(shí)代,更加注重保護(hù)公民在網(wǎng)絡(luò)空間的個(gè)人隱私權(quán)十分必要。

      公民在網(wǎng)絡(luò)空間的個(gè)人隱私權(quán)主要表現(xiàn)為:禁止在互聯(lián)網(wǎng)平臺(tái)泄露與用戶相關(guān)的敏感信息,公民在網(wǎng)上享有私人的生活安寧與私人的信息依法受到保護(hù)[9。但從實(shí)踐中看,公民網(wǎng)絡(luò)空間的隱私安全存在著巨大的隱患。申言之,信息技術(shù)時(shí)代,在互聯(lián)網(wǎng)上散布、出售他人信息,電子郵件遭到監(jiān)控等隱私泄露問題常常不絕如縷。需要指出的是,個(gè)性化推薦服務(wù)的飛速發(fā)展讓個(gè)人隱私已然成為一種新型商品。一些IT技術(shù)人員利用技術(shù)手段和工具對個(gè)人信息進(jìn)行技術(shù)性竊取,然后在非法利益的驅(qū)動(dòng)下,將這些所竊取的信息進(jìn)行二次加工或非法交易。例如,在3·15晚會(huì)曝光的隱私泄露問題中就有,中國電信為垃圾短信提供渠道賺取暴利;融營通信、容聯(lián)七陌等多家互聯(lián)網(wǎng)企業(yè)涉嫌收集用戶的個(gè)人隱私,非法買賣用戶的個(gè)人數(shù)據(jù),形成騷擾電話的黑色產(chǎn)業(yè)鏈,問題的嚴(yán)重性使其一經(jīng)揭露就受到人們廣泛關(guān)注10。

      綜上可知,公民的個(gè)人隱私權(quán)在數(shù)據(jù)經(jīng)濟(jì)時(shí)代確實(shí)面臨著巨大的挑戰(zhàn)。數(shù)據(jù)經(jīng)濟(jì)的重要特征是網(wǎng)絡(luò)服務(wù)要求用戶以讓渡個(gè)人敏感信息的方式信任公司[11?!皵?shù)據(jù)平臺(tái)”作為個(gè)人信息處理者將個(gè)人數(shù)據(jù)轉(zhuǎn)換成信息價(jià)值的過程中,使單純的個(gè)人數(shù)據(jù)進(jìn)入了個(gè)人信息權(quán)益保護(hù)的范圍。這些個(gè)人數(shù)據(jù)往往蘊(yùn)含著用戶在教育、家庭、生活等多方面的細(xì)節(jié)?!皵?shù)據(jù)平臺(tái)”若利用算法技術(shù)對用戶的碎片化信息進(jìn)行收集,則很可能還原出用戶的真實(shí)情況。同時(shí),這些數(shù)據(jù)也可能被非法盜取,那就不只是牽涉到隱私泄露的問題,也涉及到信息安全。因此,如果不對“數(shù)據(jù)平臺(tái)”收集信息的行為加以限制,則個(gè)性化服務(wù)很有可能為信息處理者遠(yuǎn)程監(jiān)控用戶提供諸多便利,讓用戶被圍困在“數(shù)據(jù)平臺(tái)”構(gòu)建的“圓形監(jiān)獄”雷曼用“信息圓形監(jiān)獄”(informational panopticon)來形容IVHS(Intelligent Vehicle Highway Systems)項(xiàng)目完全收集個(gè)人信息并累積成公共信息后對隱私構(gòu)成的威脅。See Jeffrey H. Reiman, Driving to the Panopticon: A Philosophical Exploration of the Risks to Privacy Posed by the Highway Technology of the Future, Santa Clara Computer and High-technology Law Journal, Vol.11:1, p.34(1995).中,使用戶的個(gè)人隱私趨于透明,這顯然與個(gè)人隱私保護(hù)的目標(biāo)背道而馳。

      (三)信息繭房

      個(gè)性化推薦服務(wù)的提供者通過對用戶在互聯(lián)網(wǎng)平臺(tái)上注冊、搜索、瀏覽、購買、評價(jià)等歷史記錄進(jìn)行收集,通過大數(shù)據(jù)的智能化分析,向用戶精準(zhǔn)地推送其感興趣的信息、商品和服務(wù),從而達(dá)到增強(qiáng)用戶與平臺(tái)之間黏性的目的。但是,收集的過程不僅存在用戶隱私泄露的風(fēng)險(xiǎn),而且,也嚴(yán)重地限制用戶接受信息多樣化的自由,讓用戶深陷在算法技術(shù)形成的“信息繭房”中,被動(dòng)地接受算法所帶來的各類信息。所謂信息繭房,是指人們只關(guān)注自己感興趣的或者令自己身心愉悅的信息,但長此以往將自己深陷信息孤島的現(xiàn)象[12。

      信息技術(shù)的進(jìn)步和經(jīng)濟(jì)利益的需要促使各互聯(lián)網(wǎng)公司紛紛在自己的APP內(nèi)實(shí)踐個(gè)性化推薦服務(wù)。但是,個(gè)性化推薦服務(wù)的一個(gè)負(fù)面影響就是,信息服務(wù)的提供者主觀地編輯用戶所需要和獲得的信息并隨意裁剪。加之算法技術(shù)概略化、單維化的“極化”特性使其只傳播同類的信息。因此,就會(huì)出現(xiàn)集中、熱門的內(nèi)容獲得更多的推送和傳播,而渙散、冷門的內(nèi)容則被信息海洋所淹沒,無人問津[13。長此以往,用戶越喜歡看什么,APP就越推薦什么,到最后,用戶只能看到自己喜歡看的東西,以致其長期地處于自我封閉的狀態(tài),無法接觸外界的其他信息。既有實(shí)踐也表明,我們可能某天在網(wǎng)絡(luò)上看了幾則關(guān)于某影片的剪輯片段或有關(guān)某地方的新聞,結(jié)果從此往后的若干天里,在該平臺(tái)上每天都會(huì)向我們推送大量的類似內(nèi)容,屬實(shí)讓人不堪其擾,而且,其他我們可能感興趣或者必然感興趣的內(nèi)容則越來越少。

      算法技術(shù)帶來的信息繭房效應(yīng)有多方面的危害性:對用戶而言,信息繭房使用戶自由地獲取知識(shí)的眼界和能力受限,用戶只會(huì)關(guān)注那些符合自我預(yù)期、興趣或者在短時(shí)間內(nèi)對自己有益的信息,長此以往,則會(huì)加劇用戶之間的認(rèn)知鴻溝。對社會(huì)而言,由于用戶深陷信息繭房之中,與其他用戶缺乏有益的溝通交往,則容易對持有相反或不同觀點(diǎn)的個(gè)人或群體產(chǎn)生排斥、打壓心理,甚至?xí)l(fā)大范圍的網(wǎng)絡(luò)沖突,不利于社會(huì)的穩(wěn)定與團(tuán)結(jié)。對國家而言,信息繭房會(huì)形成“馬太效應(yīng)”。一般而言,發(fā)達(dá)國家對算法技術(shù)的約束較好,信息得以集中分配,人們獲得的知識(shí)豐富多樣。但在發(fā)展中國家,算法平臺(tái)掌握話語權(quán),使其能夠自由地對信息進(jìn)行裁剪,信息分配較為分散,人們獲取信息的多樣化受到限制。由是,發(fā)展中國家和發(fā)達(dá)國家之間的信息資源差距將逐漸拉大,而且,前者將在國際競爭中更加處于不利地位[14。

      一個(gè)不會(huì)思考的民族是沒有前途和未來的?;谶@一社會(huì)前景的考量,互聯(lián)網(wǎng)信息服務(wù)的提供者不應(yīng)以一味取悅用戶為目標(biāo),其本身還應(yīng)承載著啟發(fā)民智、保障用戶知情權(quán)等價(jià)值期許,以承擔(dān)相應(yīng)的社會(huì)責(zé)任[15。當(dāng)前社會(huì)是信息社會(huì),信息就是價(jià)值,信息就是金錢,掌握信息就是掌握最前沿的發(fā)展方向。目前,各種APP是人們獲取信息的重要途徑,人們出于天性總是會(huì)傾向于關(guān)注自己感興趣的東西。但是,這并不意味著互聯(lián)網(wǎng)公司就可以剝奪用戶接觸多元信息的機(jī)會(huì)。企業(yè)在謀求自身利益最大化的同時(shí),也應(yīng)該積極地承擔(dān)相應(yīng)的社會(huì)責(zé)任。此外,黨和國家一直在全國推行和諧社會(huì)的建設(shè),這就意味著各方主體需要承擔(dān)起相應(yīng)的責(zé)任。特別是企業(yè),如果其只一味鉆營,不能履行社會(huì)責(zé)任,和諧社會(huì)就只能是一個(gè)期許、一個(gè)口號(hào)。

      (四)算法歧視

      個(gè)性化推薦的算法運(yùn)作邏輯會(huì)形成針對特殊個(gè)體的個(gè)性化規(guī)則,侵害個(gè)體的平等權(quán),造成算法歧視。平等權(quán)作為人的尊嚴(yán)和價(jià)值,意味著每個(gè)人不論其膚色、性別、宗教、性取向等狀況如何,都應(yīng)該享有人之為人所應(yīng)有的權(quán)利。但是,算法歧視的出現(xiàn)使得平等的觀念受到巨大沖擊。

      算法歧視是指對具有某種屬性的特定社會(huì)群體成員采取的不利行為或者實(shí)施的不利程序。算法歧視一般分為直接歧視與間接歧視兩種。直接歧視也稱差別對待,指個(gè)體因其屬于特定群體而遭受不同等待遇的情形。例如,在Google等搜索引擎中,人們在搜索非洲裔美國人相關(guān)名稱時(shí),更容易出現(xiàn)暗示其具有犯罪的歷史信息[16]17-34。又如,亞馬遜公司曾開發(fā)過一套用于篩選求職者簡歷的算法篩選系統(tǒng),其會(huì)自動(dòng)優(yōu)先選擇男性求職者并根據(jù)簡歷中出現(xiàn)的“女性”字眼對于女性求職者的簡歷予以降分處理。是以,直接歧視會(huì)維持或加劇基于膚色、性別、宗教、性取向等方面的成見,進(jìn)而導(dǎo)致對黑人、女性、少數(shù)群體等的歧視。間接歧視也稱差別影響,指表面中立的行為對不同社會(huì)群體成員造成不同等負(fù)面影響的情形。比如,某雇傭單位招聘工作人員,要求應(yīng)聘者的身高至少一米七以上。這看似平等的招聘要求,卻因?yàn)閮尚栽谏項(xiàng)l件的天然差異,實(shí)際上把絕大部分的女性排除在外,剝奪了她們的就業(yè)機(jī)會(huì),這就構(gòu)成了間接歧視。

      算法歧視的形成邏輯從前端模擬展開,中端訓(xùn)練為過程,終端使用形成閉環(huán)。申言之,算法在模擬過程中,人為的變量和分類會(huì)造成歧視,算法在描繪和解釋現(xiàn)實(shí)世界的同時(shí),對人類社會(huì)的結(jié)構(gòu)型偏見進(jìn)行了繼承;算法在訓(xùn)練過程中,數(shù)據(jù)集的不同表現(xiàn)也可能使算法生成歧視性決策;算法在使用過程中,在未擬定非歧視的機(jī)器學(xué)習(xí)算法下,同樣會(huì)導(dǎo)致歧視。這也是為什么谷歌公司在圖片軟件中,錯(cuò)將黑人的照片標(biāo)記為“大猩猩”;Flicker的自動(dòng)標(biāo)記系統(tǒng)也曾錯(cuò)將黑人的照片標(biāo)記為“猿猴”;微軟開發(fā)的人工智能聊天機(jī)器人Tay在和網(wǎng)民聊天不到24小時(shí)就被教壞,成為一個(gè)集反猶太人、性別歧視、種族歧視于一身的“不良少女”[17。

      算法技術(shù)對個(gè)體或者群體不合理的區(qū)別待遇需要我們采取相應(yīng)的解決措施。但從目前對算法歧視的規(guī)制來看,由于概念的模糊,算法歧視常常與平等、公平等詞相關(guān)聯(lián),導(dǎo)致規(guī)制者對算法歧視做泛化處理,認(rèn)為只要算法技術(shù)存在著對個(gè)體或者群體的區(qū)別對待就被視為存在算法歧視,對算法歧視采取“一把抓”的應(yīng)對措施。這種忽略算法歧視的內(nèi)在聯(lián)系而采取的應(yīng)對措施,在一定程度上,也是對算法歧視的歧視。因?yàn)?,算法歧視是一?xiàng)較為具體的風(fēng)險(xiǎn),規(guī)制者應(yīng)該圍繞算法歧視來建立具體的規(guī)制路徑。換言之,應(yīng)根據(jù)算法本身的性質(zhì)、數(shù)據(jù)的處理對象和應(yīng)用的不同場景來進(jìn)行風(fēng)險(xiǎn)評估,明確其規(guī)制的范圍,從而采用不同的規(guī)制路徑。否則,這種不合理地?cái)U(kuò)大算法歧視的規(guī)制范圍容易導(dǎo)致規(guī)制路徑的混亂。對算法歧視的規(guī)制,可以參考美國白宮科技政策辦公室所發(fā)布的《人工智能權(quán)利法案》,在該法案中,規(guī)制者就對算法歧視拋棄了泛化處理,只保護(hù)基于膚色、民族、性別、宗教等法定特征的不合理區(qū)別對待和影響[18。我們也應(yīng)該結(jié)合我國的實(shí)際情況,對算法進(jìn)行風(fēng)險(xiǎn)評估,明確其規(guī)制范圍,建立具體的規(guī)制方法,讓治理算法歧視成為實(shí)現(xiàn)算法公平的一環(huán)。

      二、個(gè)性化推薦法律風(fēng)險(xiǎn)的規(guī)制進(jìn)路

      個(gè)性化推薦服務(wù)的廣泛應(yīng)用,給生活帶來便利的同時(shí),也給用戶帶來自主受限、隱私侵犯、信息繭房和算法歧視等諸多方面的法律風(fēng)險(xiǎn)。目前,面對個(gè)性化推薦服務(wù)所帶來的法律風(fēng)險(xiǎn),已有相應(yīng)的保護(hù)措施。但是,這并不足以有效解決個(gè)性化推薦服務(wù)所帶來的問題?;诖?,本部分?jǐn)M從重申同意的用戶自主確認(rèn)、通過設(shè)計(jì)的隱私保護(hù)技術(shù)、強(qiáng)調(diào)競爭的企業(yè)合規(guī)考量和基于平等的政府監(jiān)管支撐這四個(gè)方面,對個(gè)性化推薦服務(wù)所帶來的法律風(fēng)險(xiǎn)進(jìn)行體系化的規(guī)制探討。

      (一)重申同意的用戶自主確認(rèn)

      個(gè)性化推薦服務(wù)的算法技術(shù)雖然改變了個(gè)人的生活,但是也存在用戶自主受限的影響。若要打破個(gè)人控制自由受限的局面,就需要重申用戶同意的自主確認(rèn),這主要涉及到對用戶知情同意權(quán)和選擇自由的雙重維護(hù)。

      對于用戶的知情同意權(quán)來說,要進(jìn)行同意的有效性判斷,因?yàn)橹挥杏行У耐獠拍茏鑵s信息處理的違法性?!吨腥A人民共和國個(gè)人信息保護(hù)法》第14條規(guī)定,有效的同意需要由用戶在充分知情的前提下自愿、明確做出。該法第17條也提到了信息處理者有著使用戶“知情”的某些告知義務(wù)[19。由此可知,在個(gè)性化推薦服務(wù)中,用戶的知情權(quán)是網(wǎng)絡(luò)平臺(tái)收集并利用用戶數(shù)據(jù)行為的必然要求。用戶對于平臺(tái)收集的數(shù)據(jù)類型、范圍和數(shù)據(jù)處理的方式和目的以及算法技術(shù)的運(yùn)作原理等享有知情權(quán)。基于此,企業(yè)必須適當(dāng)?shù)亟档陀脩魠f(xié)議/隱私條款的閱讀門檻,遵循《數(shù)據(jù)安全管理辦法(征求意見稿)》第8條,以明確具體、簡單通俗的方式明示其收集、使用相關(guān)個(gè)人信息數(shù)據(jù)的目的、方式、范圍等規(guī)則,并征得用戶同意。同時(shí),若條款內(nèi)容的敏感性程度較高,則可以將其單獨(dú)從用戶協(xié)議/隱私條款中分離出來,單獨(dú)征求用戶意愿,盡可能地保證用戶能夠真實(shí)、自愿地完成是否“同意”的自主確認(rèn)。

      對于用戶的選擇自由而言,可在保證用戶享有明確知情權(quán)的前提下,在APP中提供“擇出”和“擇入”兩種機(jī)制來實(shí)現(xiàn),除使用服務(wù)所必須要收集、處理用戶的個(gè)人信息外,不得因用戶自主選擇“擇出”而拒絕向其提供正常服務(wù)。申言之,需要賦予用戶對于個(gè)人信息被獲取、使用與處理的拒絕權(quán),不能強(qiáng)制性地要求用戶必須同意協(xié)議/條款才能正常使用APP。更重要的是,一次同意也不能代表永久性的、所有的同意。目前,很多APP中,是否同意協(xié)議/條款的頁面一般只會(huì)出現(xiàn)一次。但是,同意可能只是一時(shí)性的,只是為適應(yīng)當(dāng)時(shí)的需要所做的決定。因此,在用戶不愿意繼續(xù)被個(gè)性化推送的信息處理者所“窺探”時(shí),也需要給予用戶撤回同意的權(quán)利。此外,在信息處理可能超出用戶同意范圍的時(shí)候,需要就超出范圍的部分重新征求用戶同意。

      毋庸置疑,對用戶知情同意權(quán)與選擇自由的維護(hù)勢必以給平臺(tái)施加義務(wù)為主要手段,這是因?yàn)槭芟抻诩夹g(shù)、專業(yè)和能力等因素,平臺(tái)和用戶之間存在著明顯的權(quán)力勢差和信息不對稱,而且這種差距更是隨著社會(huì)變化和技術(shù)迭代逐漸拉大。因此,通過一系列具體的措施盡可能地平衡平臺(tái)與用戶之間不對等的情況,最大程度地幫助用戶實(shí)現(xiàn)真實(shí)的知情同意和切實(shí)的自主決定,就是數(shù)智時(shí)代的必然選擇。

      (二)通過設(shè)計(jì)的隱私保護(hù)技術(shù)

      數(shù)據(jù)平臺(tái)基于數(shù)據(jù)、運(yùn)營、技術(shù)等優(yōu)勢條件和資源容易對個(gè)人及其信息形成擠壓狀態(tài)。為了應(yīng)對此種狀態(tài),確立數(shù)據(jù)平臺(tái)的“守門人”角色并課以其個(gè)人信息保護(hù)合規(guī)義務(wù)是一種較好的選擇[20。申言之,數(shù)據(jù)平臺(tái)可以“從一開始就將個(gè)人信息保護(hù)的需求通過設(shè)計(jì)嵌入系統(tǒng)之中,成為系統(tǒng)核心功能的一部分,成為商業(yè)實(shí)踐的默認(rèn)規(guī)則,給予個(gè)人信息全生命周期的保護(hù)”[21。這是事先預(yù)防的一種可為手段,不過,這種保護(hù)路徑的有效實(shí)施仰賴于兩個(gè)較為關(guān)鍵的因素。亦即,通過預(yù)先設(shè)計(jì)達(dá)致隱私保護(hù)需要注意技術(shù)信任問題和設(shè)計(jì)者的倫理約束問題。

      其一,在技術(shù)信任方面。首先,要求算法服務(wù)提供者必須增強(qiáng)算法本身的可靠性,逐漸優(yōu)化隱私保護(hù)技術(shù)。比如,平臺(tái)可以在遵循透明且可事后問責(zé)的基礎(chǔ)上,根據(jù)目前用戶隱私保護(hù)所出現(xiàn)的技術(shù)漏洞,不斷地改進(jìn)相關(guān)技術(shù)。其次,考慮到個(gè)性化算法技術(shù)的侵入性和不透明性,應(yīng)對網(wǎng)絡(luò)平臺(tái)用戶的數(shù)據(jù)收集、使用、存儲(chǔ)、傳播等多個(gè)環(huán)節(jié)進(jìn)行技術(shù)加密,對數(shù)據(jù)本身的內(nèi)容進(jìn)行脫敏、去標(biāo)識(shí)化、匿名化等處理,讓用戶的數(shù)據(jù)發(fā)揮其價(jià)值的同時(shí),也能確保其隱私不被泄露[22。最后,技術(shù)信任也要求用戶與算法服務(wù)提供者保持隱私態(tài)度的一致性,將保護(hù)隱私落實(shí)到具體行動(dòng)中。例如,用戶在使用個(gè)性化推薦服務(wù)時(shí),盡可能去閱讀相關(guān)的隱私保護(hù)條例,了解平臺(tái)對于數(shù)據(jù)的使用和處理的運(yùn)作方式,同時(shí),在可操作的范圍內(nèi)對個(gè)人信息進(jìn)行脫敏、匿名、去標(biāo)識(shí)化等有意識(shí)操作,避免自己的信息被泄露、非法利用。

      其二,在設(shè)計(jì)者倫理約束方面。設(shè)計(jì)者倫理要求算法服務(wù)設(shè)計(jì)者應(yīng)具有一定的安全保障義務(wù)與保護(hù)隱私的法治理念。具言之,設(shè)計(jì)者應(yīng)有排除對服務(wù)用戶侵權(quán)以及對未來妨害進(jìn)行審查和控制的義務(wù);設(shè)計(jì)者也應(yīng)自律地表達(dá)合規(guī)承諾,做出合規(guī)設(shè)計(jì),并且,違反合規(guī)承諾時(shí)應(yīng)承擔(dān)相應(yīng)的法律責(zé)任[23。這是因?yàn)樗惴夹g(shù)本身是中立的,但是算法的架構(gòu)會(huì)受到設(shè)計(jì)者的影響,能夠?qū)⑵湔{(diào)整為符合設(shè)計(jì)者利益的模式。這種架構(gòu)本身是不透明的,且不同于法律規(guī)則,有著明顯的義務(wù)主體承擔(dān)相應(yīng)的責(zé)任,這就可能導(dǎo)致隱私保護(hù)技術(shù)的代碼本身仍是“遵從了設(shè)計(jì)者的技術(shù)理性”,摻雜了設(shè)計(jì)者的主觀存在24,尤其是當(dāng)設(shè)計(jì)者的倫理觀念偏離了法律的“制度理性”,就會(huì)導(dǎo)致隱私保護(hù)的目標(biāo)不僅無法實(shí)現(xiàn),而且用戶隱私被侵犯的可能性大大增加。因此,隱私設(shè)計(jì)者應(yīng)具備相當(dāng)程度的個(gè)人信息保護(hù)的法律素養(yǎng)。只有設(shè)計(jì)者擁有切實(shí)的法治意識(shí),他們才能在技術(shù)設(shè)計(jì)的初始就嵌入良好的隱私保護(hù)理念以預(yù)防不同程度的隱私風(fēng)險(xiǎn)或威脅。

      通過技術(shù)信任和設(shè)計(jì)者倫理約束兩個(gè)方面來對隱私保護(hù)進(jìn)行預(yù)先設(shè)計(jì),這不僅是對傳統(tǒng)個(gè)人隱私保護(hù)法律框架的擴(kuò)展,同時(shí),也是對信息技術(shù)迅速發(fā)展和隱私保護(hù)日趨復(fù)雜的積極回應(yīng)。因此,技術(shù)保護(hù)的路徑永遠(yuǎn)在路上。

      (三)強(qiáng)調(diào)競爭的企業(yè)合規(guī)考量

      個(gè)性化推薦服務(wù)作為信息利用方式之一,離不開算法技術(shù)和海量數(shù)據(jù)的支持。鑒于平臺(tái)作為強(qiáng)有力的信息處理者,與用戶之間是一種信息不對稱、地位不平等的關(guān)系。因此,要想克服個(gè)性化推薦服務(wù)所帶來的信息繭房之弊端,達(dá)到有效的信息治理效果,就必須突出企業(yè)的自我約束和控制義務(wù)。

      適當(dāng)?shù)乃惴ㄍ该骺梢宰鳛槠髽I(yè)自我規(guī)制的合理路徑之一。算法技術(shù)的復(fù)雜性及其算法推薦的自動(dòng)性讓廣大網(wǎng)絡(luò)用戶以為算法推薦是中立的,所以他們并不會(huì)去質(zhì)疑平臺(tái)算法的操作過程。算法透明就要求企業(yè)以一定的方式和程度向用戶說明算法自動(dòng)化決策的內(nèi)在邏輯,尤其是解釋用戶重點(diǎn)關(guān)心的特定因素對算法最終決策的具體影響?!端惴ㄍ扑]規(guī)定》第12條就鼓勵(lì)算法推薦服務(wù)的提供者“優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性”,以達(dá)到“避免對用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛”的目標(biāo)[25。更關(guān)鍵的是,出于對商業(yè)秘密的重要性、算法本身的復(fù)雜性之考量,算法的透明度并不都以公開算法源代碼的方式實(shí)現(xiàn)26。這是因?yàn)椋环矫?,算法源代碼的披露某種程度上會(huì)讓企業(yè)在市場競爭中處于不利地位;另一方面,算法源代碼本身有著復(fù)雜的邏輯,即使是專家也很難理解其運(yùn)行邏輯,因此公開算法源代碼并不是算法透明要求的唯一可能。算法透明的作用只是讓用戶對于算法設(shè)計(jì)的基本邏輯和決定個(gè)性化推薦的關(guān)鍵因素有較為直觀的了解。基于此,用戶在使用時(shí)可以知道算法如何計(jì)算數(shù)據(jù)來實(shí)現(xiàn)個(gè)性化推薦,當(dāng)不想使自己的數(shù)據(jù)被收集并給自己推薦,或者想要增加信息多樣性時(shí)能夠主動(dòng)地規(guī)避。正是對算法透明這一企業(yè)自我規(guī)制措施的強(qiáng)調(diào),一定程度上有利于緩解個(gè)性化推薦所帶來的信息供給、信息服務(wù)的差異,有效克服信息繭房之弊。

      企業(yè)加強(qiáng)自我審查對規(guī)制信息繭房之危也有重要意義。企業(yè)作為信息處理者,應(yīng)遵循科技向善的價(jià)值導(dǎo)向,通過對代碼審計(jì)實(shí)現(xiàn)算法推薦的自我審查,同時(shí),對代碼所引發(fā)的信息繭房之漏洞應(yīng)提供相應(yīng)的措施和建議加以解決。而且,企業(yè)也有算法技術(shù)和信息處理等方面的優(yōu)勢條件推動(dòng)算法向著合理、合法的軌道運(yùn)行。有鑒于此,算法的個(gè)性化推薦并不僅僅只滿足用戶的興趣愛好,更應(yīng)在算法思想中融入保障用戶認(rèn)知健康成長的社會(huì)責(zé)任意識(shí),避免知識(shí)鴻溝的出現(xiàn)。企業(yè)加強(qiáng)自我審查的意義在于:一方面,企業(yè)需要繼續(xù)優(yōu)化算法推薦技術(shù),避免服務(wù)一味地迎合用戶興趣以形成主動(dòng)的信息繭房;另一方面,企業(yè)需要融合更多的推薦策略,設(shè)計(jì)更為健康的推薦機(jī)制。此外,企業(yè)自我審查也助益于政府監(jiān)管的實(shí)施,提高政府對算法技術(shù)的監(jiān)管能力和監(jiān)管效率。

      通過算法透明和自我審查,企業(yè)能有效地彌補(bǔ)個(gè)性化推薦服務(wù)的不足,緩解信息繭房的效應(yīng),增強(qiáng)民眾對企業(yè)算法技術(shù)的信任。不過,對企業(yè)自我規(guī)制的強(qiáng)調(diào),不僅僅在于個(gè)人信息保護(hù)的合規(guī)義務(wù)之落實(shí),更經(jīng)濟(jì)的目的在于推動(dòng)企業(yè)之間在數(shù)字生活中公平競爭,而不是個(gè)人與企業(yè)之間相互競爭[27。只有企業(yè)之間充分良性地競爭,個(gè)體才能選擇符合其利益的企業(yè),或者在提供相同服務(wù)的企業(yè)之間自由流動(dòng),進(jìn)而從個(gè)性化推薦服務(wù)中實(shí)際受益。因此,企業(yè)自我規(guī)制最根本的指向就是借此創(chuàng)造企業(yè)的競爭優(yōu)勢,使企業(yè)在自由市場中處于有利地位。職是之故,企業(yè)需要不斷地優(yōu)化自身算法技術(shù),提供多種資源組合來減弱信息繭房的危害,為自身爭取較為有效的核心競爭力,也為用戶創(chuàng)造更多的選擇自由,避免其深陷算法技術(shù)形成的信息孤島之中。

      (四)基于平等的政府監(jiān)管支撐

      相較于社會(huì)中常見的歧視行為,算法歧視更為隱秘,而且,個(gè)人也缺乏足夠的能力來識(shí)別是否發(fā)生算法歧視。因此,借助政府監(jiān)管的力量來增強(qiáng)個(gè)人與企業(yè)討價(jià)還價(jià)的能力就有其必要性。一般來說,政府對算法歧視的監(jiān)管,一方面應(yīng)遵循算法的客觀運(yùn)行規(guī)律,另一方面也要靈活嵌入社會(huì)治理體系,以實(shí)現(xiàn)算法時(shí)代決策公正的要求。因此,政府監(jiān)管的直接目的是為了讓算法在法治化的軌道下運(yùn)行,即通過監(jiān)督減少算法歧視的隱蔽性和復(fù)雜性,確保算法自動(dòng)決策的客觀性與公平性,盡可能減少不必要的歧視給用戶生活和工作帶來的不利影響。

      政府對算法歧視的監(jiān)管可以從風(fēng)險(xiǎn)評估和算法審計(jì)兩方面展開。目前,《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》以及《中華人民共和國國家安全法》都為算法審計(jì)與風(fēng)險(xiǎn)評估提供了法的依據(jù)。風(fēng)險(xiǎn)評估旨在對算法技術(shù)的風(fēng)險(xiǎn)進(jìn)行客觀評估以避免對算法歧視進(jìn)行泛化處理。申言之,風(fēng)險(xiǎn)評估要求加強(qiáng)對算法技術(shù)的真切認(rèn)識(shí),尋求促進(jìn)算法良性發(fā)展的治理途徑,避免讓代表平等、公平的社會(huì)價(jià)值觀屈服于經(jīng)濟(jì)利益,造成沖擊社會(huì)經(jīng)濟(jì)秩序和傳統(tǒng)價(jià)值觀的現(xiàn)象。風(fēng)險(xiǎn)評估可以從界定風(fēng)險(xiǎn)評估對象、風(fēng)險(xiǎn)源識(shí)別和風(fēng)險(xiǎn)評估指標(biāo)體系三個(gè)環(huán)節(jié)來構(gòu)建。具體而言,首先,風(fēng)險(xiǎn)評估對象可以以法律禁止不合理的區(qū)別對待為基礎(chǔ)。當(dāng)然,也需要注意,某些算法雖是基于合法目的的正當(dāng)區(qū)別,但實(shí)際效果卻產(chǎn)生了差別性的對待,這就需要具體判斷算法所區(qū)別的要件是否具有合理性、必要性、合比例性。如果有,則不應(yīng)認(rèn)定為風(fēng)險(xiǎn)評估對象,如果沒有,則應(yīng)歸入風(fēng)險(xiǎn)評估對象范圍[28。其次,風(fēng)險(xiǎn)源的識(shí)別一般以影響權(quán)益、秩序和規(guī)則的敏感信息或者和敏感信息有潛在關(guān)聯(lián)的數(shù)據(jù)為主。最后,建立一定的風(fēng)險(xiǎn)評估框架加以標(biāo)準(zhǔn)化。成體系或者標(biāo)準(zhǔn)化的風(fēng)險(xiǎn)評估框架作為一個(gè)理性策略,可幫助監(jiān)管機(jī)構(gòu)快速且全面地了解并確定可能的數(shù)據(jù)風(fēng)險(xiǎn)程度,并及時(shí)采取得當(dāng)?shù)娘L(fēng)險(xiǎn)應(yīng)急措施。而且,評估框架經(jīng)受實(shí)踐檢驗(yàn)并調(diào)整后,還可以作為行業(yè)標(biāo)準(zhǔn)加以統(tǒng)一應(yīng)用,提升政府總體的監(jiān)管水平。

      算法審計(jì)是由技術(shù)性和非技術(shù)性措施組成的審查算法系統(tǒng)的一系列方法的總稱[29,其可根據(jù)風(fēng)險(xiǎn)評估的指標(biāo)體系來對算法歧視劃分不同的等級,進(jìn)而根據(jù)不同的風(fēng)險(xiǎn)評估指標(biāo)確定不一樣的審計(jì)方法。換言之,算法審計(jì)需遵循分類分級的原則,區(qū)別地對算法主體科以強(qiáng)制審計(jì)的義務(wù)。算法審計(jì)一般是現(xiàn)場檢查以及面談的審計(jì)方法。但是,對于算法歧視而言,因其本身多因參數(shù)的權(quán)重不均而導(dǎo)致,因此就需要使用代碼審計(jì)的方法來糾正偏差。算法審計(jì)為治理算法歧視提供了新思路、新方法,其主要是通過設(shè)計(jì)不同的治理機(jī)制來解決算法歧視所帶來的問題,盡量避免政府“一刀切”式的監(jiān)管模式。有鑒于此,政府的監(jiān)管不能再是傳統(tǒng)的強(qiáng)制—命令式,而應(yīng)是引導(dǎo)性、回應(yīng)性的多元方式。而且,政府監(jiān)管應(yīng)注意靈活把握監(jiān)督的程度,不宜過多地介入企業(yè)自主管理,妨害其技術(shù)創(chuàng)新。

      綜上,政府監(jiān)管是對算法歧視風(fēng)險(xiǎn)的事前預(yù)防,也是事后救濟(jì)算法歧視的一道防線。通過政府對算法歧視的監(jiān)管,算法會(huì)受到外部正確價(jià)值觀的干預(yù),進(jìn)而切實(shí)地減少不公正算法對決策過程和公正結(jié)果的影響。因此,政府監(jiān)管的主要目的就在于確保算法能夠承載反歧視的價(jià)值倫理。唯有如此,才能真切地踐行個(gè)人和社會(huì)對平等價(jià)值的不懈追求。

      結(jié) 語

      個(gè)性化推薦服務(wù)的廣泛應(yīng)用不僅提高了用戶對網(wǎng)絡(luò)平臺(tái)的黏性,而且也給互聯(lián)網(wǎng)企業(yè)帶來巨大利潤。但是,這看似用戶與企業(yè)雙贏的局面,實(shí)際上對網(wǎng)絡(luò)用戶的信息安全和隱私造成極大損害,同時(shí),也嚴(yán)重危害到社會(huì)的整體利益。因此,如何在個(gè)性化推薦服務(wù)中保護(hù)用戶的個(gè)人信息免受侵害,達(dá)致經(jīng)濟(jì)發(fā)展和權(quán)益保護(hù)的平衡就是當(dāng)下研究的重中之重。當(dāng)前,面臨個(gè)性化推薦服務(wù)所帶來的諸多便利和效用,我們已無法拒絕也不可能拒絕這一技術(shù)實(shí)踐。但是,不受限的技術(shù)發(fā)展必然會(huì)加劇已有的個(gè)人信息利用危害或者促使更多可知的和未知的風(fēng)險(xiǎn)損害。在這些可能的風(fēng)險(xiǎn)考量中,個(gè)體自主性的逐漸喪失、個(gè)人隱私的加倍泄露、人為建構(gòu)的信息繭房以及無從逃避的算法歧視等風(fēng)險(xiǎn)依然挑動(dòng)著人們脆弱的神經(jīng),刺激著人類敏感的情緒。更為重要的是,社會(huì)情境的復(fù)雜性和經(jīng)濟(jì)利益的多元性使得單一的個(gè)人信息保護(hù)框架已經(jīng)無法有效解決個(gè)人信息受侵犯以及個(gè)人權(quán)益被侵害的問題?;诖耍噲D構(gòu)建多種組合的手段共同地維護(hù)個(gè)人權(quán)益和社會(huì)利益就是當(dāng)下必然的理性選擇。具言之,只有經(jīng)由重申同意的用戶自主確認(rèn)、通過設(shè)計(jì)的隱私保護(hù)技術(shù)、強(qiáng)調(diào)競爭的企業(yè)合規(guī)考量以及基于平等的政府監(jiān)管支撐等多元參與的路徑,我們才能更好地促進(jìn)技術(shù)發(fā)展與權(quán)利保護(hù)的互惠共生。

      [參 考 文 獻(xiàn)]

      [1]中國人民大學(xué)高瓴人工智能學(xué)院.算法向善與個(gè)性化推薦發(fā)展研究報(bào)告[R].2022-01-07.

      [2]金雪.考慮評分差異的網(wǎng)上超市商品組合推薦方法研究[D].大連:大連海事大學(xué),2023.

      [3]李敏.電商平臺(tái)個(gè)性化推薦算法的法律規(guī)制[J].現(xiàn)代商業(yè),2023(18).

      [4]石易,周神保.個(gè)性化推薦算法的安全風(fēng)險(xiǎn)[J].中國電信業(yè),2019(5).

      [5]崔愛茹,湯小春.基于Web多人協(xié)作平臺(tái)的個(gè)性化推薦算法研究[J].計(jì)算機(jī)與現(xiàn)代化,2013(3).

      [6]榮予暢,吳才毓.個(gè)性化推薦場景下信息自決權(quán)研究[J].江蘇科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2021(4).

      [7]謝遠(yuǎn)揚(yáng).信息論視角下個(gè)人信息的價(jià)值——兼對隱私權(quán)保護(hù)模式的檢討[J].清華法學(xué),2015(3).

      [8]郭鵬,李展鵬.預(yù)測分析技術(shù)背景下的個(gè)人信息行政保護(hù)新機(jī)制建構(gòu)[J].學(xué)術(shù)研究,2023(7).

      [9]年俊潔.司法公開視域下的個(gè)人信息保護(hù)問題研究[D].蘭州:蘭州大學(xué),2023.

      [10]黃靖雯,陶士貴.數(shù)智化階段的金融科技:風(fēng)險(xiǎn)與監(jiān)管[J].蘭州學(xué)刊,2023(6).

      [11]賈云雁.論網(wǎng)絡(luò)隱私權(quán)的保護(hù)[J].經(jīng)濟(jì)視角(下),2011(3).

      [12]蔡川子.數(shù)據(jù)抓取行為的競爭法規(guī)制[J].比較法研究,2021(4).

      [13]曾建輝.算法時(shí)代出版評論的當(dāng)下境遇與發(fā)展進(jìn)路[J].中國編輯,2021(10).

      [14]唐子茜,袁堯,汪衛(wèi)霞.從信息繭房到多元賦能:知識(shí)鴻溝的產(chǎn)生機(jī)制及其治理路徑研究[J].情報(bào)理論與實(shí)踐,2024(6).

      [15]謝永江,楊永興,劉濤.個(gè)性化推薦算法的法律風(fēng)險(xiǎn)規(guī)制[J].北京科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024(1).

      [16]Daniel R.Shulman.What’s the Problem with Google? [J].THE Sedona Conference Journal ,2014(15):17-34.

      [17]李嘉真.商業(yè)算法決策的異化困境及其規(guī)制出路[D].上海:華東政法大學(xué),2023.

      [18]李志穎.算法歧視的兩副面孔及其法律規(guī)制[J].交大法學(xué),2024(1).

      [19]傅雪婷.個(gè)人信息同意任意撤回:目的、體系與規(guī)則[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024(2).

      [20]焦俊峰,李曉東.大數(shù)據(jù)時(shí)代個(gè)人信息保護(hù)的治理體系研究——基于技術(shù)信任和專家系統(tǒng)的二分框架[J].電子政務(wù),2022(12).

      [21]時(shí)明濤.個(gè)人信息保護(hù)“知情同意”的規(guī)范再造[J].民商法論叢,2023(1).

      [22]張奕翔.算法時(shí)代的隱私保護(hù):矛盾困境、路徑方向及未來挑戰(zhàn)[J].傳媒論壇,2022(16).

      [23]王鵬.數(shù)據(jù)平臺(tái)個(gè)人信息保護(hù)的合規(guī)義務(wù)與路徑實(shí)施[J].江蘇社會(huì)科學(xué),2023(3).

      [24]鄭馳.算法推薦的權(quán)利風(fēng)險(xiǎn)及其治理[J].大連海事大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(4).

      [25]林洹民.《個(gè)人信息保護(hù)法》中的算法解釋權(quán):兼顧公私場景的區(qū)分規(guī)范策略[J].法治研究,2022(5).

      [26]蘇宇.優(yōu)化算法可解釋性及透明度義務(wù)之詮釋與展開[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2022(1).

      [27]王婭.個(gè)人信息保護(hù)理念的錯(cuò)位與回歸[J].學(xué)術(shù)交流,2022(8).

      [28]徐楊嵐.“技術(shù)—環(huán)境”視角下算法風(fēng)險(xiǎn)評估指標(biāo)體系的理論建構(gòu)[D].成都:電子科技大學(xué),2023.

      [29]張欣,宋雨鑫.算法審計(jì)的制度邏輯和本土化構(gòu)建[J].鄭州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2022(6).

      [責(zé)任編輯 錢大軍]

      The Legal Risk of Personalized Recommendation Service and Its Regulation Approach

      WANG Ya

      Abstract:The era of explosive growth of information makes personalized recommendation service occupy an extremely important position in the Internet. Personalized recommendation service can effectively assist the network platform to screen effective information in the huge information ocean, solve the problem of information overload, and greatly meet the personalized needs of users. However, personalized recommendation service is not beneficial without harm, and its unreasonable use by network platforms easily makes users face legal risks such as autonomy limitation, privacy disclosure, information cocoon, algorithm discrimination and so on. In view of these potential realistic risks, we can put forward corresponding requirements for individuals, enterprises and governments to deal with the risks and challenges brought by personalized recommendation services from the perspectives of reaffirming consent, technical design, emphasizing competition and seeking equality.

      Key words:Personalized Recommendation Individual Rights Pluralistic Co-governance

      建昌县| 梅河口市| 宁南县| 台中县| 襄城县| 囊谦县| 饶阳县| 茌平县| 揭阳市| 凤台县| 五河县| 常山县| 金溪县| 仙桃市| 浠水县| 资源县| 稻城县| 绍兴市| 凉山| 儋州市| 永嘉县| 宜兰县| 屯昌县| 平凉市| 黄冈市| 太谷县| 兖州市| 城固县| 鄂温| 大竹县| 洛南县| 临安市| 宿松县| 承德县| 峡江县| 资兴市| 祁阳县| 乐平市| 株洲县| 漯河市| 阿坝|