• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      智能推薦的法律問題及其紓解之徑

      2018-01-01 14:13:20晨,張
      關(guān)鍵詞:個(gè)人信息智能算法

      雍 晨,張 冉

      (西南政法大學(xué),重慶 401120)

      【關(guān)鍵字】智能推薦;算法偏見;隱私權(quán);個(gè)人信息;自由發(fā)展權(quán)

      一、智能推薦概述

      在當(dāng)今復(fù)雜的商業(yè)競爭中,企業(yè)必須變得更加協(xié)作、準(zhǔn)確、同步、自適應(yīng)和敏捷,以求能夠迅速響應(yīng)市場需求和變化。[1]因此,數(shù)據(jù)和信息正在成為許多企業(yè)的主要資產(chǎn)。擁有高效、有效的決策流程和正確的數(shù)據(jù),并通過數(shù)據(jù)驅(qū)動的轉(zhuǎn)化為有意義的信息,正成為企業(yè)運(yùn)行更智能、更敏捷和更高效業(yè)務(wù)的主流流程。

      智能推薦系統(tǒng)正是如此應(yīng)運(yùn)而生。它旨在向用戶提供個(gè)性化的產(chǎn)品或服務(wù)建議,以處理日益增長的信息過載問題,改善客戶關(guān)系管理,[2]為了實(shí)現(xiàn)這個(gè)目標(biāo),推薦系統(tǒng)通過挖掘用戶的行為,研究和理解用戶的興趣,定位用戶的個(gè)性化需求,并從中找到其與內(nèi)容或應(yīng)用的關(guān)系。換句話說,智能推薦就是通過人工智能的技術(shù),分析用戶的行為喜好,推薦用戶感興趣的內(nèi)容,一方面幫助用戶發(fā)現(xiàn)對自己有價(jià)值的信息,另一方面讓信息展現(xiàn)在對它感興趣的用戶面前,[3]從而實(shí)現(xiàn)消費(fèi)者與生產(chǎn)者的雙贏?!敖袢疹^條”新聞推送、淘寶的“猜你喜歡”、微博的“關(guān)注推送”機(jī)制,均是如此。

      個(gè)性化智能推薦系統(tǒng)設(shè)計(jì)建設(shè)由三步構(gòu)成:第一,建立平臺用戶行為的召回模型,維度基于用戶歷史行為數(shù)據(jù)召回、用戶偏好召回和用戶地域召回來實(shí)現(xiàn)。用戶歷史行為數(shù)據(jù)召回基于用戶歷史瀏覽、點(diǎn)擊、購買、評論、分享、收藏、關(guān)注等觸點(diǎn);基于用戶偏好召回是基于用戶歸類畫像與平臺多屏互通融合;基于用戶地域召回是基于用戶地域的網(wǎng)格化來實(shí)現(xiàn)地域行為推薦算法。第二,召回模型匹配算法,得出與用戶召回行為的匹配商品及廣告信息。第三,平臺針對匹配模型推薦結(jié)果的排序算法,實(shí)現(xiàn)自動匹配個(gè)性化推薦。

      二、智能推薦與用戶隱私

      在大數(shù)據(jù)時(shí)代,世界上任何一個(gè)物體、行為、時(shí)間都可以形成數(shù)據(jù),被記錄保存形成龐大的數(shù)據(jù)庫,平臺則各種利用技術(shù)手段無需經(jīng)過信息主體的同意,就能自由地收集、處理與利用個(gè)人信息,[4]甚至是不當(dāng)披露、非法銷售消費(fèi)者個(gè)人信息。這對于我們用戶的個(gè)人隱私保護(hù)來講,是致命的危害。

      (一)智能推薦與隱私權(quán)

      1.用戶信息的隱私權(quán)保護(hù)困境

      很明顯,從隱私權(quán)保護(hù)的角度看,用戶網(wǎng)絡(luò)瀏覽的痕跡、身份信息、購物偏好等等都屬于公民隱私,而毫無疑問智能推薦的運(yùn)用使用了我們的隱私。目前,規(guī)范運(yùn)作的各種互聯(lián)網(wǎng)傳播平臺都制定有隱私政策,但這些政策制定過程缺少與用戶的“商討”,公開性明顯不足,所以彼此的權(quán)利義務(wù)很難對等。與此同時(shí),這些隱私政策可能也被“明示”,但往往由于文字十分冗長,表達(dá)也比較含混。但遺憾的是。對于個(gè)人隱私的保護(hù),我國信息隱私的法律保護(hù)并不完善:憲法對隱私權(quán)的保護(hù)沒有直接性規(guī)定,一般認(rèn)為其間接體現(xiàn)于憲法對公民的人格尊嚴(yán)、住宅以及通信自由和通信秘密的保護(hù),即傳統(tǒng)“隱私權(quán)”的定義似乎沒有涵蓋公民個(gè)人信息隱私。[5]并且對于隱私權(quán)的保護(hù)我國法律體系主要傾向于侵權(quán)法上的保護(hù),而在智能推薦系統(tǒng)運(yùn)作過程中,目前我們似乎也沒有發(fā)現(xiàn)對于隱私信息使用導(dǎo)致不利后果發(fā)生的侵權(quán)問題。因此,如果以隱私權(quán)保護(hù)為視角,個(gè)人隱私信息還暫屬于隱私保護(hù)的空白領(lǐng)域。

      2.智能推薦的個(gè)人信息保護(hù)嘗試

      正如前文所述,目前通過隱私權(quán)對用戶信息進(jìn)行保護(hù)暫且行不通。那么通過對個(gè)人信息保護(hù)來實(shí)現(xiàn)用戶信息的保護(hù)是否可行?《個(gè)人信息安全規(guī)范》第3.1條規(guī)定:個(gè)人信息是指以電子或者其他方式記錄的能夠單獨(dú)或者與其他信息結(jié)合識別特定自然人身份或者反映特定自然人活動情況的各種信息。在該種語境下,似乎網(wǎng)頁瀏覽痕跡不算是用戶信息。如此一來,自然出現(xiàn)平臺鉆空子的行為。雖然有學(xué)者指出,因?yàn)閭€(gè)人信息與多種權(quán)利相關(guān),且保護(hù)難度大等各種因素以個(gè)人信息保護(hù)代替隱私權(quán)的保護(hù)并非明智之舉。[6]但現(xiàn)有體系下,類似于瀏覽痕跡等隱私信息交由信息保護(hù)更為妥當(dāng),以來目前我國有以《網(wǎng)絡(luò)安全法》為基礎(chǔ)的信息安全保護(hù)體系,可以較為妥善的保護(hù)用戶信息。但如需實(shí)現(xiàn)上述目的,個(gè)人信息的概念界定則應(yīng)當(dāng)進(jìn)一步的改善,對于“可識別”這樣的要求則有待商議。大數(shù)據(jù)和人工智能的時(shí)代,算法海量地收集、抓取和處理個(gè)人信息,借助大量的看似不可識別的個(gè)人信息卻仍然可以精準(zhǔn)地定位個(gè)人。因此,將個(gè)人信息定義放寬,將隱私信息納入個(gè)人信息保護(hù)范圍是最為合適的方法——禁止平臺未經(jīng)告知及用戶同意而收集、使用用戶歷史瀏覽痕跡等隱私信息。

      (二)跨平臺間的用戶信息保護(hù)

      日常生活中,往往會出現(xiàn)這樣一個(gè)現(xiàn)象:用戶在某購物網(wǎng)站或某個(gè)搜索引擎上輸入某一詞條,此后,在別的購物網(wǎng)站或者網(wǎng)頁廣告欄里就會出現(xiàn)相關(guān)詞條的商品或信息。甚至更為“危言聳聽”的是,用戶在私下討論了某種商品或者某件事情以后,電商網(wǎng)站、網(wǎng)頁新聞就會出現(xiàn)相關(guān)的推送。正如某位學(xué)者在“人工智能與法”論壇上所說的,“智能音響為什么能在你說出某個(gè)關(guān)鍵字的時(shí)候及時(shí)作出回應(yīng),因?yàn)樗跓o時(shí)無刻的監(jiān)聽、識別你所說的信息”。智能推薦也是如此。

      任何瀏覽器運(yùn)行時(shí)都會向目標(biāo)網(wǎng)站發(fā)送大量的信息,如Cookie,IP地址及其他標(biāo)準(zhǔn)電腦信息。用戶在瀏覽的過程相關(guān)痕跡就會被其他的網(wǎng)站讀取,跨平臺間的用戶信息分享悄無聲息,但卻是一個(gè)無法回避的問題。正如對上文的分析,平臺內(nèi)的信息抓取已經(jīng)引發(fā)了用戶的隱私保護(hù)問題,那么跨平臺間的數(shù)據(jù)讀取更加隱秘不可發(fā)現(xiàn),卻更容易暴露個(gè)人隱私,爆發(fā)安全危機(jī)。所以理所當(dāng)然這些情況都應(yīng)當(dāng)是嚴(yán)格禁止的或者是有選擇的授權(quán)。所以,采用智能推薦的相關(guān)平臺在為用戶提供服務(wù)時(shí),在關(guān)閉窗口之前,需要以明顯的標(biāo)識為用戶提供一個(gè)選擇,此次的瀏覽痕跡是否選擇被刪除,不計(jì)入智能推薦的數(shù)據(jù)抓取行列。更進(jìn)一步的,在瀏覽界面設(shè)計(jì)一個(gè)選項(xiàng):“此次瀏覽是否計(jì)入智能推薦或者設(shè)置智能推薦瀏覽模式”。在進(jìn)入該平臺界面的時(shí)候進(jìn)行提示,保證用戶充分的選擇。這樣,某些不愿意被記錄的瀏覽痕跡就不在被收集。

      三、智能推薦與用戶自由權(quán)之辯

      網(wǎng)絡(luò)上信息的爆炸式增長以及新電子商務(wù)服務(wù)的快速引入,常常讓用戶不堪重負(fù),導(dǎo)致他們做出糟糕的決定,選擇的可用性并沒有帶來好處,反而開始降低用戶的幸福感。[7]在這樣的前提下,智能推薦系統(tǒng)應(yīng)運(yùn)而生,但我們需要考慮它是否會走向另外的一個(gè)極端,限制了用戶的自由權(quán)。自由權(quán)是什么?究其性質(zhì)應(yīng)認(rèn)定其為一項(xiàng)綜合性權(quán)利,既是消極權(quán)利,也是積極權(quán)利。它應(yīng)有兩方面基本要求:積極方面—要求國家對個(gè)人發(fā)展提供條件;消極方面—要求個(gè)人發(fā)展不受非法、不正當(dāng)及不合理的干預(yù)。因此,本文也將討論兩個(gè)方面:第一,智能推薦是否限制用戶的自由選擇;第二,智能推薦是否限制用戶的自由發(fā)展。

      (一)傳統(tǒng)的非智能時(shí)代自由選擇的限制

      在討論智能時(shí)代的自由權(quán)利問題前,我們會思考是否非智能時(shí)代的權(quán)利就更為自由呢?答案是否定的?!叭巳松杂?,但無往不在枷鎖之中”,[8]非智能時(shí)代的選擇甚至更窄,紙質(zhì)印刷時(shí)代的資料文檔都是經(jīng)過編輯人工審核,購買平臺限于所處地域,所有接觸的資料也都是經(jīng)過挑選之后呈現(xiàn)的。相比之下,在信息爆炸的時(shí)代,我們所接觸的知識產(chǎn)品遠(yuǎn)多于過去?;厮萃扑]系統(tǒng)產(chǎn)生的本意,是使得用戶能夠從海量的信息、商品中挑選出更符合需求的以節(jié)省更多的挑選時(shí)間。如此一來,似乎沒有討論自由權(quán)的必要呢,也不是的。人類對自由的追求是無限的,我們總是追求在當(dāng)下的條件下,達(dá)到最大限度的自由?!皼]有人愿意活了一輩子,到死才發(fā)現(xiàn)一切都是他人所安排的?!盵9]這不是危言聳聽,“因?yàn)槿藗兛偸菚饾u愛上壓迫,崇拜那些使自己喪失思考的工業(yè)技術(shù)”,[10]久而久之,人們因?yàn)槿狈q證的思維而導(dǎo)致判斷力下降,群體意識將湮沒個(gè)體意識。智能推薦使得這一想象在加速實(shí)現(xiàn)。

      (二)智能推薦中的自由選擇權(quán)

      智能推薦有多種不同的模式,每個(gè)平臺的算法都不一樣,本文將其大概分為三類進(jìn)行討論:一類是通過對用戶偏好進(jìn)行大數(shù)據(jù)分析,為商家或者商品排序等,如淘寶、亞馬遜等電商平臺;二是根據(jù)平臺運(yùn)營者的管理權(quán),自動做出的“最佳選擇”,比如說百度等搜索引擎;三是純粹的根據(jù)分析推薦,比如網(wǎng)易云的“今日歌單”、美團(tuán)的“為你優(yōu)選”。

      通常情況下,我們不認(rèn)為第三類純粹的推薦信息的方式侵犯了自由選擇權(quán),因?yàn)橛脩羧杂幸欢ǖ淖杂蛇x擇空間。第二類,關(guān)于利用平臺管理的權(quán)力為用戶做出選擇的此類平臺,則一定程度上限制了自由選擇。因?yàn)橛脩粼讷@取信息時(shí)可以選擇不同的模式:或者大量瀏覽各種信息,并從中找出對自己有用的部分加以利用;或者接受各APP經(jīng)過篩選后的推薦信息,在相關(guān)信息中再次選擇。第二類平臺通過管理者的身份,在沒有經(jīng)過用戶的授權(quán)下,自動屏蔽信息,本身就是對用戶自主選擇權(quán)的侵犯。例如高德地圖,智能的為你選擇了路徑最短或者時(shí)間最少的路線,但就如用戶抱怨的一樣,用戶想要走高速路線呢?可以優(yōu)先推薦最短路線,但是沒有高速路線這個(gè)選項(xiàng)就是對用戶自由選擇權(quán)的限制。至于第一類的商品排序問題,僅僅是基于算法進(jìn)行的排序,不認(rèn)為其存在對自由權(quán)的限制,但是排序問題可能會引發(fā)算法偏見,本文在下一章將會詳細(xì)討論。

      (三)智能推薦與用戶的自由發(fā)展權(quán)

      如今的互聯(lián)網(wǎng)平臺,包括信息互換平臺、新聞類客戶端、搜索引擎在往往會使用人工智能技術(shù)為用戶提供智能推薦,因?yàn)檫@是對于企業(yè)鎖定用戶、推廣產(chǎn)品的最佳選擇。長此以往,智能推薦為用戶營造了“個(gè)人日報(bào)”①美國知名教授桑斯坦曾經(jīng)在《網(wǎng)絡(luò)共和國》中描述了“個(gè)人日報(bào)”現(xiàn)象:在互聯(lián)網(wǎng)時(shí)代,伴隨網(wǎng)絡(luò)技術(shù)的發(fā)達(dá)和網(wǎng)絡(luò)信息的劇增,人們能夠在海量的信息中隨意選擇自己關(guān)注的話題,完全可以根據(jù)自己的喜好定制報(bào)紙和雜志,每個(gè)人都擁有為自己量身定制一份個(gè)人日報(bào)的可能。轉(zhuǎn)引自:喻國明:“‘信息繭房’禁錮了我們的雙眼”,《環(huán)球時(shí)報(bào)》,2016年12月2日。,但是,這種“個(gè)人日報(bào)”式的信息選擇行為會導(dǎo)致“信息繭室”[11]的形成。長期處于過度的自主選擇中,失去了解不同事物的能力和接觸機(jī)會,不知不覺間為自己制造了一個(gè)“信息繭房”。并且,因?yàn)橹悄芡扑]所構(gòu)建的“信息繭房”,人們會加深對各自群體觀點(diǎn)的認(rèn)同,并抵觸、害怕其他群體的觀點(diǎn),具備跨群體性知識的人會越來越少,群體間的不理解加深,最終造成群體之間的知識隔離。

      智能推薦不斷推送個(gè)人認(rèn)可的東西并形成 “過濾氣泡”②這個(gè)概念由Eli Pariser在2010年提出。,使人們只看到感興趣的內(nèi)容,使人們隔離在信息孤島上,阻礙人們認(rèn)識真實(shí)的世界。毫無疑問,這限制了用戶的自由發(fā)展權(quán)。并且,精準(zhǔn)的個(gè)性化資訊分發(fā)最大限度地保證用戶看到的都是自己想看的同時(shí),帶來的回聲室效應(yīng)③回聲室效應(yīng):在一個(gè)相對封閉的環(huán)境下,一些意見相近的聲音不斷被重復(fù)和加強(qiáng),最終使得處于該環(huán)境下的大多數(shù)人都認(rèn)為這些扭曲的觀點(diǎn)就是事實(shí)的全部。也是不容忽視的。長期只接受特定的信息,只會讓我們在自己狹小的圈子里自娛自樂、故步自封、放大了證實(shí)偏見④當(dāng)我們主觀上傾向于某一觀點(diǎn)時(shí),我們往往會主動或被動地去接收那些有利于我們觀點(diǎn)的信息,而對于那些有悖于我們觀點(diǎn)的信息,我們通常會選擇忽視,這在心理學(xué)上叫做證實(shí)偏見。,它使得我們在由自己興趣編織的籠子里只看到自己想看到的內(nèi)容,只接收自己贊同的觀點(diǎn)。長此以往,甚至將一個(gè)人逐漸推向偏執(zhí)甚至極端。這完全影響了用戶的個(gè)人成長和發(fā)展,特別是未成年人。發(fā)展權(quán)作為一項(xiàng)基本人權(quán),已成為國際的普遍共識,在我國,眾多學(xué)者也將發(fā)展權(quán)作為憲法賦予公民的一項(xiàng)基本權(quán)利。因此,對于智能推薦所引發(fā)的對于用戶自由發(fā)展的限制或者誤導(dǎo),應(yīng)當(dāng)引起足夠的重視。

      四、智能推薦中的算法偏見

      智能推薦的第二環(huán)節(jié)就是通過算法對收集的信息進(jìn)行處理,這里就可能涉及到了算法偏見。算法偏見指大數(shù)據(jù)的決策結(jié)果不平等,對社會某些主體帶有歧視,這是大數(shù)據(jù)時(shí)代不可避免的副產(chǎn)品。比如在谷歌搜索中搜索黑人會比搜索白人出現(xiàn)更多暗示犯罪歷史的內(nèi)容,還有2016年微軟推出了人工智能聊天機(jī)器人,讓她在和網(wǎng)友對話中學(xué)習(xí)怎么交談,不到一天這個(gè)智能聊天機(jī)器人就充滿了種族歧視,微軟只得立即關(guān)閉了這個(gè)智能聊天機(jī)器人。而在智能推薦這個(gè)領(lǐng)域中,也出現(xiàn)的典型算法偏見。例如,經(jīng)調(diào)查發(fā)現(xiàn)谷歌推送給男性高薪酬工作的比例遠(yuǎn)遠(yuǎn)高于推送給女性的比例。

      (一)算法偏見產(chǎn)生原因剖析[12]

      大數(shù)據(jù)分析的結(jié)果受制于相應(yīng)算法的設(shè)定,某一算法可能就是社會某一領(lǐng)域的規(guī)則的反映,若是這一規(guī)則本身有一定的價(jià)值偏向,那么算法也就帶有相應(yīng)的偏見,就會使得計(jì)算結(jié)果具有偏差,比如智能推薦中設(shè)定用戶瀏覽量大或者購買量大的就是優(yōu)秀產(chǎn)品,這樣的算法得出的結(jié)果就會推薦這些用戶瀏覽量大的產(chǎn)品,但是這一評價(jià)標(biāo)準(zhǔn)可能本身就是存在問題的。這樣的算法會導(dǎo)致某些高質(zhì)量的小眾店鋪或者新開的店鋪得到更少的機(jī)會展示在前幾頁,進(jìn)而降低了產(chǎn)品被購買的機(jī)會,并且前述的結(jié)果又會通過算法進(jìn)一步強(qiáng)化重復(fù),或者店鋪更傾向于購買廣告席位,但這些開支最終會消費(fèi)者身上,并且購物平臺廣告的審查并不會實(shí)質(zhì)審查產(chǎn)品的質(zhì)量。也就是說,最終會導(dǎo)致產(chǎn)品質(zhì)量差的店鋪花費(fèi)更多的廣告費(fèi)用,強(qiáng)化出現(xiàn)的機(jī)會,最終產(chǎn)生劣幣驅(qū)逐良幣的結(jié)果。

      (二)智能推薦的算法偏見影響

      1.限制了信息提供主體的公平競爭

      信息的傳輸過程應(yīng)當(dāng)是平等的,每個(gè)有效信息都應(yīng)當(dāng)平等地呈現(xiàn)給用戶,具體的選擇權(quán)應(yīng)當(dāng)交給用戶。在市場經(jīng)濟(jì)體制下,所有的產(chǎn)品都有平等競爭的機(jī)會。但是,智能推薦系統(tǒng)的篩選,使得信息傳遞給用戶的機(jī)會是不平等的,有些內(nèi)容就會被優(yōu)先推薦,有些內(nèi)容會被置后,甚至是被屏蔽。而且這個(gè)過程中不僅僅是用戶的偏好、社會熱度等一般性的因素影響智能推薦過程,還有一些人為設(shè)定的影響因素,比如某些平臺購物推薦系統(tǒng)會偏好自己和自己合作伙伴的商品或者收費(fèi)推廣,這些智能推薦系統(tǒng)使得所有的信息被用戶所接收到的可能性是不均等的,作為本應(yīng)中立的平臺實(shí)質(zhì)上對市場的平等競爭產(chǎn)生了影響。

      2.影響了信息接收者的平等權(quán)

      智能系統(tǒng)對信息的篩選使得不同用戶收到的信息是不相同的,有的用戶收取的信息質(zhì)量較高,有些用戶收取的信息質(zhì)量較低,同時(shí)這種差異性的存在是推薦系統(tǒng)代替用戶作出的選擇而產(chǎn)生的,而這種選擇不一定是客觀的合理的,這些差異的存在并不是為了實(shí)現(xiàn)實(shí)質(zhì)的平等而對機(jī)會平等作出的調(diào)整,不屬于必要差異的范圍,這就對用戶的平等權(quán)產(chǎn)生了不正當(dāng)?shù)挠绊?。如上文所舉出的谷歌推薦給男性的高薪工作的比例遠(yuǎn)高于推薦給女性的,這就是一種算法偏見。

      3.評價(jià)標(biāo)準(zhǔn)的異化

      當(dāng)前智能推薦的算法主要是通過瀏覽記錄,交互行為等,計(jì)算出使用者的偏好,基于用戶偏好以及社會熱度進(jìn)行相應(yīng)的推送。這樣的設(shè)定會對價(jià)值評價(jià)標(biāo)準(zhǔn)產(chǎn)生異化,甚至?xí)ι鐣a(chǎn)生不良影響。評價(jià)標(biāo)準(zhǔn)并不能僅僅基于所謂的用戶的喜愛偏好,還需要綜合其他標(biāo)準(zhǔn)進(jìn)行綜合評價(jià),比如商品的質(zhì)量,要基于某些國家或者行業(yè)標(biāo)準(zhǔn),舒適度,使用壽命等內(nèi)容進(jìn)行評價(jià),再比如資訊消息還應(yīng)當(dāng)基于表達(dá)的思想,對讀者的啟迪引導(dǎo)等內(nèi)容進(jìn)行評價(jià),僅僅基于社會熱度和用戶偏好所進(jìn)行的評價(jià)一方面會使得真正優(yōu)秀的內(nèi)容不能被用戶獲??;另一方面也會使得信息提供者為獲得用戶的關(guān)注采取不光彩甚至是違反相應(yīng)法律的行為。這就是算法偏見只在乎關(guān)注度而不關(guān)注其他方面導(dǎo)致的不良后果。

      五、智能推薦的問題紓解建議——緩和的平衡

      (一)平衡用戶隱私數(shù)據(jù)收集與保護(hù)

      根據(jù)隱私權(quán)的私法屬性,私權(quán)利者有權(quán)禁止他人妨礙其對自己相關(guān)信息的支配。因此,平臺在設(shè)計(jì)應(yīng)用的時(shí)候,應(yīng)當(dāng)提供用戶一個(gè)選擇:是否接受建立在讀取隱私數(shù)據(jù)的基礎(chǔ)上而建立起來的智能推薦服務(wù),以個(gè)人隱私換取數(shù)據(jù)搜索的便捷,保證用戶充分授權(quán)。平臺在收集用戶信息前應(yīng)當(dāng)履行必要的提示義務(wù),如在需要收集時(shí)進(jìn)行彈窗提示并將變更條款醒目加粗或標(biāo)紅,同時(shí)應(yīng)當(dāng)賦予用戶充分的選擇權(quán),而不是現(xiàn)有的“同意或者離開”的霸王條款。此外,用戶同意使用智能推薦,并不意味這平臺對其隱私數(shù)據(jù)的任意使用。其平臺收集的數(shù)據(jù)應(yīng)當(dāng)限制在本應(yīng)用中使用,而不能夠擅自出售、授權(quán)其他平臺使用。關(guān)于這一點(diǎn),可以適用《網(wǎng)絡(luò)安全法》第四十一條和第四十二條關(guān)于用戶信息保護(hù)的相關(guān)規(guī)定①平臺收集、使用個(gè)人信息,或者向他人提供個(gè)人信息應(yīng)經(jīng)被搜集者同意,不得默認(rèn)用戶同意收集隱私信息。并且不得泄露、篡改、毀損其搜集的個(gè)人信息。,使用、收集個(gè)人信息需要獲得授權(quán),并且有義務(wù)采取技術(shù)措施和其他必要措施,確保信息安全。

      (二)建立平衡、多維度的推薦機(jī)制

      過度的智能推薦會限制用戶的自由發(fā)展以及一定程度限制用戶自由選擇權(quán)。但本文并不贊極端的做法而去禁止智能推薦,而是有選擇的推薦、多維度的推薦。一方面,增強(qiáng)用戶自由選擇,充分保障用戶選擇是否接受智能推薦功能的權(quán)利。并基于用戶使用過程中的體驗(yàn),可以使其自由選擇繼續(xù)接受智能推薦功能或者變更推薦內(nèi)容的多維度的自由選擇權(quán)。此外,對于個(gè)體自由發(fā)展的保護(hù),不能純粹的依托純技術(shù)手段,還需要監(jiān)管團(tuán)隊(duì)對產(chǎn)品世界中價(jià)值觀體系的建立和維護(hù),以保障那些還不具備完整辨識能力的用戶。另一方面,限制智能推薦的濫用,引入平衡推薦機(jī)制。正如《電子商務(wù)法》中第十八條規(guī)定①《電子商務(wù)法》第18條:“電子商務(wù)經(jīng)營者在根據(jù)消費(fèi)者的興趣愛好、消費(fèi)習(xí)慣等特征向消費(fèi)者提供商品或者服務(wù)的搜索結(jié)果的,還應(yīng)當(dāng)同時(shí)提供不針對其個(gè)人特征的選項(xiàng),尊重和平等保護(hù)消費(fèi)者合法權(quán)益?!?,在進(jìn)行智能推薦的同時(shí),需要向用戶推送與個(gè)人特性、愛好等無關(guān)聯(lián)性的商品或服務(wù)。智能推薦不僅適用在電子商務(wù)領(lǐng)域,還存在于智能搜索、新聞傳送等各個(gè)方面。借鑒《電子商務(wù)法》這一規(guī)定,擴(kuò)寬適用范圍,保障用戶接受信息的完整、全面、均衡。這不僅為用戶提供多樣性的選擇,避免“信息繭室”,防止證實(shí)偏見,同時(shí)也為在平臺上經(jīng)營的商家提供更為公平的競爭環(huán)境。

      (三)增強(qiáng)數(shù)據(jù)審查和過濾,矯正算法偏見

      算法的偏見是大數(shù)據(jù)的固有缺陷,是無法完全規(guī)避與消除的,這是源于人類對事物的認(rèn)知局限。因此,最終也需要人工對商品、資訊等信息提供者所提交的信息進(jìn)行審查,排除虛假違法信息。當(dāng)然,這也不影響我們對智能推薦的算法提出更高的要求。

      算法是大數(shù)據(jù)分析的黑箱,在算法層面違背法律和道德倫理很難被發(fā)現(xiàn)追蹤,比如在智能推薦中就有平臺利用自己的算法謀取利益,對那些交費(fèi)的或者是具有商業(yè)利益關(guān)聯(lián)的人進(jìn)行優(yōu)先推薦。所以,大數(shù)據(jù)公司要公布自身的算法源碼,這樣可以避免這些大數(shù)據(jù)公司因?yàn)槟承├孀非蠖鵂奚鐣?。?dāng)然,公開的內(nèi)容可能會涉及到智能推薦系統(tǒng)制作公司自身的商業(yè)秘密,所以公開的方式應(yīng)當(dāng)是成立專門的審查監(jiān)督機(jī)構(gòu)更為妥當(dāng),這些公司只需要向?qū)iT的審查監(jiān)督機(jī)構(gòu)報(bào)告自身所設(shè)定的算法源碼以及所使用的數(shù)據(jù),由專門的審查監(jiān)督機(jī)構(gòu)進(jìn)行判定,如此也可以避免一些公眾知情與公司商業(yè)秘密的沖突問題。

      智能推薦系統(tǒng)僅僅基于用戶偏好進(jìn)行推送是不合理的,單一的評價(jià)指標(biāo)在現(xiàn)實(shí)中很難覆蓋所有內(nèi)容,所以要優(yōu)化算法,提高算法的合理性,在科技可能實(shí)現(xiàn)的情況下,可以使用多項(xiàng)指標(biāo)進(jìn)行評定,使得推薦給用戶的既是用戶所喜好的,又是具有相應(yīng)的價(jià)值的。要實(shí)現(xiàn)多指標(biāo)評價(jià)體系,可以在多個(gè)指標(biāo)之間設(shè)定相應(yīng)的權(quán)重,這樣的評價(jià)會更加客觀也更加合理。

      結(jié)語

      在大數(shù)據(jù)時(shí)代,智能推薦的浪潮不可避免,但我們也要警醒,意識到其中可能產(chǎn)生的危害并盡可能避免。本文主要探討智能推薦與個(gè)人權(quán)利之間的矛盾和問題:智能推薦對用戶信息的收集對用戶的隱私侵犯,“信息繭室”對個(gè)人自由發(fā)展的限制以及智能推薦中算法偏見所產(chǎn)生的不公平對待問題。本文提出了較為緩和的建議以平衡二者的矛盾,以求更好的運(yùn)用智能推薦,便捷的獲取信息,而不是成為科技的奴隸。

      猜你喜歡
      個(gè)人信息智能算法
      如何保護(hù)勞動者的個(gè)人信息?
      工會博覽(2022年16期)2022-07-16 05:53:54
      個(gè)人信息保護(hù)進(jìn)入“法時(shí)代”
      警惕個(gè)人信息泄露
      綠色中國(2019年14期)2019-11-26 07:11:44
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      智能前沿
      文苑(2018年23期)2018-12-14 01:06:06
      進(jìn)位加法的兩種算法
      智能前沿
      文苑(2018年19期)2018-11-09 01:30:14
      智能前沿
      文苑(2018年17期)2018-11-09 01:29:26
      智能前沿
      文苑(2018年21期)2018-11-09 01:22:32
      甘肃省| 盐亭县| 罗山县| 齐齐哈尔市| 浦东新区| 金阳县| 和平县| 从化市| 文成县| 六盘水市| 闵行区| 富宁县| 张家川| 章丘市| 榕江县| 肃南| 施秉县| 和田市| 宁化县| 南充市| 墨竹工卡县| 锡林郭勒盟| 乾安县| 台前县| 柘城县| 中方县| 社旗县| 宕昌县| 奉贤区| 城固县| 腾冲县| 甘洛县| 嘉定区| 阿克苏市| 清徐县| 图片| 旬阳县| 永城市| 景宁| 贡嘎县| 湖北省|