【編者按】
2022年3月1日,國(guó)家網(wǎng)信辦等四部門(mén)聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱(chēng)“《規(guī)定》”)正式實(shí)施。算法推薦技術(shù)一般是指通過(guò)抓取用戶日常的使用數(shù)據(jù),分析得出人們的行為、習(xí)慣和喜好,進(jìn)而精準(zhǔn)化地提供信息、娛樂(lè)、消費(fèi)等各類(lèi)服務(wù)。
算法推薦的本意,是在更好地挖掘用戶潛在需求的基礎(chǔ)上,提升企業(yè)服務(wù)水平,實(shí)現(xiàn)用戶與企業(yè)的雙贏。早期沃爾瑪通過(guò)數(shù)據(jù)分析發(fā)現(xiàn)啤酒與尿布在周末存在高度相關(guān)的銷(xiāo)售關(guān)系,進(jìn)而改變貨架陳列,就是一個(gè)經(jīng)典的案例。
然而,近年來(lái)算法推薦在為用戶提供便利的同時(shí),“大數(shù)據(jù)殺熟”、誘導(dǎo)沉迷等不合理的應(yīng)用也在影響用戶的正常生活。隨著《規(guī)定》的實(shí)施,算法推薦會(huì)在更加規(guī)范的框架下運(yùn)營(yíng),這對(duì)企業(yè)和個(gè)人會(huì)帶來(lái)哪些影響?我們邀請(qǐng)北京大學(xué)新聞與傳播學(xué)院教授、“信息社會(huì)50人論壇”成員胡泳進(jìn)行了深度解讀。
當(dāng)你在網(wǎng)上瀏覽一雙新鞋,在奈飛(Netflix)上挑選一部流媒體電影,或申請(qǐng)住房貸款時(shí),一個(gè)算法很可能對(duì)結(jié)果有話要說(shuō)。
復(fù)雜的數(shù)學(xué)公式在各行各業(yè)發(fā)揮著越來(lái)越大的作用:從檢測(cè)皮膚癌,到推薦新的社交媒體朋友,決定誰(shuí)能得到一份工作,如何部署警察資源,誰(shuí)能以何種成本獲得保險(xiǎn),或者哪一位在“禁飛”名單上。
我們可以看到算法在這個(gè)世界上的工作。我們知道它們正在塑造我們周?chē)S多事務(wù)的結(jié)果。但我們大多數(shù)人都不知道算法是什么,或者我們是如何被它們影響的。
算法是一個(gè)黑盒子。
我們熟悉一些明顯的例子,比如谷歌搜索算法、亞馬遜推薦算法、百度地圖算法或美團(tuán)外賣(mài)算法。但人們很少覺(jué)察到,算法已經(jīng)被邀請(qǐng)進(jìn)入我們的政府、法庭、醫(yī)院和學(xué)校,它們正在代表我們作出很多決定,悄悄地但是巧妙地改變了社會(huì)的運(yùn)作方式。
往往只有在算法出錯(cuò)的時(shí)候,我們才意識(shí)到其深入人類(lèi)生活的程度。往好了說(shuō),我們與算法的關(guān)系都是一言難盡的。人對(duì)機(jī)器的態(tài)度十分復(fù)雜:有的時(shí)候,我們盲目信任機(jī)器。我們期望它們成為幾乎是神一樣的存在,如此完美,如此精準(zhǔn),以至于我們會(huì)盲目地跟隨它們,去往其所帶領(lǐng)的任何地方。
另一方面,我們又有一種習(xí)慣,一旦某一算法被證明有一點(diǎn)缺陷,我們馬上就會(huì)否定它。如果Siri出錯(cuò),或者GPS導(dǎo)航錯(cuò)誤,我們就會(huì)認(rèn)為整部機(jī)器都是垃圾。更不用說(shuō)機(jī)器人醫(yī)生誤診、自動(dòng)駕駛汽車(chē)撞死行人這類(lèi)事。
其實(shí)這兩種截然相反的態(tài)度都沒(méi)有任何意義。算法并不完美,它們往往包含創(chuàng)造它們的人的偏見(jiàn),但很多時(shí)候,它們?nèi)匀涣钊穗y以置信地有效,使我們所有人的生活也變得更加容易。因此,最正確的態(tài)度應(yīng)該是介于兩者之間。我們不應(yīng)盲目地相信算法,但也不應(yīng)完全否定它們。
人類(lèi)和機(jī)器不一定要相互對(duì)立。我們必須與機(jī)器合作,承認(rèn)它們有缺陷,就像我們一樣。它們也會(huì)犯錯(cuò),就像我們一樣。
如同倫敦大學(xué)學(xué)院的數(shù)學(xué)家漢娜·弗萊所說(shuō):“我們不必創(chuàng)造一個(gè)機(jī)器告訴我們?cè)撟鍪裁椿蛉绾嗡伎嫉氖澜?,盡管我們很可能最終進(jìn)入這樣一個(gè)世界。我更喜歡一個(gè)人類(lèi)與機(jī)器、人類(lèi)與算法都是伙伴的世界。”
現(xiàn)在,我們花大量精力討論,人類(lèi)和人工算法最終很可能會(huì)以模糊兩者區(qū)別的方式結(jié)合起來(lái)。其實(shí)這個(gè)愿景距離我們還非常遙遠(yuǎn),因此,盡管這樣的對(duì)話很有趣,卻也可能令我們對(duì)目前正在發(fā)生的事情分散了注意力。我們迫切需要關(guān)注的是,管理我們生活的規(guī)則和系統(tǒng)正在我們周?chē)l(fā)生變化,而算法是其中的關(guān)鍵部分。
我們一直生活在技術(shù)的狂野西部,在那里,大科技公司可以在未經(jīng)允許的情況下收集私人數(shù)據(jù)并將其出售給廣告商。平臺(tái)正在把人變成產(chǎn)品,而他們甚至沒(méi)有意識(shí)到這一點(diǎn)。互聯(lián)網(wǎng)巨頭實(shí)際上成為巨大的媒體公司,但假扮成中立的平臺(tái),吞食曾經(jīng)維持舊媒體生態(tài)系統(tǒng)的收入,同時(shí)拒絕承擔(dān)正常形式的編輯責(zé)任。同時(shí),它們的領(lǐng)導(dǎo)人擁有跨國(guó)管轄權(quán),行使著傳統(tǒng)的種種權(quán)力——從文化審查、政治放逐到構(gòu)建巨大的市場(chǎng)——卻缺乏傳統(tǒng)的監(jiān)督機(jī)制。
在此過(guò)程中,即便某一個(gè)特定的算法是有效的,也沒(méi)有人評(píng)估它是為社會(huì)提供了凈利益,還是消耗了大量的社會(huì)成本。不存在任何人、任何機(jī)構(gòu)做這些檢查。只有到一系列問(wèn)題浮出水面之后,各方才逐漸形成共識(shí):社會(huì)需要一個(gè)強(qiáng)大的算法監(jiān)管框架。
在中國(guó),應(yīng)用程序(App)近年來(lái)蓬勃發(fā)展,這要?dú)w功于它們?yōu)橛脩籼峁┢渌埠玫囊曨l、開(kāi)展產(chǎn)品和服務(wù)比價(jià)或完美定制消費(fèi)的能力。但是中國(guó)第一部算法法規(guī)的出臺(tái),似乎將會(huì)限制科技巨頭的這些能力。
2021年11月16日,國(guó)家互聯(lián)網(wǎng)信息辦公室審議通過(guò)了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》。2022年伊始,會(huì)同工業(yè)和信息化部、公安部、國(guó)家市場(chǎng)監(jiān)督管理總局聯(lián)合發(fā)布,自2022年3月1日起施行?!兑?guī)定》旨在遏制算法不合理應(yīng)用導(dǎo)致的問(wèn)題。由于種種不合理的應(yīng)用,在過(guò)去很長(zhǎng)一段時(shí)間里,公司和商家能夠利用看似無(wú)所不知的算法來(lái)鎖定特定人群或個(gè)人,以銷(xiāo)售產(chǎn)品或影響意見(jiàn)。
算法新規(guī)是否會(huì)影響從阿里巴巴、騰訊到美團(tuán)、字節(jié)跳動(dòng)等公司的商業(yè)模式,以及監(jiān)管機(jī)構(gòu)又將如何執(zhí)行該法規(guī),都值得我們下一步密切關(guān)注。
以下是算法法規(guī)中的一些重要條款。
公司不得利用算法推薦從事法律、行政法規(guī)禁止的活動(dòng),如危害國(guó)家安全和社會(huì)公共利益、擾亂經(jīng)濟(jì)秩序和社會(huì)秩序等。
算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過(guò)度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型。
鼓勵(lì)算法推薦服務(wù)提供者綜合運(yùn)用內(nèi)容去重、打散干預(yù)等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對(duì)用戶產(chǎn)生不良影響,預(yù)防和減少爭(zhēng)議糾紛。
算法推薦服務(wù)提供者提供互聯(lián)網(wǎng)新聞信息服務(wù)的,應(yīng)當(dāng)依法取得互聯(lián)網(wǎng)新聞信息服務(wù)許可,不得生成合成虛假新聞信息,不得傳播非國(guó)家規(guī)定范圍內(nèi)的單位發(fā)布的新聞信息。
算法推薦服務(wù)提供者應(yīng)當(dāng)以顯著方式告知用戶“算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制”等。
算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供選擇或者刪除用于算法推薦服務(wù)的針對(duì)其個(gè)人特征的用戶標(biāo)簽的功能。
算法推薦服務(wù)提供者不得向未成年人推送可能引發(fā)未成年人模仿不安全行為和違反社會(huì)公德行為、誘導(dǎo)未成年人不良嗜好等可能影響未成年人身心健康的信息,不得利用算法推薦服務(wù)誘導(dǎo)未成年人沉迷網(wǎng)絡(luò)。
算法推薦服務(wù)提供者向老年人提供服務(wù)的,應(yīng)當(dāng)保障老年人依法享有的權(quán)益,充分考慮老年人出行、就醫(yī)、消費(fèi)、辦事等需求。
算法推薦服務(wù)提供者向勞動(dòng)者提供工作調(diào)度服務(wù)的,應(yīng)當(dāng)保護(hù)勞動(dòng)者取得勞動(dòng)報(bào)酬、休息休假等合法權(quán)益,建立完善平臺(tái)訂單分配、報(bào)酬構(gòu)成及支付、工作時(shí)間、獎(jiǎng)懲等相關(guān)算法。
算法推薦服務(wù)提供者向消費(fèi)者銷(xiāo)售商品或者提供服務(wù)的,應(yīng)當(dāng)保護(hù)消費(fèi)者公平交易的權(quán)利,不得根據(jù)消費(fèi)者的偏好、交易習(xí)慣等特征,利用算法在交易價(jià)格等交易條件上實(shí)施不合理的差別待遇等違法行為。
這些規(guī)定反映了當(dāng)今中國(guó)社會(huì)最關(guān)注的一些問(wèn)題——大型科技公司的透明度和反競(jìng)爭(zhēng)行為、網(wǎng)上內(nèi)容控制、零工經(jīng)濟(jì)、人口老齡化、未成年人保護(hù)等,并尋求在算法被用來(lái)腐蝕社會(huì)團(tuán)結(jié)或加劇市場(chǎng)問(wèn)題之前未雨綢繆。
實(shí)質(zhì)上,《規(guī)定》要求在其服務(wù)中使用基于算法推薦的公司提供更多的透明度,說(shuō)明這些算法是如何工作的,以及將對(duì)用戶產(chǎn)生什么影響。《規(guī)定》要求平臺(tái)“積極傳播正能量”,并確保它們的算法應(yīng)用“向上向善”;禁止它們?cè)O(shè)計(jì)誘使用戶參與“過(guò)度消費(fèi)”或?qū)ζ脚_(tái)上癮的模式;禁止它們?yōu)E用個(gè)人信息,實(shí)行“大數(shù)據(jù)殺熟”;鼓勵(lì)平臺(tái)綜合運(yùn)用內(nèi)容去重、打散干預(yù)等策略,不得利用算法操縱榜單、控制熱搜等干預(yù)信息呈現(xiàn);要求平臺(tái)滿足不同群體的利益訴求,更好地保障未成年人、老年人、勞動(dòng)者等群體權(quán)益,消除算法歧視等。這些要求與許多內(nèi)容平臺(tái)、社交媒體、游戲廠商或電子商務(wù)供應(yīng)商現(xiàn)行的商業(yè)模式不盡一致,預(yù)計(jì)會(huì)對(duì)所有過(guò)度依賴(lài)預(yù)測(cè)消費(fèi)者偏好而將其商業(yè)模式與之掛鉤的公司產(chǎn)生影響。
但算法法規(guī)的執(zhí)行可能會(huì)在監(jiān)管機(jī)構(gòu)和科技公司之間引發(fā)沖突。這是因?yàn)?,為了讓監(jiān)管機(jī)構(gòu)發(fā)現(xiàn)違規(guī)行為,它們可能不得不檢查算法背后的代碼。而算法是一個(gè)公司最深藏的秘密,也是其最寶貴的資產(chǎn),讓政府在其中展開(kāi)挖掘,有可能帶來(lái)很多爭(zhēng)議。比如,監(jiān)管部門(mén)能獲得多少代碼的權(quán)限?即使它們可以接觸到代碼,真的能確保算法違規(guī)的事情不再發(fā)生嗎?
同時(shí),監(jiān)管機(jī)構(gòu)在試圖監(jiān)督科技公司的算法方面,將進(jìn)入一個(gè)未知的領(lǐng)域。鑒于算法新規(guī)的規(guī)定相當(dāng)廣泛,部分內(nèi)容具有較強(qiáng)的技術(shù)性,對(duì)執(zhí)法機(jī)構(gòu)還是公司來(lái)說(shuō),都是一個(gè)學(xué)習(xí)過(guò)程,它們將承擔(dān)遵守這些規(guī)定的主要責(zé)任。
然而,無(wú)論從哪方面看,這些規(guī)定都代表了全球最領(lǐng)先的算法監(jiān)管框架之一。所有本地消費(fèi)產(chǎn)品和零售服務(wù)商、電商公司、短視頻應(yīng)用和社交媒體平臺(tái)都將受到這一法規(guī)的影響。根據(jù)新規(guī)則,算法將不再被允許影響網(wǎng)絡(luò)輿論,逃避監(jiān)督管理,或促成壟斷和不公平競(jìng)爭(zhēng)。當(dāng)然,對(duì)于收入可能在短期內(nèi)受到影響的企業(yè)來(lái)說(shuō),這不是一個(gè)好消息。但是,如果企業(yè)現(xiàn)在必須重新談判它們與用戶的關(guān)系,而把數(shù)字生活的控制權(quán)至少部分交還給用戶,這難道不是一件好事嗎?
眼下,全球各國(guó)政府紛紛提出立法建議,試圖遏制科技巨頭的權(quán)力。這些巨頭的算法被指推薦加劇仇恨言論和惡化政治極化的帖子,促成封閉和高度同質(zhì)化的回聲室而讓每個(gè)人得到自己的現(xiàn)實(shí)片斷,在電商交易中偏向平臺(tái)和平臺(tái)可以收取服務(wù)費(fèi)的賣(mài)家,誘使青少年進(jìn)行不當(dāng)?shù)纳鐣?huì)比較并放大他們?cè)谏缃痪W(wǎng)絡(luò)中的不安全感,等等。對(duì)頭號(hào)互聯(lián)網(wǎng)大國(guó)美國(guó)來(lái)說(shuō),監(jiān)管互聯(lián)網(wǎng)平臺(tái)的挑戰(zhàn)比中國(guó)更棘手,因?yàn)槊绹?guó)憲法第一修正案限制了政府命令私營(yíng)公司刪除某些類(lèi)型內(nèi)容的能力。
很明顯,在反壟斷方面,中國(guó)目前比美國(guó)的力度大得多。在算法監(jiān)管上,中國(guó)的領(lǐng)先體現(xiàn)在:其一,中國(guó)的算法法規(guī)強(qiáng)調(diào)算法的透明度和可解釋性,強(qiáng)大的透明度要求、嚴(yán)格的算法機(jī)制機(jī)理審核和科技倫理審查,凸顯了適當(dāng)?shù)钠脚_(tái)監(jiān)督的重要性,如果缺乏這種監(jiān)督,平臺(tái)可能因?yàn)闄?quán)力過(guò)大而對(duì)社會(huì)造成損害。
其二,中國(guó)的算法法規(guī)明確提出讓用戶控制推薦算法,這將迫使平臺(tái)尊重隱私或在算法上不那么具有強(qiáng)制性。平臺(tái)應(yīng)該致力于提供算法推薦服務(wù)以外的服務(wù)版本,其中的內(nèi)容不是由“不透明的算法”所選擇的。比如,社交媒體平臺(tái)應(yīng)當(dāng)允許用戶完全關(guān)閉推薦算法,而只是按照時(shí)間順序查看帖子。用戶在與互聯(lián)網(wǎng)平臺(tái)接觸時(shí)應(yīng)當(dāng)獲得選擇余地,而不被由用戶特定數(shù)據(jù)驅(qū)動(dòng)的秘密算法所操縱??萍脊拘枰拐\(chéng)地說(shuō)明用戶和平臺(tái)的主要算法之間的關(guān)系到底是如何運(yùn)作的,并給予用戶更多的控制權(quán)。從長(zhǎng)遠(yuǎn)來(lái)看,只有當(dāng)人們對(duì)算法系統(tǒng)的工作方式有更多的了解,并有能力對(duì)其進(jìn)行更多的知情控制時(shí),他們才會(huì)對(duì)這些系統(tǒng)感到放心。
當(dāng)然,挑戰(zhàn)仍然存在。比如,對(duì)算法透明度和用戶控制的推動(dòng)讓人想起了隱私聲明中的“知情同意”框架。兩者都依賴(lài)于用戶能夠理解他們所得到的關(guān)于某個(gè)系統(tǒng)的信息,然后對(duì)自己是否或如何使用它作出選擇。然而,熟悉隱私政策的人都知道,“無(wú)人閱讀隱私協(xié)議”是網(wǎng)絡(luò)隱私保護(hù)的一個(gè)痼疾,原因在于,用戶認(rèn)為隱私協(xié)議通常都又長(zhǎng)又難讀。如果你認(rèn)為隱私聲明的可讀性很強(qiáng),那么試著解釋一下算法看看。
而且,很多在網(wǎng)絡(luò)上暴露出來(lái)的問(wèn)題并不能夠全然歸咎于算法。即使允許用戶選擇算法,用戶也未必主動(dòng)選擇使他們的動(dòng)態(tài)新聞流更加多樣化,并參與更廣泛的意見(jiàn)和信息來(lái)源。當(dāng)涉及仇恨言論、極端主義和錯(cuò)誤信息時(shí),算法甚至可能都不是問(wèn)題的最危險(xiǎn)部分。真正的問(wèn)題是人們?cè)谄脚_(tái)上尋找仇恨或極端的言論并找到了它們。同樣,當(dāng)你看到圍繞錯(cuò)誤信息和虛假信息所發(fā)生的事情時(shí),有一些證據(jù)表明,它們不一定是通過(guò)算法提供的,而是來(lái)自人們選擇加入的群體。
許多對(duì)算法的擔(dān)憂,其核心來(lái)自我們的一種假設(shè),即在人類(lèi)和復(fù)雜的自動(dòng)化系統(tǒng)之間,我們不是控制者,人類(lèi)的作用已經(jīng)被削弱了?;蛘?,正如《華爾街日?qǐng)?bào)》技術(shù)專(zhuān)欄作家喬安娜·斯特恩所宣稱(chēng)的那樣,我們已經(jīng)“失去了對(duì)我們所看、所讀——甚至所想——的控制,把控制權(quán)拱手讓給了那些最大的社交媒體公司”。事實(shí)上,機(jī)器并沒(méi)有全盤(pán)接管,但毫無(wú)疑問(wèn)它們會(huì)長(zhǎng)久留在這里。我們需要與它們和平相處。
更好地理解用戶和算法之間的關(guān)系,符合每個(gè)人的利益。人們需要對(duì)現(xiàn)代生活中不可或缺的系統(tǒng)有信心?;ヂ?lián)網(wǎng)需要新的道路規(guī)則,在獲得廣泛的公眾同意之后。而科技公司需要了解社會(huì)對(duì)其運(yùn)作感到滿意的參數(shù),這樣它們才有可能繼續(xù)創(chuàng)新。這始于開(kāi)放和透明,以及給用戶更多的控制權(quán)。
每一個(gè)社交媒體平臺(tái),每一個(gè)成為我們生活一部分的算法,都是人類(lèi)目前正在大規(guī)模展開(kāi)的社會(huì)實(shí)驗(yàn)的一部分。全世界有幾十億人在與這些技術(shù)互動(dòng),這就是為什么哪怕算法上最微小的變化都會(huì)對(duì)全人類(lèi)產(chǎn)生巨大的影響。而科技公司,不管是被動(dòng)的還是主動(dòng)的,正開(kāi)始認(rèn)識(shí)到這一點(diǎn),并認(rèn)真對(duì)待。歸根結(jié)底,算法必須為社會(huì)服務(wù),而不是反過(guò)來(lái)。