□趙海樂
隨著數(shù)字經(jīng)濟的興起,以算法為基礎(chǔ)的人工智能定價也廣泛應(yīng)用于電子商務(wù)中,尤其是在面向消費者的電商交易當(dāng)中。由于電商平臺背后的算法定價規(guī)則,不僅同一商品的價格在一天當(dāng)中會有波動,即便在同一時刻,不同消費者能夠獲得的價格也會存在很大差異。此種情形在經(jīng)濟學(xué)中被描述為“個性化定價”(personalized pricing),有時也被稱之為“價格歧視”(price discrimination)。
在法學(xué)語境之下,“歧視”一詞往往意味著對特定群體平等權(quán)的侵犯[1],然而在經(jīng)濟學(xué)語境之下,“價格歧視”一詞在很大程度上等同于“差異化定價”,在特定情形下甚至未必對消費者總體福利造成侵害[2]。不過,經(jīng)濟學(xué)上的合理性,并不是算法價格歧視免受法律規(guī)制的“避風(fēng)港”。這是因為,一方面,從消費者主觀感受來看,此種價格歧視直接有違商業(yè)倫理。傳統(tǒng)商業(yè)倫理要求經(jīng)營者公平待人,童叟無欺,而諸如“大數(shù)據(jù)殺熟”等現(xiàn)象與傳統(tǒng)交易模式下的消費者心理預(yù)期(老客戶應(yīng)當(dāng)更加優(yōu)惠)直接相悖,某些自媒體甚至將此描述為對老客戶的“恩將仇報”①典型論述參見:大數(shù)據(jù)殺熟:無關(guān)技術(shù),關(guān)乎倫理[EB/OL].[2018-03-18].https://guancha.gmw.cn/2018-03/18/content_28020507.htm;新規(guī)出臺,大數(shù)據(jù)殺熟,一場數(shù)字時代的“恩將仇報”[EB/OL].[2020-10-08].https://www.sohu.com/a/423242113_120087486.。電商經(jīng)營者在實行價格歧視的同時往往以“技術(shù)原因”為由否認(rèn)其歧視的故意,這又會進一步引發(fā)消費者對商家誠信的質(zhì)疑②美團“大數(shù)據(jù)殺熟”背后的倫理之困[EB/OL].《財經(jīng)》雜志2020年12月19日.此案例當(dāng)中,美團對其“會員定價反而更高”的解釋為“定位緩存錯誤”。http://finance.sina.com.cn/tech/2020-12-19/doc-iiznezxs7802716.shtml.。消費者的普遍不滿,必然會影響社會主義市場經(jīng)濟的有序展開,因而需要法律加以調(diào)整。另一方面,經(jīng)濟學(xué)對效率的追求必須與法治對公平的維護相一致。算法價格歧視的利益驅(qū)動特質(zhì)本身就暗含效率最大化原則,放任其濫用則極有可能固化社會不公,將利益置于人的價值之上③對此的論述參見:洪丹娜.算法歧視的憲法價值調(diào)適:基于人的尊嚴(yán)[J].政治與法律,2020(8):27-37;崔靖梓.算法歧視挑戰(zhàn)下平等權(quán)保護的危機與應(yīng)對[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019,37(3):29-42.。綜上所述,以人民為中心,是社會主義法治建設(shè)的基本遵循[3]。而人民對算法價格歧視現(xiàn)狀的不滿,正是對其進行規(guī)制的現(xiàn)實需求;算法價格歧視可能造成的對人的尊嚴(yán)的侵害,意味著規(guī)制的法理必然。本文將從中國立法與司法實踐入手,剖析算法價格歧視法律規(guī)制的困難,并從比較法研究的視角,為我國未來的立法改革提供對策。
對我國算法價格歧視規(guī)制現(xiàn)狀的回顧,首先始于對司法實踐的綜述。這是因為,我國目前還未專門制定以算法價格歧視為名稱或規(guī)制對象的立法,當(dāng)前對此的規(guī)制更多是現(xiàn)有法律的延伸適用。而究竟何種法律能夠適用此問題,又有賴于對司法實踐的回顧。不過,通過對案例檢索發(fā)現(xiàn),我國當(dāng)前與“大數(shù)據(jù)殺熟”相關(guān)的司法實踐正面臨著“犯眾怒但無制裁”的局面。所謂“犯眾怒”,是指算法價格歧視已然引發(fā)包括從中國消費者協(xié)會到全國人民代表大會代表在內(nèi)方方面面的不滿①新華社.中消協(xié):“大數(shù)據(jù)殺熟”如何影響消費者權(quán)益?https://baijiahao.baidu.com/s?id=1688326490365057982&wfr=spider&for=pc,全國人大代表陳晶瑩:該給“大數(shù)據(jù)殺熟”踩剎車了,https://www.guancha.cn/politics/2021_03_10_583686.shtml.;而“無制裁”,則是指在我國司法實踐當(dāng)中并無一起消費者以算法價格歧視為由起訴電商并勝訴且獲得賠償?shù)陌咐诒疚膶Π咐乃阉?,是基于北大法寶司法案例?shù)據(jù)庫,先后以“算法+價格歧視”“價格歧視+消費者”“殺熟”“大數(shù)據(jù)殺熟”為關(guān)鍵詞進行全文搜索,最后訪問時間為2021年3月18日。此外,對2020年發(fā)表于權(quán)威法學(xué)刊物、與算法價格歧視相關(guān)的論文進行整理,同樣未發(fā)現(xiàn)論文中有援引消費者在算法價格歧視案件當(dāng)中勝訴的先例。。目前,兩起相對有代表性的案例分別為“劉某訴北京三快科技有限公司侵權(quán)責(zé)任案”,以及“鄭某訴上海攜程商務(wù)有限公司侵權(quán)責(zé)任案”,遺憾的是,這兩起案例均未引起法院對于“大數(shù)據(jù)殺熟”行為的法律分析。
在“劉某訴北京三快科技有限公司案”中,長沙市中級人民法院以劉某未能舉證的確存在“大數(shù)據(jù)”區(qū)別定價為由,駁回劉某起訴。法院認(rèn)為,劉某與其同事并非同時下單,因而配送費相差1元并不能證明區(qū)別定價的存在。而對于劉某所主張的、新華社對“被上訴人利用‘大數(shù)據(jù)殺熟’進行的價格欺詐行為”的權(quán)威報道,以及上訴人“補充提供更多同一時間同一地址同一商家同一服務(wù)的截圖”以證明“新老用戶不同價”,兩審法院均未采納其作為證據(jù)的效力③劉某、北京三快科技有限公司侵權(quán)責(zé)任糾紛上訴案,湖南省長沙市中級人民法院民事判決書,(2019)湘01民終9501號。。與之類似,在“鄭某訴上海攜程商務(wù)有限公司侵權(quán)責(zé)任案”中,上海市長寧區(qū)法院同樣認(rèn)為,“原告查詢機票價格的時間存在一定間隔,機票價格的變動幅度也在合理范圍內(nèi),不能因不同時間段機票價格存在波動就認(rèn)定其屬于‘大數(shù)據(jù)殺熟’行為”④鄭育高與上海攜程商務(wù)有限公司其他侵權(quán)責(zé)任糾紛案,上海市長寧區(qū)人民法院民事判決書,(2020)滬0105民初9010號。。
就請求權(quán)基礎(chǔ)問題而言,“劉某訴北京三快科技有限公司案”并未明示;“鄭某訴上海攜程案”中,法院則并不支持原告以侵權(quán)責(zé)任為請求權(quán)基礎(chǔ)。法院表示,被侵犯的權(quán)益必須在《侵權(quán)責(zé)任法》第二條列舉的民事權(quán)益范圍之內(nèi)方可請求救濟,但該條款中并不包括本案中原告主張的知情權(quán)和公平交易權(quán)。原告或可基于《消費者權(quán)益保護法》主張上述權(quán)利,但請求權(quán)基礎(chǔ)應(yīng)為合同之訴而非侵權(quán)之訴。不過,鑒于攜程公司在該案當(dāng)中主張其僅為訂票平臺,與原告不存在合同關(guān)系,因此,即便原告提起合同之訴,也未必能夠獲得有利判決。
從以上分析來看,消費者若需對算法價格歧視問題維權(quán),將面臨兩重法律障礙:其一,在算法本身不透明的情況下,如何證明消費者的確受到了歧視?不論是權(quán)威媒體報道還是同一時間價格不同的訂單截圖,法院均未認(rèn)可其證據(jù)效力。對于并不具有信息技術(shù)專業(yè)知識的普通消費者而言,顯然無法破解電商的“算法黑箱”而證明價格歧視的存在。其二,請求權(quán)基礎(chǔ)缺失。根據(jù)“劉某訴北京三快科技有限公司案”的判決結(jié)果,侵權(quán)法并不支持對知情權(quán)和公平交易權(quán)的侵權(quán)之訴;但根據(jù)上海攜程公司的抗辯事由,電商平臺與消費者之間是否存在合同關(guān)系仍有疑問,這客觀上導(dǎo)致消費者難以尋得適當(dāng)?shù)脑V因以維護其權(quán)利。
當(dāng)然,在“鄭某訴上海攜程商務(wù)有限公司侵權(quán)責(zé)任案”中,原則上提及在消費者能夠提出合同之訴的前提下,可依據(jù)《消費者權(quán)益保護法》提起訴訟,然而下文分析還將表明,該案當(dāng)中鄭某未選擇依據(jù)《消費者權(quán)益保護法》或《電子商務(wù)法》起訴或許未必是其訴訟策略的疏失,而是因為這兩部法律對其權(quán)益的維護同樣力有不逮。
這是因為,《消費者權(quán)益保護法》應(yīng)用到算法價格歧視問題中略顯牽強?!断M者權(quán)益保護法》中與算法價格歧視最為相關(guān)的條款為第10條:“消費者在購買商品或者接受服務(wù)時,有權(quán)獲得質(zhì)量保障、價格合理、計量正確等公平交易條件”;第8條:“消費者享有知悉其購買、使用的商品或者接受的服務(wù)的真實情況的權(quán)利。消費者有權(quán)根據(jù)商品或者服務(wù)的不同情況,要求經(jīng)營者提供商品的價格、產(chǎn)地、生產(chǎn)者、用途、性能等有關(guān)情況?!边@也是上文所援引的“劉某訴北京三快科技有限公司案”當(dāng)中論及的“知情權(quán)”與“公平交易權(quán)”的法律淵源。然而,問題在于,價格歧視并不等同于價格“不合理”,而合理的價格即便因人而異也同樣屬于“公平交易”。不僅如此,消費者知情權(quán)也僅僅限于“要求經(jīng)營者提供價格”而非“要求經(jīng)營者告知其他消費者可否獲得更低價格”,更不會延伸到要求獲得該價格的權(quán)利[4]。事實上,即便不談“算法”,我國司法實踐當(dāng)中并不支持基于消費者公平交易權(quán)或知情權(quán)而主張商家價格歧視行為本身違法。如“柳某芳訴南方日報社案”①柳某芳訴南方日報社侵權(quán)糾紛案,廣東省汕頭市龍湖區(qū)人民法院(2004)龍民一初字第144號。中,法官就認(rèn)定“報社對不同地區(qū)發(fā)行不同版數(shù)報紙”是市場經(jīng)濟條件下合法的價格歧視;“米龍與云南世博集團有限公司等消費索賠糾紛上訴案”②米龍與云南世博集團有限公司等消費索賠糾紛上訴案,云南省昆明市中級人民法院(2007)昆民五終字第363號。中,法官也認(rèn)定“本地與外地消費者門票價格不同”不影響消費者公平交易權(quán)。以上分析表明,基于“知情權(quán)”或“公平交易權(quán)”的請求權(quán)基礎(chǔ)對消費者而言或許并不完美。
除此之外,算法價格歧視多產(chǎn)生于電商經(jīng)濟,因而要受到《電子商務(wù)法》規(guī)制?!峨娮由虅?wù)法》第18條的確對此進行了規(guī)制:“電子商務(wù)經(jīng)營者應(yīng)當(dāng)向消費者提供不針對個人特征的選項,尊重和平等保護消費者合法權(quán)益?!逼渲小斑x項”一詞完全可以擴展解釋為“向消費者提供不針對個人特征的價格”。此條款是我國法律層面對算法的首次規(guī)制,該條款也曾被解讀為對抗算法價格歧視的利器[5]。然而,我國有學(xué)者對此條款作出完全相反的解讀,認(rèn)為“應(yīng)當(dāng)提供不針對個人特征的選項”這一措辭能夠反證電商經(jīng)營者擁有“針對消費者個人特征”進行營銷乃至定價的權(quán)利[6],否則“應(yīng)當(dāng)提供”就該表述為“應(yīng)當(dāng)僅提供不針對個人特征的選項”。事實上,此條款自《電子商務(wù)法》生效以來,在司法實踐當(dāng)中的應(yīng)用同樣極為有限,目前唯一一起有據(jù)可查的案件也與價格歧視毫無關(guān)聯(lián)③此搜索結(jié)果為在北大法寶法律法規(guī)數(shù)據(jù)庫中檢索《電子商務(wù)法》第18條的結(jié)果,檢索日期為2021年3月19日。。我國律師與法官放棄適用該條款,同樣能夠反證該條款并不能給予消費者充分的維權(quán)信心。
除上述規(guī)則之外,我國立法當(dāng)中仍有可能對價格歧視進行規(guī)制的是《反壟斷法》和《價格法》,但二者均無法應(yīng)用于消費者權(quán)益保護。我國《反壟斷法》第17條固然禁止了“交易價格差別待遇”,但行為人必須是“具有市場支配地位的經(jīng)營者”,其行為也必須達到“濫用市場支配地位”的嚴(yán)重程度。我國《價格法》第14條第7款雖然不要求行為方具有市場支配地位,但價格歧視的對象仍然是“其他經(jīng)營者”[7]。
以上分析直接意味著消費者“被殺熟”這一主觀感受尚難以轉(zhuǎn)化為法律所認(rèn)可的權(quán)利主張,盡管從中國消費者協(xié)會到“兩會”代表對此的關(guān)注已證明了解決此問題的必要性。當(dāng)前存在的問題一方面是消費者舉證困難,另一方面是請求權(quán)基礎(chǔ)不夠充分,不論是從“算法”本身入手還是從“價格歧視”問題入手均是如此。證據(jù)問題是否能夠通過比較法研究加以解決仍然有待觀察,但至少就請求權(quán)基礎(chǔ)問題而言,下文分析將會表明,美歐雖由于其法律傳統(tǒng)差異因而立法進路不同,但均提供了可供參照的法治經(jīng)驗。
美國對算法價格歧視的規(guī)制,主要圍繞“價格歧視”一詞展開,并有限擴展至對歧視的載體——“算法”的規(guī)制,但后者效果相對不明顯。之所以從“價格歧視”入手,是因為美國法“針對消費者的價格歧視”具有完善的規(guī)制?!八惴ā敝傅氖腔谟嬎銠C自動決策系統(tǒng)進行的篩選,但即便是在計算機尚未發(fā)明的年代,也同樣存在基于性別、種族、年齡等各項因素的篩選行為,而且此種歧視并不局限在商品價格領(lǐng)域,在教育、就業(yè)、選舉等各個領(lǐng)域都會存在。對于“歧視”這一問題,美國的總體規(guī)定源自1964年的《民事權(quán)利法案》(the Civil Rights Act of 1964)。此法律在各行各業(yè)也會隨之落實為更加精細(xì)的立法,如《公平信用機會法》(Equal Credit Opportunity Act)就是在商業(yè)借貸方面的落實。不過,需說明的是,上述《民事權(quán)利法案》禁止的并非“一切歧視行為”,或者“將一群人與另一群人相區(qū)分的行為”,而是在特定場合對特定人群的歧視。例如,《民事權(quán)利法案》第7章第703條題為“非法的雇傭行為”,其中禁止的是雇主基于個人的種族、膚色、宗教信仰、祖籍對其進行歧視①the Civil Rights Act of 1964,Section 703(a).,但顯然不禁止雇主基于個人的語言能力、學(xué)歷或技能進行區(qū)分對待。又如,《民事權(quán)利法案》第2章禁止在任何公共場所基于同樣因素限制個人享受貨物、服務(wù)、設(shè)備、優(yōu)惠的權(quán)利,但該法案當(dāng)中的“公共場所”(public accommodation)僅限于賓館、餐館或咖啡廳、影院、音樂廳、體育館等娛樂場所或以上場所的附屬設(shè)施②id,42 U.S.C.§2000a.。具體到各州反歧視立法,其禁止的歧視內(nèi)容可能會擴展到性取向、年齡、婚姻狀況、性別認(rèn)同,對于公共場所的定義也可能擴展到“任何商業(yè)設(shè)施”(如加利福尼亞州)③對此的詳細(xì)研究參見:State Public Accommodation Laws,https://www.ncsl.org/research/civil-and-criminal-justice/state-public-accommodation-laws.aspx#CA1.。例如,上文提及的《公平信用機會法》就禁止債權(quán)人基于種族、膚色、宗教信仰、祖籍、性別、婚姻狀況、年齡、是否接受了公共資助項目款項、是否行使《消費者信用保護法》項下權(quán)利而拒絕貸款。在美國法律當(dāng)中,甚至專門有一個詞匯描述“受保護的群體”(protected class),只有該群體被通過“特征+場域”方式精確劃定,法律才會賦予其非歧視保護。
從這一角度來講,“價格”一詞雖未明確寫入美國聯(lián)邦或州的反歧視法律中,但“反歧視”也必然包括價格歧視,只不過美國法律對價格歧視的規(guī)制仍然要受到上述“特征+場域”的限制:誰,在哪里遭受了價格歧視?鑒于消費者這一身份并未被任何反歧視法界定為“受保護的群體”,因此,“針對消費者的價格歧視”本身并不違法。然而,與之形成鮮明對比的是,一旦某一特定群體(如女性)受到價格歧視,則《公共場所法》就完全可以加以規(guī)制。例如,美國佛蒙特州總檢察長辦公室與人權(quán)委員會就于2016年聯(lián)合發(fā)布了一份《貨物與服務(wù)定價中的性別因素指南》,其中強調(diào),“粉色自行車價格更貴”“女襯衫干洗費用一律更高”等現(xiàn)象足以構(gòu)成性別歧視,且違反佛蒙特州《公共場所法》,消費者可以對此進行投訴并要求州總檢察長對企業(yè)進行處罰[8]。又如,“消費者種族畫像”(consumer racial profiling)向來是美國法律規(guī)制內(nèi)容之一,而法院對此的分析方式同樣是分三步走:其一,原告是否屬于某一少數(shù)族群?(在特定場合下,白人同樣可以構(gòu)成被歧視對象);其二,是否存在基于種族的故意歧視?第三,其受到的歧視是否是針對法律所保護的行為(如黑人有權(quán)在飯店與白人顧客享受同等服務(wù))[9]?
與美國完備的價格歧視立法相比,美國對于算法的規(guī)制相對欠缺。這是因為,美國向來將算法作為商業(yè)秘密加以保護,對于一項無從得知其內(nèi)容的技術(shù)進行規(guī)制因而并不現(xiàn)實[1]。目前唯一一部處于立法進程當(dāng)中的成文法是2019年4月提交審議的《算法責(zé)任法案(草案)》④Algorithmic Accountability Act of 2019,H.R.2231.,其中的確涉及了“歧視”問題,但其本質(zhì)上僅為一項“軟法”。根據(jù)該法案第2.2條的規(guī)定,法案所覆蓋的企業(yè)有義務(wù)進行自動決策系統(tǒng)影響評估,即對該系統(tǒng)準(zhǔn)確性、公平性、歧視性、隱私性與安全性的影響評估。但是,此項義務(wù)一方面僅僅覆蓋大企業(yè),即“此前三年平均年收入在5000萬美元以上的大企業(yè)或該企業(yè)的控制者,控制個人信息超過100萬名消費者或100萬個消費者設(shè)備的企業(yè),以及經(jīng)營個人信息貿(mào)易的中介或以此為主營業(yè)務(wù)的企業(yè)”⑤id,Section 2(5).。另一方面,此種評估需強制實施,但評估結(jié)果不需強制公示,僅企業(yè)一方才有權(quán)決定評估結(jié)果是否對外公布⑥id,Section 3(b)(2).。
不僅如此,美國對算法規(guī)制的困難還源自美國個人信息保護立法的缺失。在個人信息保護問題上,美國一直秉持行業(yè)自律原則,主張由行業(yè)協(xié)會與企業(yè)自主形成個人信息保護規(guī)則,反對以此為由對信息跨境流動造成阻礙。在美國立法與司法實踐中,一直對企業(yè)獲取消費者個人信息秉持“選擇退出”(opt-out)機制,即企業(yè)無需獲得消費者同意即可獲取其個人信息,除非消費者對此明確表示反對。因此,美國一方面不要求算法本身的透明度,另一方面不限制電商將個人信息輸入算法當(dāng)中,因此從算法角度規(guī)制價格歧視并不現(xiàn)實。
綜上所述,算法價格歧視問題在美國法項下,與其說是通過算法責(zé)任加以規(guī)制,不如說是通過民事權(quán)利保護法律加以規(guī)制。美國原則上尊重市場競爭中的定價自由,但一旦通過“場所+群體”模式對特定場所中的特定人群進行賦權(quán),那么市場必須對其負(fù)有非歧視定價義務(wù),算法僅僅是“歧視”的新型手段之一。美國白宮網(wǎng)站上刊載的《大數(shù)據(jù)與差別定價經(jīng)濟學(xué)》報告也指出,大數(shù)據(jù)看似具有開創(chuàng)性,但在差別定價問題上并未改變其基本原則①The Economics of Big Data and Differential Pricing.https://obamawhitehouse.archives.gov/blog/2015/02/06/economics-big-data-and -differential-pricing.。從這一角度而言,美國的電子商務(wù)即便發(fā)展較早,也并不必然具有對算法歧視進行特別規(guī)制的動力,其對基本民事權(quán)利的保護足以應(yīng)對算法帶來的新型價格歧視。
與美國相比較,歐盟算法價格歧視規(guī)制更接近基于個人信息保護的法律規(guī)制。在歐盟法框架下,個人信息權(quán)與隱私權(quán)是在《歐盟基本權(quán)利憲章》第7條與第8條當(dāng)中作為“基本權(quán)利”受到保護的,其性質(zhì)可以粗略等同于憲法權(quán)利。上述規(guī)則進一步細(xì)化為歐盟1995年“數(shù)據(jù)保護指令”與2016年《通用數(shù)據(jù)保護條例》。基本權(quán)利固然不包含“免受算法價格歧視”的權(quán)利,但正是歐盟在基本權(quán)利保護理念指導(dǎo)之下的個人信息保護,壓縮了算法價格歧視存在的空間。
一方面,歐盟消費者個人信息保護客觀上壓縮了算法價格歧視的數(shù)據(jù)來源。價格歧視之所以能夠產(chǎn)生,是由于電商能夠獲取消費者交易記錄、購物偏好乃至于手機品牌等信息,并以此為基礎(chǔ)作出歧視性定價安排。而在《通用數(shù)據(jù)保護條例》項下,企業(yè)獲得消費者信息必須經(jīng)過消費者同意,且此種同意必須是自愿、特定化、知情、無歧義的②GDPR,Article.4.。特別需要強調(diào)的是,所謂“消費者同意”,必須是對于“信息被應(yīng)用于某一特定目標(biāo)”的同意③GDPR,Article 5.1(b).。企業(yè)如果僅籠統(tǒng)告知消費者,“我們需使用你的信息提升用戶體驗”“信息將用于市場推廣”,均不構(gòu)成“對于特定目標(biāo)的同意”④Article 29 Working Party(2013).Opinion 03/2013 on purpose limitation(WP 203),2 April 2013.。從這一角度來講,企業(yè)即便擁有消費者地址、交易記錄乃至于商品瀏覽記錄等特定化的個人信息,在將這些信息納入算法并進行差異化定價之前,企業(yè)方仍然需要獲得消費者關(guān)于算法價格歧視的許可,否則此行為就構(gòu)成超出消費者同意的范圍而使用個人信息,進而構(gòu)成對《通用數(shù)據(jù)保護條例》的違反。歐盟對于“告知同意”的要求,直接區(qū)別于美國“選擇退出”機制,這也在客觀上保證了歐盟更有可能通過限制數(shù)據(jù)來源來對算法進行規(guī)制。
另一方面,《通用數(shù)據(jù)保護條例》同時存在明確的信息自動處理限制。此種“自動處理”在消費者保護語境下在很大程度上等同于“算法”。該條例第22條規(guī)定,數(shù)據(jù)主體有權(quán)不受完全由自動處理達成的決策規(guī)制,其中包含“用戶畫像”,且該決策會創(chuàng)設(shè)與其有關(guān)或產(chǎn)生實質(zhì)影響的法律效果。鑒于算法定價行為通常不會受到人工干預(yù),且算法定價的確會對消費者產(chǎn)生實質(zhì)影響,算法價格歧視問題受到此條款約束是毫無疑問的。對此,根據(jù)《通用數(shù)據(jù)保護條例》項下的透明度要求⑤GDPR,Art.13(2)(f),14(2)(f).,消費者雖然未必能夠直接宣告算法定價行為違法,但至少有權(quán)要求數(shù)據(jù)控制者提供信息,證明自動決策的存在,以及自動決策基于何種邏輯運行、會產(chǎn)生何種后果。歐盟的這一要求直接區(qū)別于美國將算法作為商業(yè)秘密加以保護的態(tài)度,顯然也有助于對算法本身實現(xiàn)直接規(guī)制。
綜上所述,與美國的相關(guān)實踐對比,歐盟對于“算法”本身和算法“原材料”——個人信息的規(guī)制,已經(jīng)能夠在很大程度上限制企業(yè)通過算法實現(xiàn)消費者價格歧視。除此之外,歐盟再無針對消費者市場定價的專門規(guī)則。事實上,歐盟完備的個人信息保護規(guī)則足以保證此處無需討論其是否需效仿美國,以類似于美國1964年《民事權(quán)利法案》的方式限制對特定群體的價格歧視。這是因為,《通用數(shù)據(jù)保護條例》直接禁止基于敏感信息進行數(shù)據(jù)處理,除非通過嚴(yán)格的明示許可。此處的敏感信息包含種族、政治立場、宗教信仰、行業(yè)協(xié)會會員、基因信息、生物識別信息與性取向信息?;诖诉M行的價格歧視因而幾乎不可能存在。因此,歐盟目前明確規(guī)定的價格歧視禁令,也僅有基于國籍或居住國的價格歧視,比如僅僅由于消費者外國人身份或在本國無住所而收取高價①https://europa.eu/youreurope/citizens/consumers/shopping/pricing-payments/index_en.htm.,這更多是為了維護歐洲共同市場而專門制定的規(guī)則。
綜上所述,歐盟與美國當(dāng)前的法律均能夠?qū)λ惴▋r格歧視進行相應(yīng)的規(guī)制,盡管其路徑或許有所不同。歐盟個人信息保護法律相對發(fā)達,因而更加傾向于對算法透明度的要求以及對電商獲取個人信息的限制;美國個人信息保護規(guī)則相對欠缺,因而對算法價格歧視的規(guī)制派生于傳統(tǒng)民權(quán)保護規(guī)則。從這一角度來講,美歐路徑不同但核心均在于“賦權(quán)”,盡管其賦予消費者的權(quán)利分別來源于民事法律和個人信息保護法律。美歐原則上均承認(rèn)企業(yè)定價自由、市場競爭自由,因此僅在企業(yè)定價行為觸犯了某些被保護的權(quán)利或至少是法益的情況下才會加以規(guī)制,此種殊途同歸的“權(quán)利-市場”理念,無疑將會為我國的算法價格歧視規(guī)則構(gòu)建提供借鑒。
上文對美歐相關(guān)法律實踐的回顧與對二者“權(quán)利-市場”理念的綜述,將有助于解決本文第二部分提出的消費者維權(quán)障礙問題。究竟如何對消費者進行“賦權(quán)”,才能在保障其權(quán)益的同時維護市場競爭?
首先,從理念上,我國應(yīng)當(dāng)沿襲美歐共同遵循的“權(quán)利-市場”理念,堅持市場主導(dǎo)、權(quán)利優(yōu)先的立法與司法路徑?!笆袌鲋鲗?dǎo)”是指尊重市場主體自由定價的權(quán)利;權(quán)利優(yōu)先,則是指一旦消費者被明確“賦權(quán)”,則定價自由必須對此進行讓步。差異性定價是否有助于社會總體福利或者有利于消費者總體福利②此問題在經(jīng)濟學(xué)語境下或有更加詳細(xì)的探討。參見:承上.人工智能時代個性化定價行為的反壟斷規(guī)制——從大數(shù)據(jù)殺熟展開[J].中國流通經(jīng)濟,2020(5):121-128;山茂峰,鄭翔.算法價格歧視反壟斷規(guī)制的邏輯與進路[J].價格理論與實踐,2020(5):27-31+77.均不應(yīng)成為侵犯權(quán)利的免責(zé)事由,這也是公平價值對追求效率的再平衡。當(dāng)然,“市場主導(dǎo)”的另一重含義是讓市場真正發(fā)揮其“看不見的手”的作用,如鼓勵企業(yè)制定承諾“買貴必賠”“七天保價”等自律性規(guī)范,這同樣有助于增強消費者對電子商務(wù)的信心。
其次,從“賦權(quán)”的具體路徑上,我國目前的制度安排應(yīng)當(dāng)更加類似于歐盟路徑,從算法與個人信息保護角度規(guī)制價格歧視。這不僅僅是因為我國當(dāng)前基于民事權(quán)利對價格歧視的規(guī)制仍然缺乏請求權(quán)基礎(chǔ),而且當(dāng)前我國關(guān)于平等權(quán)的立法與司法實踐并不如美國那樣發(fā)達,以此為進路還需從《中華人民共和國憲法》到《消費者權(quán)益保護法》,再到《民法典》的總體改進。與之相對,我國個人信息保護與算法治理規(guī)則已隨著《個人信息保護法》立法工作的推進取得了一定進展,且整體進路與歐盟存在相當(dāng)大的共性。目前,我國《民法典》當(dāng)中雖未將個人信息定性為民事權(quán)利,但至少承認(rèn)其屬于法益③對于“權(quán)利還是法益”的回顧,參見:梅夏英.在分享和控制之間 數(shù)據(jù)保護的私法局限和公共秩序構(gòu)建[J].中外法學(xué),2019(4):845-870.,因此這提供了對個人信息保護的合法性基礎(chǔ)。我國《個人信息保護法(草案)》立法工作的推進,也為算法角度的“賦權(quán)”提供了可能。
第三,從“賦權(quán)”具體內(nèi)容上,消費者首先應(yīng)當(dāng)具有個人信息不被納入算法考量的權(quán)利。大數(shù)據(jù)背景下,商家用于決策的數(shù)據(jù)來源往往違背消費者意愿(如故意設(shè)置繁復(fù)的隱私政策),甚至是在消費者不知情的情況下抓取并使用的。此種現(xiàn)象也被稱之為“新熟人社會的人際失信”[10]。因此,規(guī)制信息納入算法將有助于提振消費者信心,進而促進電商產(chǎn)業(yè)整體健康發(fā)展。一方面,這可以通過對“知情同意”的嚴(yán)格規(guī)制實現(xiàn):消費者信息的收集與保存必須遵循“最小目的”原則,即非必要不收集、非必要不保存。此處的“必要”,應(yīng)當(dāng)限定為合同履行所必要,而非經(jīng)營者商業(yè)經(jīng)營所必要。對于“非必要不保存”,2020年《個人信息保護法(草案)》第20條已有規(guī)定;而對于“非必要不收集”,我國市場監(jiān)督機關(guān)目前已經(jīng)在大規(guī)模的APP治理活動當(dāng)中禁止其收集消費者的定位、年齡、通訊錄等非必要信息。另一方面,除對信息收集的嚴(yán)格控制之外,對于信息的使用目的同樣需要嚴(yán)格規(guī)制。這是因為,對于電商而言,即便其未必有權(quán)獲得消費者通訊錄、相冊等信息,但仍然能夠合法持有并長期保存消費者交易記錄、收貨地址等能夠形成算法歧視的信息。此部分信息固然不能強制電商“閱后即焚”,但可以限制其對信息的使用——消費者有權(quán)選擇此部分信息是否僅用于合同履行而非市場營銷。對此種信息使用目的的限制已出現(xiàn)在歐盟個人信息保護法律中,且在我國《個人信息保護法(草案)》第14條已有暗示①《個人信息保護法(草案)》第十四條第二款規(guī)定:個人信息的處理目的、處理方式和處理的個人信息種類發(fā)生變更的,應(yīng)當(dāng)重新取得個人同意。雖然該草案當(dāng)中沒有明確規(guī)定“個人信息的處理目的應(yīng)當(dāng)取得個人同意”,但“重新取得”一詞暗含了“此前必然已經(jīng)取得了個人同意”。當(dāng)然,出于立法嚴(yán)謹(jǐn)性考慮,也可在法律文本當(dāng)中加入“個人信息的處理目的、處理方式應(yīng)當(dāng)取得個人同意;且此同意不得與個人信息的收集捆綁進行”。。因此,可以樂觀地預(yù)計,以上兩方面內(nèi)容一旦付諸實施,將能夠嚴(yán)格控制納入算法的信息內(nèi)容,進而避免算法違法使用公民信息并形成價格歧視。
第四,消費者應(yīng)當(dāng)被賦權(quán)的第二項權(quán)利,是免受算法自動決策的權(quán)利。上文曾經(jīng)論及,《電子商務(wù)法》第18條已經(jīng)向消費者提供了“非個性化價格”的選項,在此基礎(chǔ)上,2020年版《個人信息保護法(草案)》的算法規(guī)制條款(第25條)對自動化決策的要求,不僅包含“非個性化選擇”,還包括“決策透明度”“處理結(jié)果的公平合理”“要求說明并拒絕僅用自動化決策方式作出決定”三項要求。從理論上講,這意味著消費者有權(quán)要求獲知價格形成方式,以及要求得知“非個性化價格”的權(quán)利。上述條款如能夠最終納入立法,則意味著在“大數(shù)據(jù)殺熟”訴訟當(dāng)中,消費者舉證責(zé)任將大幅度降低,至少無需負(fù)擔(dān)對抗電商“算法黑箱”的義務(wù)。然而,考慮“權(quán)利”與“市場”必須協(xié)調(diào)發(fā)展,消費者的此項權(quán)利不宜視為要求公開算法本身,或要求獲得某一特定價格,否則將不利于保護商業(yè)秘密。
最后,上文對于“賦權(quán)”的論述集中在算法與個人信息保護領(lǐng)域,但這并不代表我國無需對“歧視”一詞進行規(guī)制。這是因為,從民事權(quán)利乃至于憲法角度對“非歧視”或“平等權(quán)”的定義,有助于對算法規(guī)制提供價值指引[11]。畢竟算法本身是一個技術(shù)中立的問題,真正需禁止的并非算法,而是通過算法有意或無意達成的某種特定結(jié)果?!秱€人信息保護法(草案)》第25條對于“自動化決策處理結(jié)果的公平合理”的要求也同樣需要對此進行價值判斷。因此,在對算法、對個人信息保護進行規(guī)制的同時,我國還需通過《中華人民共和國憲法》《消費者權(quán)益保護法》乃至《民法典》等對“受保護的群體”進一步定義。