郭宏璟
(海南大學(xué)法學(xué)院,海南 ???570228)
數(shù)字時代背景下,算法的應(yīng)用已經(jīng)滲透到各個領(lǐng)域,從搜索引擎到社交媒體,從自動駕駛到金融交易,無所不在。然而,隨著算法的普及和應(yīng)用,其帶來的法律問題也日益凸顯。算法決策的透明度、公正性以及潛在的歧視和不公平現(xiàn)象,都引發(fā)了社會各界對算法法律規(guī)制的關(guān)注和討論?!叭绾我?guī)制算法?”[1]在近年來逐步成為主流法學(xué)界關(guān)注的焦點。對于算法的法律規(guī)制,目前存在諸多爭議和挑戰(zhàn)。一方面,算法決策的高效性和準(zhǔn)確性給很多領(lǐng)域帶來了巨大的便利,如果過度限制或監(jiān)管算法,可能會阻礙科技創(chuàng)新和經(jīng)濟發(fā)展。另一方面,如果不對算法進行法律規(guī)制,可能會導(dǎo)致算法歧視、信息操縱等一系列問題。如何在保護公民權(quán)益和維護社會公正的同時,促進算法技術(shù)的健康發(fā)展,是擺在我們面前的一個重要課題。本文旨在深入探討算法的法律規(guī)制問題,從多個角度分析當(dāng)前面臨的挑戰(zhàn)和困境,并在此基礎(chǔ)上提出可能的解決方案和立法建議。
自動化決策與算法治理是數(shù)字經(jīng)濟時代的重要話題。所謂算法,指“計算機完成一個任務(wù)所需的一系列步驟”?;谒惴ǖ淖詣踊瘺Q策已廣泛運用在各種領(lǐng)域,雖然理論上算法應(yīng)是客觀且中立的,但現(xiàn)實中基于數(shù)據(jù)庫及運算邏輯的偏差,算法也時常會給當(dāng)事人帶來損害。
一方面,算法克減數(shù)據(jù)主體的表意自由。當(dāng)前,各類商業(yè)機構(gòu)正利用各種建?;蛩惴ň傻貙⑷藗兊纳钷D(zhuǎn)化成他人的商機,致使參與數(shù)據(jù)化生活的個人幾乎成了“被算法定義的人”。自動化決策技術(shù)本身具有復(fù)雜性、高效性和精確性等特征,需要利用計算機技術(shù)與算法程序?qū)A總€人數(shù)據(jù)進行收集,并高效整理成數(shù)據(jù)庫,在此基礎(chǔ)上通過深度學(xué)習(xí)技術(shù)、人工智能技術(shù)、神經(jīng)網(wǎng)絡(luò)技術(shù)等對數(shù)據(jù)進行分析、處理,最終自動生成如用戶數(shù)字畫像等結(jié)果。數(shù)據(jù)主體被動且盲目地接受經(jīng)算法篩選的信息,從而難以充分行使信息自決,維護自身權(quán)益。
另一方面,運算邏輯引發(fā)算法歧視。算法設(shè)計者的個體偏見與技術(shù)本身的局限,使得錯誤、充滿歧視色彩的自動化決策結(jié)果屢見不鮮。決策過程的“隱晦不明”使得被決策者無法質(zhì)疑、反對或參與決策過程?;趯?shù)據(jù)主體長期產(chǎn)生的數(shù)據(jù)的分析,算法可以在運算層面將其“標(biāo)簽化”,從而在分類篩選的過程中,限縮具有某類標(biāo)簽的數(shù)據(jù)主體的權(quán)利或機會。同時,數(shù)據(jù)泄露或買賣使得分類篩選與歧視得以秘密化和便利化,導(dǎo)致那些具有特定標(biāo)簽被列入 “黑名單”的數(shù)據(jù)主體無從知曉自身的權(quán)益受損。
算法是由帶有主觀色彩的人類設(shè)計者創(chuàng)造的,因此很難不偏不倚地作出絕對客觀的判斷。決策結(jié)果的偏差可能嚴重影響個人的選擇,體現(xiàn)傾向性和歧視性特征的個性化推薦不斷強化“回聲室”效應(yīng),將人們圍困在信息繭房中,忽視對個體的尊重并侵犯個人隱私和信息安全,從而進入持續(xù)性的歧視與偏見的循環(huán)當(dāng)中。因此法律規(guī)制算法具有正當(dāng)性。
當(dāng)前,雖然多數(shù)國家的法律體系尚未對算法技術(shù)進行全面的規(guī)制,但隨著技術(shù)的發(fā)展和社會的進步,對算法進行規(guī)制的需求越來越迫切。傳統(tǒng)的法律原則,如透明度、公正性和責(zé)任性,在算法決策的背景下可能難以直接應(yīng)用。這是因為算法決策涉及復(fù)雜的數(shù)據(jù)處理和機器學(xué)習(xí)過程,這些過程對人類來說可能是不透明甚至難以理解的。此外,算法決策遠超傳統(tǒng)人工決策的速度和規(guī)模,以及算法的商業(yè)秘密屬性均使得傳統(tǒng)的法律監(jiān)管手段難以有效應(yīng)對。
商業(yè)秘密是指不為公眾所知悉、具有商業(yè)價值并經(jīng)權(quán)利人采取保密措施的技術(shù)和經(jīng)營信息。實證法上,將算法歸類為技術(shù)信息從而受到商業(yè)秘密規(guī)范體系的保護?!蹲罡呷嗣穹ㄔ宏P(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》第一條第一款規(guī)定:“與技術(shù)有關(guān)的結(jié)構(gòu)、原料、組分、配方、材料、樣品、樣式、植物新品種繁殖材料、工藝、方法或其步驟、算法、數(shù)據(jù)、計算機程序及其有關(guān)文檔等信息,人民法院可以認定構(gòu)成反不正當(dāng)競爭法第九條第四款所稱的技術(shù)信息”。明確了算法能夠作為商業(yè)秘密所涵攝的技術(shù)信息而受到特別保護和特殊規(guī)制。
算法的商業(yè)秘密屬性與算法規(guī)制之間的矛盾主要體現(xiàn)在商業(yè)秘密的保護需求與增加算法透明的要求之間的沖突。這種矛盾源于商業(yè)秘密的法律定義和保護目的,即防止競爭對手獲取并利用這些秘密信息,從而保持企業(yè)在市場中的競爭優(yōu)勢。而規(guī)制算法則強調(diào)算法決策的公開性和可解釋性,以便公眾理解和信任算法的決策過程。
為了解決這一矛盾,需要從多個角度進行探討和實踐。首先,從法律層面來說,需要對算法進行合理的規(guī)制,以保障公眾的知情權(quán)和公平交易權(quán)等基本權(quán)利。同時,也需要充分考慮到商業(yè)秘密的保護需求,避免對企業(yè)的創(chuàng)新和發(fā)展造成過度限制。其次,從技術(shù)層面來說,需要發(fā)展更加透明和可解釋的算法技術(shù),以提高算法的可靠性和可信度。此外,還需要加強數(shù)據(jù)管理和隱私保護等方面的技術(shù)研發(fā)和應(yīng)用,以保障個人信息和隱私的安全。最后,從社會層面來說,需要加強公眾對算法的認知和理解,提高公眾的數(shù)字素養(yǎng)和信息素養(yǎng)。同時,也需要建立健全的監(jiān)管機制和責(zé)任體系,以保障算法的合法、合規(guī)和公正應(yīng)用。
總之,算法規(guī)制與商業(yè)秘密保護之間的協(xié)調(diào)是一個復(fù)雜而重要的問題。需要從多個角度進行探討和實踐,以實現(xiàn)算法的透明、公正和合法應(yīng)用,同時保護企業(yè)的商業(yè)秘密和合法權(quán)益。
商業(yè)秘密作為企業(yè)核心競爭力的重要組成部分,一直以來都受到法律的嚴格保護。然而,隨著社會的不斷進步和技術(shù)的迅速發(fā)展,商業(yè)秘密的保護與公共利益之間的矛盾漸深,尤其在涉及重大公眾利益的情況下,如何平衡商業(yè)秘密的保護與公共利益,是一個亟待解決的問題。
在公共利益視角下,商業(yè)秘密可能面臨兩方面的限縮:一是國家或社會在緊急狀態(tài)或非常情況下的強制披露或使用;二是與社會公共利益相關(guān)時的限制。
首先,在國家或社會的緊急狀態(tài)或非常情況下,為了維護國家安全、社會穩(wěn)定和公共利益,商業(yè)秘密可能會被強制披露或使用。例如,在新冠肺炎疫情防控期間,政府為了確保防疫物資的充足供應(yīng)和有效調(diào)配,可能會要求相關(guān)企業(yè)披露其生產(chǎn)、銷售、物流等方面的商業(yè)秘密。在這種情況下,企業(yè)可能需要放棄對其商業(yè)秘密的保護,以滿足國家和社會公共利益的需求。
其次,當(dāng)商業(yè)秘密與社會公共利益相關(guān)時,其保護應(yīng)受到一定的限制。例如,商業(yè)秘密涉及環(huán)保信息時,其披露和使用應(yīng)符合環(huán)保法規(guī)的要求,不得隱瞞或虛假披露環(huán)境風(fēng)險。此外,商業(yè)秘密的保護也不應(yīng)妨礙政府監(jiān)管和社會監(jiān)督。關(guān)涉社會公共利益的算法保護必須為透明度和可追責(zé)性讓路。盡管在商業(yè)領(lǐng)域保護商業(yè)秘密有妥適的理由,但在社會公共利益面前,基本的透明度與民主價值優(yōu)先。
當(dāng)然,商業(yè)秘密的限縮應(yīng)遵循合理、必要和比例原則。在維護公共利益的同時,應(yīng)盡量減少對商業(yè)秘密權(quán)利人的影響,并保障其合法權(quán)益不受侵犯。需要注意的是,商業(yè)秘密的限縮并不意味著放棄對商業(yè)秘密的保護。在維護公共利益的同時,也應(yīng)加強對商業(yè)秘密的保護和管理,防止其被濫用或泄露。
綜上所述,在維護公共利益的同時,應(yīng)充分考慮商業(yè)秘密的保護需求,避免對企業(yè)的創(chuàng)新和發(fā)展造成過度限制。通過合理的法律規(guī)制和政策引導(dǎo),平衡商業(yè)秘密的保護與公共利益,促進社會的和諧穩(wěn)定發(fā)展。
隨著科技的快速發(fā)展,算法在商業(yè)領(lǐng)域中的應(yīng)用越來越廣泛。然而,算法的商業(yè)秘密屬性也引發(fā)了一些關(guān)于個人信息保護和私權(quán)的問題。針對這些問題,有必要進行私權(quán)抗辯,以保障個人信息主體的合法權(quán)益。
信息自決是個人信息保護規(guī)范體系所追求的目標(biāo),而“告知同意”則是法律確立的個人信息保護核心規(guī)則,是保障個人對其個人信息處理知情權(quán)和決定權(quán)的重要手段[2]。只有在個人知情并同意的情況下,個人信息才能被處理和使用。因此,應(yīng)該充分保障個人信息保護的知情同意規(guī)則。
《個人信息保護法》第二十四條從算法透明義務(wù)及個人賦權(quán)角度出發(fā)[3],要求個人信息處理者應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正。這意味著在利用算法進行個人信息處理時,個人信息處理者應(yīng)當(dāng)公開算法的原理、目的、方法等,以便信息主體了解自己的信息被如何處理和使用。此外,個人信息處理者還應(yīng)當(dāng)保證決策結(jié)果的公平和公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。
通過自動化決策向個人進行精準(zhǔn)推送時,個人信息處理者應(yīng)當(dāng)同時提供不針對其個人特征的選項或便捷的拒絕方式。這意味著個人有權(quán)選擇是否接受算法的自動化決策,并有權(quán)拒絕將自己的信息用于算法決策。面對不正義的算法,個體應(yīng)享有拒絕其自動化決策的權(quán)利。
數(shù)據(jù)主體的知情權(quán)要求算法平臺承擔(dān)保證算法透明度和可解釋性的義務(wù)。這意味著個人信息主體有權(quán)要求個人信息處理者解釋說明通過自動化決策方式作出的對個人權(quán)益有重大影響的決定。如果個人信息主體無法憑借自身信息和技術(shù)能力充分理解,那么信息和技術(shù)優(yōu)勢一方的解釋就成為知情同意的前提。
綜上所述,對算法商業(yè)秘密屬性的私權(quán)抗辯是必要的。通過保障個人信息主體的知情同意權(quán)、公平交易權(quán)等基本權(quán)利,可以平衡商業(yè)秘密的保護與個人權(quán)益之間的關(guān)系。同時,加強算法的透明度和可解釋性,也可以提高算法的可靠性和可信度,進一步保障個人的合法權(quán)益。
算法的公開、披露,以及保證決策結(jié)果在事實和法律上公平公正,這是《個人信息保護法》對自動化決策中個人信息處理者的要求。如前所述,自動化決策本身可能帶來“大數(shù)據(jù)殺熟”“算法歧視”等風(fēng)險,甚至輿論引導(dǎo)等負面影響。復(fù)旦大學(xué)孫金云教授團隊的《2020打車軟件出行狀態(tài)調(diào)研報告》證實大數(shù)據(jù)用戶畫像、大數(shù)據(jù)產(chǎn)生的消費陷阱侵害了消費者的公平交易權(quán)。
因此對抗算法妨害,通過法律規(guī)制算法的第一步,就是要求算法的公開透明、公平公正。公開透明是《個人信息保護法》的基本原則,欲在增強算法的可問責(zé)性和解釋性。在自動化決策中,透明度原則要求決策者公開運算的數(shù)據(jù)以及用于自動化決策的計算系統(tǒng)的源代碼[4]。簡單來說,個人信息處理者應(yīng)履行告知義務(wù),將其利用算法處理的個人信息的范圍告知個人,公開源代碼的本質(zhì)要求是提高算法的透明度,但源代碼的公布或?qū)е轮R產(chǎn)權(quán)、商業(yè)秘密的泄露[5],而且過于專業(yè)的源代碼用戶難以理解,可能導(dǎo)致用戶更不愿意閱讀《隱私政策》這種適得其反的結(jié)果。因此,有研究認為,算法透明的要求可能是不可取的,源代碼公開是否有必要,以及是否能夠證明算法的公平性,這些問題使得算法公開遭到質(zhì)疑[6]。
歐盟《通用數(shù)據(jù)保護條例》(GDPR)第12.1條規(guī)定,數(shù)據(jù)處理者使用算法進行自動化決策的行為,應(yīng)當(dāng)通知數(shù)據(jù)主體算法的存在,并提供算法邏輯的相關(guān)信息,及實施算法的目的和預(yù)期后果。我國也針對平臺算法出臺了多部法律法規(guī),其中《電子商務(wù)法》《個人信息保護法》規(guī)定了算法自動化決策的自然結(jié)果展示義務(wù)和自動化決策的透明度要求。2022年1月4日,國家互聯(lián)網(wǎng)信息辦公室和工業(yè)和信息化部等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確了算法披露的內(nèi)容為算法推薦服務(wù)的基本原理、目的意圖和主要運行機制等。在監(jiān)管方面,2022年8月12日國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《境內(nèi)互聯(lián)網(wǎng)信息服務(wù)算法備案清單》,其中包括算法名稱、類別、應(yīng)用產(chǎn)品、主要用途及備案編號等內(nèi)容。從部分互聯(lián)網(wǎng)企業(yè)的披露情況來看,事前公開與事后備案均是為提升算法的透明度,保證結(jié)果公平性的策略。“算法透明原則的最終落腳點是對于算法自動化決策的規(guī)制”,盡管關(guān)于算法公開的必要性和有效性存在諸多質(zhì)疑,但透明度要求仍然是算法規(guī)制的重要手段。我國的規(guī)制策略始終以提高算法透明度為目的。因此,自動化決策的透明度和結(jié)果的公平公正是算法規(guī)制的首要要求。
作為算法的規(guī)制手段,“算法解釋權(quán)”漸入立法視野[7]。《個人信息保護法》規(guī)定了個人拒絕自動化決策的權(quán)利與要求解釋說明的權(quán)利;《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第十二條鼓勵算法推薦服務(wù)提供者優(yōu)化算法決策規(guī)則的透明度和可解釋性;GDPR一系列條款規(guī)定的算法解釋和免受自動化決策約束權(quán)[8]。
算法解釋存在“權(quán)利”與“禁令”之爭[9],學(xué)界對于是否要從個人數(shù)據(jù)賦權(quán)角度應(yīng)對算法問題也存在較大分歧。有學(xué)者認為應(yīng)當(dāng)賦予個人具體的數(shù)據(jù)權(quán)利,而算法解釋權(quán)本質(zhì)是一項請求權(quán)[7],但考慮到商業(yè)領(lǐng)域保護商業(yè)秘密的需要,立法應(yīng)賦予消費者弱化的算法解釋權(quán)[10]。例如,在凌某某訴北京微播視界科技有限公司隱私權(quán)、個人信息權(quán)益網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案中,法院認為算法可能涉及商業(yè)秘密,因此告知和公開算法不屬于對原告的個人信息進行保護的必要措施①。
當(dāng)前更多的觀點認為算法解釋權(quán)創(chuàng)設(shè)沒有必要性,從可行性與可欲性層面來看,算法解釋權(quán)不一定能很好回應(yīng)算法決策或輔助決策帶來的問題[11],并且將會帶來更多的難題,應(yīng)將算法解釋權(quán)視為一種程序性權(quán)利而非實體性權(quán)利。個人信息權(quán)完全可以替代算法權(quán)利在自動化決策過程中規(guī)制算法運行、制約算法的功能發(fā)揮,算法權(quán)利存在的必要性被消解[12]。最后,多數(shù)學(xué)者認為有效的規(guī)制路徑還是強化監(jiān)管,最終通過構(gòu)建起精細化、多層次的監(jiān)管體系來規(guī)范算法[13]。
盡管學(xué)界爭論如此,算法解釋權(quán)仍不失為一條規(guī)制算法的有效路徑。至少通過解釋算法能夠保證數(shù)據(jù)主體充分理解自動化決策的原因。而在如何解釋的問題上,有觀點認為自動化決策解釋義務(wù)應(yīng)僅限于事后的具體解釋[5],應(yīng)從事前的告知同意,事后的說明義務(wù),結(jié)合結(jié)果拒絕權(quán)來規(guī)制自動化決策[14]。本文認為,事前的告知是為了實現(xiàn)算法的公開透明,事中的說明則是真正針對算法的解釋,但個人是否真正能夠理解算法,有多少需求需要解釋算法,因此解釋是否要權(quán)利化確實值得商榷。實際上,個人信息權(quán)益在內(nèi)容與功能上同樣能夠包含算法解釋權(quán),要求說明解釋實際上也是一種知情權(quán)內(nèi)容的體現(xiàn),如能夠被知情權(quán)所包含,則無須再獨立設(shè)置算法解釋,但算法解釋的路徑應(yīng)被重視。
大數(shù)據(jù)時代,算法廣泛應(yīng)用帶來的“算法歧視”和“信息操縱”問題亟待解決。然而,算法的商業(yè)秘密屬性使其成為一個難以觸及的“黑箱”,給實現(xiàn)算法公平正義帶來了挑戰(zhàn)。從公眾利益和私權(quán)保護的角度來看,限縮商業(yè)秘密的保護是合理的。
首先,需要從法律層面介入對算法的規(guī)制。盡管商業(yè)秘密的保護對于促進創(chuàng)新和保護企業(yè)利益至關(guān)重要,但在面對算法歧視和信息操縱等社會問題時,法律應(yīng)當(dāng)進行合理的平衡?!秱€人信息保護法》第二十四條為算法規(guī)制提供了一定的依據(jù),個人信息處理者需保證決策的透明度和結(jié)果公平、公正,減少信息不對稱,防止算法歧視和信息操縱。然而,要實現(xiàn)算法的公開和透明,還需從商業(yè)秘密保護的角度出發(fā),探討法律規(guī)制算法的依據(jù)。一方面,要充分認識到算法作為商業(yè)秘密的價值和重要性;另一方面,也要看到商業(yè)秘密保護在面對算法正義問題時的局限性。在此基礎(chǔ)上,可以對商業(yè)秘密進行合理的限縮,以實現(xiàn)商業(yè)秘密保護和社會公共利益的平衡。基于信息自決的理念,本文提出了兩條具體的算法法律規(guī)制路徑:一是要求算法公開,以便公眾了解算法的決策過程和原理;二是賦予用戶算法解釋權(quán),使其能夠在認為算法決策不公平時要求算法提供者進行解釋。這2條路徑旨在提升算法的透明度和可解釋性,同時保護用戶的知情權(quán)和選擇權(quán)。
總的來說,合理規(guī)制算法是必要的,需在商業(yè)秘密保護和算法正義之間找到平衡。通過法律手段對商業(yè)秘密進行合理的限縮,可以更好地實現(xiàn)算法的公開和透明,從而進一步保護用戶的權(quán)益和維護社會公共利益。
注釋:
①參見北京互聯(lián)網(wǎng)法院(2019)京0491民初6694號民事判決書。