劉博涵
(貴州大學(xué)法學(xué)院,貴州 貴陽 550025)
隨著新一代信息網(wǎng)絡(luò)技術(shù)的加速迭代,人工智能算法持續(xù)得到優(yōu)化。在人工智能算法的加持下,一種由計(jì)算機(jī)根據(jù)現(xiàn)代投資組合理論,針對(duì)投資者的特征或者偏好,自動(dòng)計(jì)算并提供投資組合配置建議的投資理財(cái)顧問——智能投顧(Robo-advisory)應(yīng)運(yùn)而生。智能投顧具有降低投資門檻、提高投資理性、滿足投資者個(gè)性化需求等優(yōu)勢(shì)[1],但也在某種程度上削減了金融機(jī)構(gòu)的KYC(Know Your Customer)義務(wù),架空了金融產(chǎn)品推介中的KYP(Know Your Product)原則①。投資者可能面臨淪為算法“奴隸”、遭受算法宰制的風(fēng)險(xiǎn)。對(duì)此,算法透明作為規(guī)制算法最廣為人知的手段,在學(xué)界受到廣泛推崇②。然而,算法透明意味著算法秘密性的滅失,這將導(dǎo)致算法控制者在市場(chǎng)競(jìng)爭(zhēng)中喪失技術(shù)優(yōu)勢(shì),對(duì)算法開發(fā)和創(chuàng)新產(chǎn)生逆向激勵(lì),不利于市場(chǎng)競(jìng)爭(zhēng)機(jī)制的維護(hù)和算法技術(shù)進(jìn)步。
面對(duì)算法透明和算法保密③的利益沖突,有學(xué)者認(rèn)為數(shù)字時(shí)代是技術(shù)對(duì)人類的理解越來越深刻而人類卻無須理解技術(shù)的時(shí)代,算法透明將帶來算法趨同、信息過載和貶抑創(chuàng)新等負(fù)面效應(yīng)[2];另有學(xué)者認(rèn)為,只有算法透明才能揭示隱藏于技術(shù)中立外衣下的算法歧視,確保算法開發(fā)、應(yīng)用不偏離“以人為本”的軌道[3]。但在算法透明的具體實(shí)現(xiàn)進(jìn)路上,由于人工智能算法應(yīng)用具有廣泛性,當(dāng)前的研究大多關(guān)注相對(duì)寬泛的利益權(quán)衡領(lǐng)域,止步于規(guī)制算法保密的方向性指引層面。有鑒于此,本文聚焦于智能投顧算法透明與算法保密價(jià)值沖突的具體語境,針對(duì)智能投顧算法給投資者適當(dāng)性制度造成的沖擊,辯證算法透明與算法保密的利益平衡,提出有層次的算法透明方案,探求智能投顧算法透明的實(shí)現(xiàn)路徑。
基于大數(shù)據(jù)分析的智能投顧相較于傳統(tǒng)的自然人投資顧問掌握了更多、更全、更新的金融數(shù)據(jù),同時(shí)擁有人力無法企及的數(shù)據(jù)處理能力,因而能夠更有效地生成投資者畫像、了解投資者的風(fēng)險(xiǎn)承受能力、識(shí)別適格投資者,進(jìn)而更好地落實(shí)投資者適當(dāng)性原則[4]。然而,當(dāng)下新興事物都是價(jià)值與風(fēng)險(xiǎn)的矛盾統(tǒng)一體,隱藏在智能投顧背后的算法絕非人們想象的那般理性、中立、客觀。算法既不可能抽象于運(yùn)算模型設(shè)計(jì)者的系統(tǒng)設(shè)定而存在,也不可能抽象于運(yùn)算模型所關(guān)聯(lián)的人而存在[5]。相反,智能投顧可能會(huì)將傳統(tǒng)人工投顧意圖規(guī)避法律而實(shí)施的一些違法操作植入算法,造成對(duì)投資者利益的持續(xù)掠奪。同時(shí),智能投顧還存在投資者風(fēng)險(xiǎn)錯(cuò)配、法定義務(wù)架空等負(fù)面效應(yīng)。
一般來說,金融機(jī)構(gòu)在使用智能投顧為投資者定制個(gè)性化的資產(chǎn)配置方案時(shí),投資顧問服務(wù)費(fèi)是其最主要的收入來源。以美國(guó)智能投顧領(lǐng)域的明星公司Betterment 為例,該公司根據(jù)投資者賬戶余額計(jì)算年費(fèi),藉此向投資者收取服務(wù)費(fèi)。公司的投顧服務(wù)費(fèi)大致是賬戶余額的0.15%~0.35%,投資金額越大,費(fèi)率越低。具體而言,當(dāng)投資者的賬戶余額低于100 美元時(shí),公司每月收取3 美元的服務(wù)費(fèi);賬戶余額為100~10000 美元時(shí),公司每年收取賬戶余額0.35%的服務(wù)費(fèi);賬戶余額為10000~100000 美元時(shí),公司每年收取賬戶余額的0.25%作為服務(wù)費(fèi);如果投資者的賬戶余額超過100000 美元,公司每年收取的服務(wù)費(fèi)僅為賬戶余額的0.15%。美國(guó)Wealthfront 公司甚至對(duì)賬戶資金余額低于10000 美元的投資者免收服務(wù)費(fèi),對(duì)高于10000 美元的部分每年僅收取0.25%的服務(wù)費(fèi)。同時(shí),投資者還可以通過邀請(qǐng)新客戶加入的方式獲得服務(wù)費(fèi)減免和轉(zhuǎn)賬費(fèi)用補(bǔ)償,以進(jìn)一步降低服務(wù)費(fèi)用[6]。
與低廉的投資顧問服務(wù)費(fèi)相比,智能投顧系統(tǒng)的研發(fā)成本和日常運(yùn)營(yíng)維護(hù)費(fèi)用十分高昂,單純收取投資顧問服務(wù)費(fèi)常常無法維持智能投顧公司的運(yùn)營(yíng),更難以盈利。此種業(yè)態(tài)勢(shì)必“逼迫”智能投顧公司從其他的渠道“開源”。在我國(guó),彌財(cái)、藍(lán)海智投、摩羯智投等頭部智能投顧平臺(tái)都策略性地不收取投資顧問服務(wù)費(fèi)或者收取很低的服務(wù)費(fèi),那么它們靠什么維持運(yùn)營(yíng)和盈利呢? 這些平臺(tái)背靠成熟的金融產(chǎn)品公司,主要依靠銷售金融產(chǎn)品獲利。具體而言,智能投顧公司通過算法設(shè)計(jì),在為投資者生成資產(chǎn)配置方案時(shí)有意識(shí)地抓取銷售附加值高的金融產(chǎn)品數(shù)據(jù),提出具有強(qiáng)烈自益導(dǎo)向的投資咨詢建議[7]。在這樣的算法設(shè)計(jì)中,投資者利益和投資者適當(dāng)性并不位于最高優(yōu)先級(jí),智能投顧公司的銷售提成反而被優(yōu)先考慮??此瓶陀^的算法實(shí)際藏于黑箱之中,淪為掩飾智能投顧公司掠奪投資者利益的工具。
在大數(shù)據(jù)時(shí)代,無論個(gè)人的出生日期、學(xué)歷背景、婚姻狀況、職業(yè)情況等身份信息,還是虹膜、指紋、面部圖像等生物信息,抑或出行方式、購(gòu)物頻次、消費(fèi)水平、運(yùn)動(dòng)強(qiáng)度等行為信息,都在時(shí)時(shí)刻刻被采集與數(shù)據(jù)化?!霸诖髷?shù)據(jù)俯瞰的視野下,我們每一個(gè)人無異于‘裸奔’”[8]。數(shù)字時(shí)代賦予了每個(gè)人生物和數(shù)字的雙重屬性,投資者畫像便是投資者在現(xiàn)實(shí)世界中投資活動(dòng)的數(shù)字化表達(dá)。通過問卷“讀取”投資者的性別、年齡、家庭情況、收入狀況、可投資資產(chǎn)、風(fēng)險(xiǎn)偏好、投資期限、投資目標(biāo)等特異性個(gè)體信息,使用一定的算法將現(xiàn)實(shí)世界的投資者“還原”成數(shù)據(jù)意義上的投資者,這些都是實(shí)現(xiàn)智能投顧的前提。只有生成精準(zhǔn)的投資者畫像,才可能根據(jù)投資者的風(fēng)險(xiǎn)承受能力和投資目標(biāo)為其匹配最優(yōu)的資產(chǎn)配置方案。正是基于這個(gè)原因,投資者畫像被認(rèn)為是數(shù)字時(shí)代實(shí)現(xiàn)投資者適當(dāng)性KYC原則的最佳方式。
然而,即便智能投顧系統(tǒng)掌握了某個(gè)投資者當(dāng)前的財(cái)務(wù)狀況及其過往的一切投資活動(dòng),它對(duì)該投資者的投資偏好仍然可能存在誤判,生成的投資組合方案仍然可能與該投資者的風(fēng)險(xiǎn)承受能力不匹配。這是因?yàn)橥顿Y者的風(fēng)險(xiǎn)承受能力可以分為客觀承受能力和主觀承受能力,而投資者的財(cái)務(wù)狀況只能反映其對(duì)投資風(fēng)險(xiǎn)的客觀承受能力[9]。將投資者的風(fēng)險(xiǎn)承受能力等同于其財(cái)務(wù)狀況是對(duì)“風(fēng)險(xiǎn)承受能力”的重大誤解。對(duì)投資者風(fēng)險(xiǎn)承受能力之主觀要素的忽視是導(dǎo)致投資者畫像失真進(jìn)而造成投資組合方案風(fēng)險(xiǎn)錯(cuò)配的重要原因。此外,智能投顧的算法也不可避免地存在缺陷甚至錯(cuò)誤,并不能保證每一次、針對(duì)每一位投資者都能生成適配度最高的投資組合方案。例如,人工智能中廣泛應(yīng)用的貪心算法(Greedy Algorithm)④在求解每一個(gè)子問題時(shí)總是使用當(dāng)前的最優(yōu)方法來實(shí)現(xiàn),但這并不能保證最后的解也是最優(yōu)的。
在傳統(tǒng)的自然人投資顧問模式下,投資者與金融機(jī)構(gòu)、投資顧問的關(guān)系是委托人與受托人的關(guān)系,金融機(jī)構(gòu)、投資顧問對(duì)投資者承擔(dān)信義義務(wù)[10]。如果投資顧問疏于履行合規(guī)義務(wù)、審慎義務(wù)、投資者適當(dāng)性義務(wù)等法定義務(wù)進(jìn)而導(dǎo)致投資者損失,將需要承擔(dān)對(duì)投資者的賠償責(zé)任。智能投顧的出現(xiàn)使金融投資顧問活動(dòng)變成人與機(jī)器混合的過程,其中既有幕后技術(shù)人員根據(jù)金融從業(yè)人員的先驗(yàn)常識(shí)、專業(yè)判斷、邏輯推理和利益考量設(shè)計(jì)的程序,也有臺(tái)前機(jī)器根據(jù)投資者輸入的信息與算法生成的投資組合方案。人工智能的介入很可能使其成為人類錯(cuò)誤的“背鍋俠”。
在當(dāng)前的智能投顧業(yè)務(wù)中,投資者“輸入”自己的資產(chǎn)狀況、風(fēng)險(xiǎn)偏好和投資目標(biāo)并由投顧系統(tǒng)“輸出”投資組合方案的過程僅需金融機(jī)構(gòu)工作人員的輔助即可完成,甚至可以完全由投資者自助完成。這一過程看似改變了傳統(tǒng)自然人投資顧問與投資者一對(duì)一、面對(duì)面的投資咨詢過程,實(shí)際上依然是投資咨詢機(jī)構(gòu)通過智能投顧的長(zhǎng)臂在接觸投資者、收集投資者信息、獲知投資者需求。智能投顧系統(tǒng)只是金融機(jī)構(gòu)延伸出去的長(zhǎng)臂,是金融機(jī)構(gòu)的電子代理人。如果法律主體使用電子代理人作出意思表示,其行為的法律后果應(yīng)歸諸于使用者[11]。而隨著強(qiáng)人工智能時(shí)代⑤的到來,人工智能設(shè)備逐漸具備深度自主學(xué)習(xí)的能力,能夠自主思考和行動(dòng),不受開發(fā)者預(yù)設(shè)的指令約束,進(jìn)而超出人類可以預(yù)見和控制的范圍。強(qiáng)人工智能下的智能投顧通過神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)、經(jīng)過算法處理海量數(shù)據(jù)后生成的投資決策是程序設(shè)計(jì)者和運(yùn)營(yíng)者也無法預(yù)測(cè)的。如果智能投顧通過自主學(xué)習(xí)生成與設(shè)定目標(biāo)相左的投資方案進(jìn)而造成投資者損失時(shí),投資損害的因果關(guān)系極易歸咎于技術(shù)風(fēng)險(xiǎn)而導(dǎo)致“買者自負(fù)”,現(xiàn)行法律約束投資顧問的忠實(shí)義務(wù)、謹(jǐn)慎義務(wù)和信義義務(wù)等都將被架空。
鑒于大數(shù)據(jù)金融智能投顧的負(fù)面效應(yīng),受算法影響的投資者權(quán)益得到了法律的緊密關(guān)切。例如,歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)第14 條和第22 條規(guī)定,如果個(gè)人數(shù)據(jù)被用于用戶畫像、自動(dòng)化決策等場(chǎng)景,數(shù)據(jù)控制者須向數(shù)據(jù)主體提供算法邏輯以及此類處理對(duì)數(shù)據(jù)主體的預(yù)期后果,以確保涉及數(shù)據(jù)主體的決策合理、透明。盡管從消除智能投顧負(fù)面效應(yīng)的角度出發(fā),受算法影響的投資者有理由要求算法透明以保障其合法權(quán)益,但在利益沖突的另一端,算法多以商業(yè)秘密、專利加以保護(hù),算法保密還是算法控制者在激烈的市場(chǎng)競(jìng)爭(zhēng)中保持商業(yè)優(yōu)勢(shì)的重要保障,因此維護(hù)算法的保密性亦有其正當(dāng)性。
在智能投顧的服務(wù)過程中,投資者只能看見數(shù)據(jù)輸入和方案輸出的客觀事實(shí)和決策結(jié)果,對(duì)算法系統(tǒng)的設(shè)計(jì)原理、計(jì)算機(jī)制、程序運(yùn)行和決策依據(jù)等一無所知。存在于數(shù)據(jù)輸入和結(jié)果輸出之間的決策層深深地隱藏于算法黑箱之中。對(duì)此,人們直覺上的第一反應(yīng)便是“開箱”。通過打開算法黑箱,將“陽光”灑落在智能投顧自動(dòng)化決策的全過程,藉此識(shí)別智能投顧黑箱中的算法歧視和算法霸權(quán),查明算法決策與投資者損害結(jié)果之間的因果關(guān)系。
當(dāng)前,人們對(duì)算法透明原則的認(rèn)知可謂言人人殊,其中最具代表性的是美國(guó)學(xué)者弗蘭克·帕斯奎爾(Frank Pasquale)的論述。帕斯奎爾認(rèn)為算法透明包括代碼公開、算法分析和算法審計(jì)等,只有綜合以上手段才能合理促成算法透明[12]。有國(guó)內(nèi)學(xué)者批評(píng)帕斯奎爾的理論模糊了算法透明和其他規(guī)制手段的界限,會(huì)給理論研究和實(shí)務(wù)應(yīng)用帶來很大麻煩[13],但不得不承認(rèn),源代碼披露、輸入數(shù)據(jù)和輸出結(jié)果公開等手段仍然是當(dāng)前學(xué)界普遍認(rèn)同的算法透明原則的要素集合。
算法透明顯然符合受算法影響之投資者的利益訴求,因?yàn)樗惴ㄍ该饔兄诖蚱浦悄芡额櫟摹八惴ū┱?。如果智能投顧的自?dòng)化決策算法不公開、不提供算法解釋、不接受投資者質(zhì)詢、不進(jìn)行權(quán)利救濟(jì),投資者便無從知曉算法中是否嵌入了操控性程序,無法確信系統(tǒng)生成的投資組合方案是否最合適,其權(quán)利救濟(jì)更是無從談起,只能接受算法的宰制和“暴政”[14]。只有通過算法透明,投資者才可能獲知自身的財(cái)務(wù)信息和風(fēng)險(xiǎn)偏好如何與資產(chǎn)配置方案發(fā)生關(guān)聯(lián),才可能進(jìn)行權(quán)利救濟(jì)。
此外,算法透明也有助于消除智能投顧的“算法歧視”。在人們的普遍認(rèn)知中,歧視、偏見專屬于人類這種擁有主觀立場(chǎng)的動(dòng)物。以算法驅(qū)動(dòng)的人工智能代表著冷靜、理性和客觀,算法決策似乎為實(shí)現(xiàn)人們苦苦追求的絕對(duì)公正帶來了福音。而事實(shí)并非如此,人工智能的“成長(zhǎng)”離不開數(shù)據(jù)的“投喂”,這種“投喂”如同人生閱歷形塑人類主觀立場(chǎng)的過程。也就是說,算法也是擁有主觀立場(chǎng)的。不同的主觀立場(chǎng)深刻影響著算法的決策結(jié)果,隱藏其中的偏見、歧視更難以察覺。因此,消除“算法歧視”也是算法透明的重要理?yè)?jù)。
最后,算法透明還是對(duì)算法操控者問責(zé)的基本前提。如前所述,智能投顧的“人機(jī)混合”使得決策失誤導(dǎo)致投資者損失的因果關(guān)系難以確定,投資者損失很容易被歸咎于技術(shù)風(fēng)險(xiǎn)。對(duì)此,算法透明讓投資者能夠一窺算法的“大腦”,探知資產(chǎn)配置組合決策生成的全過程,算法運(yùn)行過程中出現(xiàn)的精確性偏差和算法偏見都可能被發(fā)現(xiàn)和察覺。即便投資失敗的損失已經(jīng)“覆水難收”,投資者也可以依據(jù)算法透明所披露出來的因果關(guān)系向算法設(shè)計(jì)者或者算法運(yùn)行者主張賠償責(zé)任。
與歐盟治理算法強(qiáng)調(diào)私人權(quán)利保護(hù)、公平競(jìng)爭(zhēng)秩序以及社會(huì)公共利益不同,美國(guó)采取了更加自由與開放的治理策略。搜索王訴谷歌案(Search King,Inc v.Google Tech, Inc)⑥奠定了美國(guó)司法部門對(duì)算法應(yīng)用中利益沖突的基本態(tài)度。在該案中,法院認(rèn)為每一種搜索引擎確定搜索結(jié)果的算法都不同,這意味著每一種搜索引擎都在表達(dá)各自不同的意見,而搜索引擎有權(quán)依據(jù)自身獨(dú)特的算法“說”出自己的意見。根據(jù)算法呈現(xiàn)的搜索結(jié)果代表了谷歌公司的言論,而言論自由屬于美國(guó)憲法上具有不可剝奪性的絕對(duì)權(quán)利,無論谷歌公司如何通過算法調(diào)整、呈現(xiàn)搜索結(jié)果,都等同于谷歌在發(fā)表自己的意見,任何人都不得干涉谷歌公司的“算法(言論)自由”。
而在威斯康星州訴盧米斯案(State v.Loomis)⑦中,法院則將算法認(rèn)定為商業(yè)秘密。法院使用基于算法的COMPAS 風(fēng)險(xiǎn)評(píng)估工具,根據(jù)盧米斯的訪談和犯罪史對(duì)其進(jìn)行累犯風(fēng)險(xiǎn)評(píng)估,在此基礎(chǔ)上對(duì)盧米斯判處刑罰。盧米斯認(rèn)為法院僅根據(jù)評(píng)估方法并不公開的COMPAS 系統(tǒng)就對(duì)其作出累犯風(fēng)險(xiǎn)評(píng)估,侵犯了其基于精確信息被量刑的權(quán)利和獲得個(gè)性化判決的權(quán)利,因此要求公開COMPAS 系統(tǒng)的算法。法院認(rèn)為,盧米斯可以對(duì)COMPAS 系統(tǒng)生成的報(bào)告進(jìn)行否認(rèn)或解釋,從而驗(yàn)證法院判決依據(jù)的準(zhǔn)確性,但不能要求公開COMPAS 系統(tǒng)算法,因?yàn)镃OMPAS 系統(tǒng)背后的算法屬于商業(yè)秘密。法院最終駁回了盧米斯對(duì)量刑程序的異議。
被看作商業(yè)秘密的人工智能算法在美國(guó)法中受到嚴(yán)格保護(hù),是因?yàn)樽鳛橹R(shí)產(chǎn)權(quán)保護(hù)客體之一的商業(yè)秘密一旦遭到侵犯,勢(shì)必會(huì)阻礙科技進(jìn)步,進(jìn)而侵害人民的福祉。而無論被視為“言論”還是“商業(yè)秘密”,算法在美國(guó)都受到了法律的嚴(yán)格保護(hù),法官不會(huì)要求算法設(shè)計(jì)者或者運(yùn)營(yíng)者以公眾能夠理解的方式說明算法的工作原理,更不會(huì)要求其公開算法代碼,算法黑箱被視為人工智能時(shí)代的正?,F(xiàn)象,是人們享受算法帶來的便利的同時(shí)必須承受的合理代價(jià)[15]。事實(shí)上,美國(guó)對(duì)算法的負(fù)面效應(yīng)采取“綏靖政策”在某種程度上來說也是為了維護(hù)其自身在人工智能領(lǐng)域的國(guó)際領(lǐng)先地位,便于本國(guó)科技巨頭在全球拓展業(yè)務(wù)[16]。
此外,在數(shù)字經(jīng)濟(jì)時(shí)代,算法也是科技公司的核心競(jìng)爭(zhēng)力。將智能投顧背后的算法視作商業(yè)秘密加以保護(hù)同樣符合金融機(jī)構(gòu)的利益,是金融機(jī)構(gòu)保持市場(chǎng)競(jìng)爭(zhēng)力的現(xiàn)實(shí)所需。申言之,算法是設(shè)計(jì)者為解決特定問題設(shè)計(jì)的有限且明確的操作步驟,表現(xiàn)為源代碼和目標(biāo)代碼,是源代碼向目標(biāo)代碼轉(zhuǎn)化的技術(shù)措施。源代碼的秘密性是算法控制者擁有并保持獨(dú)特市場(chǎng)競(jìng)爭(zhēng)力的核心因素。源代碼一旦失去秘密性,算法控制者的市場(chǎng)競(jìng)爭(zhēng)力便不復(fù)存在。因此,通過法律保護(hù)算法、維持算法黑箱在一定程度上既是國(guó)家維持科技競(jìng)爭(zhēng)力的需要,也是科技企業(yè)保持市場(chǎng)競(jìng)爭(zhēng)力的需要。
出于維護(hù)算法控制者市場(chǎng)競(jìng)爭(zhēng)力、激勵(lì)技術(shù)創(chuàng)新的現(xiàn)實(shí)需要,將算法認(rèn)定為言論或者商業(yè)秘密都將為算法提供強(qiáng)大的法律保護(hù)。而為了避免算法暴政對(duì)投資者權(quán)利的侵害,可能目前唯一的方法只能是“攻破”算法黑箱,盡量使算法透明化。在此之間的矛盾可以“轉(zhuǎn)譯”為算法保密與算法透明之間的價(jià)值沖突。由于算法保密和算法透明都具有一定的正當(dāng)性,因此解決問題的重點(diǎn)便來到如何實(shí)現(xiàn)算法保密與算法透明的利益平衡。
作為算法規(guī)制理論的一項(xiàng)重要原則,算法透明要求算法開發(fā)者或者運(yùn)營(yíng)者披露包括算法源代碼、輸入數(shù)據(jù)和輸出結(jié)果在內(nèi)的一切算法要素。這種徹底的算法透明夸大了其對(duì)投資者權(quán)利保護(hù)的效用,忽視了金融機(jī)構(gòu)保護(hù)商業(yè)秘密的現(xiàn)實(shí)需要。事實(shí)上,在算法廣泛應(yīng)用的數(shù)字經(jīng)濟(jì)時(shí)代,徹底的算法透明既不可行,也無必要。算法處理數(shù)據(jù)的能力遠(yuǎn)遠(yuǎn)超過了人類的運(yùn)算能力,隨著機(jī)器自主學(xué)習(xí)、深度學(xué)習(xí)的能力不斷迭代更新,徹底的算法透明越來越難以實(shí)現(xiàn)。
在技術(shù)層面,不斷增強(qiáng)的機(jī)器自主學(xué)習(xí)能力給算法透明帶來了巨大的技術(shù)障礙,因?yàn)榇丝掏该鞯乃惴ㄔ谕ㄟ^自主學(xué)習(xí)實(shí)現(xiàn)更新迭代后便不再透明。在內(nèi)容層面,自動(dòng)化決策算法存在很高的專業(yè)壁壘,普通人無法理解復(fù)雜的數(shù)學(xué)模型,代碼和技術(shù)的透明對(duì)其沒有任何意義[17]。在智能投顧領(lǐng)域,讓投資者理解杠桿比率、基本面分析和技術(shù)面分析等金融術(shù)語尚且有一定難度,倘若告知其智能投顧是通過隨機(jī)森林、決策樹模型、邏輯回歸模型等算法進(jìn)行金融分析的,那么這種算法透明對(duì)投資者而言也毫無用處[18]。
鑒于此,本文倡導(dǎo)一種有層次的算法透明,即根據(jù)規(guī)制算法的不同目的,以不同方式對(duì)不同主體實(shí)現(xiàn)不同程度、不同層次的算法透明。申言之,對(duì)于金融監(jiān)管部門來說,捕獲金融機(jī)構(gòu)開展智能投顧業(yè)務(wù)潛在的算法風(fēng)險(xiǎn),對(duì)風(fēng)險(xiǎn)進(jìn)行事前評(píng)估并采取適當(dāng)?shù)姆婪洞胧┦瞧浜诵穆氊?zé)所在。為了履行這一職責(zé),金融監(jiān)管部門需要對(duì)智能投顧的算法參數(shù)、代碼結(jié)構(gòu)和內(nèi)置程序等內(nèi)容進(jìn)行審查,引導(dǎo)金融機(jī)構(gòu)的算法開發(fā)、系統(tǒng)運(yùn)營(yíng)符合相關(guān)技術(shù)標(biāo)準(zhǔn)與行業(yè)標(biāo)準(zhǔn)。因而對(duì)金融監(jiān)管部門有效的是“以模型為中心”(model-centered)的算法透明,這個(gè)層次的算法透明重在獲取與算法模型密切相關(guān)的參數(shù)設(shè)置、特征權(quán)重、邏輯架構(gòu)等宏觀、全局性技術(shù)信息。
而對(duì)于投資者來說,作為智能投顧算法決策結(jié)果的直接利害關(guān)系人,其有權(quán)知曉算法的決策邏輯和運(yùn)行機(jī)制。尤其是當(dāng)自動(dòng)決策系統(tǒng)生成的投資組合方案與投資者本人的資產(chǎn)配置訴求存在偏差時(shí),投資者有權(quán)要求金融機(jī)構(gòu)對(duì)自動(dòng)決策系統(tǒng)算法的模型架構(gòu)和數(shù)據(jù)分析進(jìn)行解釋,以便在投資者畫像失真、風(fēng)險(xiǎn)錯(cuò)配或者權(quán)重失衡的情況下進(jìn)行方案糾偏和權(quán)利救濟(jì)。那么,對(duì)投資者有效的是“以用戶為中心”(subject-centered)的算法透明,這個(gè)層次的算法透明重在告知投資者算法依據(jù)哪些個(gè)人信息進(jìn)行決策,各項(xiàng)個(gè)人信息在算法自動(dòng)化決策中的權(quán)重,以及算法運(yùn)行的邏輯等[19]。對(duì)于“以用戶為中心”的算法透明來說,算法的源代碼和數(shù)學(xué)模型并不重要,投資者更關(guān)心其個(gè)人信息如何參與算法的決策,以及算法按照怎樣的邏輯進(jìn)行決策。
從工具價(jià)值來說,算法透明原則的提出在于對(duì)抗算法黑箱滋生的利益掠奪、算法歧視和算法暴政,實(shí)現(xiàn)對(duì)算法的規(guī)訓(xùn)。面對(duì)受算法影響投資者權(quán)利保護(hù)與算法控制者保持市場(chǎng)競(jìng)爭(zhēng)力之間的沖突與張力,有層次的算法透明提供了富有彈性、容納不同利益訴求的沖突協(xié)調(diào)方案。在智能投顧算法的開發(fā)和運(yùn)營(yíng)過程中,有層次的算法透明能夠?qū)崿F(xiàn)無利益沖突則各行其是、有利益訴求則“掀開最小縫隙”的特異性透明規(guī)范效果。算法透明的層次性立基于受算法影響投資者與算法控制者之間利益衡量、沖突化解的現(xiàn)實(shí)需要,是“目的—手段”理性的具體呈現(xiàn),其理論依歸可以從比例原則的功能定位和適用方式兩個(gè)維度獲得解釋力。
誕生于德國(guó)公法中的比例原則以其旺盛的生命力實(shí)現(xiàn)了從國(guó)家、區(qū)域到全球的影響,以及從公法向私法和其他部門法的滲透,甚至在某種程度上嬗變?yōu)橐话惴ɡ砟詈头煞治龇椒╗20]。在功能定位上,原初的比例原則關(guān)注“公共利益與私人權(quán)益”之間的利益衡量。然而,由于利益是人們?cè)谝欢ㄉ鐣?huì)情境下基于某種生存體驗(yàn)而形成的訴求[21],利益衡量在人們的社會(huì)生活中普遍存在,比例原則的功能定位完成了從防御性權(quán)利保障到一般化利益衡量的演變。就智能投顧算法開發(fā)、應(yīng)用中的利益衡量來說,對(duì)算法的法律規(guī)制需要強(qiáng)調(diào)干預(yù)的適度性,根據(jù)不同主體不同的利益訴求采取不同方式、不同程度的算法透明,便是比例原則利益衡量功能的具體體現(xiàn)。
在適用形態(tài)上,比例原則作為法律原則的規(guī)范性命題伴隨司法適用的推進(jìn)實(shí)現(xiàn)了從規(guī)范立場(chǎng)向超越規(guī)范立場(chǎng)的轉(zhuǎn)型,并且開始作為方法論成為“目的—手段”分析范式的基準(zhǔn)[22]。具體來說,比例原則通過衡量手段和目的之間的比例關(guān)系來判斷手段的正當(dāng)性與合理性。如果欲達(dá)成某種目的所采取的手段適當(dāng)、必要且達(dá)成目的所實(shí)現(xiàn)的利益大于該手段所侵害的利益,那么這一組“目的—手段”便是合比例的,該手段可以采?。环粗?,沒有通過適當(dāng)性、必要性、均衡性審查的手段由于不合比例則不可采取。在智能投顧受算法影響投資者與算法控制者的利益沖突中,為了達(dá)成保護(hù)投資者權(quán)利的目的,需要實(shí)現(xiàn)算法透明。但是,必須對(duì)算法透明作出必要限制,以符合比例原則所要求的實(shí)現(xiàn)手段的適當(dāng)性、必要性和均衡性,這便是算法透明層次性背后的理論邏輯。
實(shí)行有層次的算法透明是當(dāng)前調(diào)適算法保密與算法透明利益沖突的最優(yōu)解,是比例原則在智能投顧算法治理中的具體應(yīng)用。為了保護(hù)金融機(jī)構(gòu)的商業(yè)秘密等私權(quán)利,激勵(lì)金融機(jī)構(gòu)創(chuàng)新、優(yōu)化算法,在增強(qiáng)自身市場(chǎng)競(jìng)爭(zhēng)力的同時(shí)增進(jìn)投資者福祉,算法不公開是法律介入智能投顧算法的基本原則。在這個(gè)基礎(chǔ)上,為了消除算法黑箱可能帶來的種種負(fù)面效應(yīng),只有“掀開最小縫隙”實(shí)現(xiàn)算法對(duì)金融監(jiān)管者、投資者及其他利益關(guān)切者最小程度、最特異性的“透明”,才能達(dá)成算法保密與算法透明兩者間的利益平衡。
在大數(shù)據(jù)時(shí)代,算法對(duì)于人們的生活越來越具有構(gòu)成性。算法早已普遍而深刻地影響著人們的生活,決定著人們可選擇的空間以及可能獲得的結(jié)果。徹底杜絕算法黑箱意味著對(duì)數(shù)字化生活方式的遠(yuǎn)離,意味著對(duì)算法所蘊(yùn)含便利和好處的遠(yuǎn)離。但是,對(duì)算法黑箱一定程度的容忍也絕不意味著人們應(yīng)該束手就擒、任其宰割。由于算法透明具有層次性,我們需要在智能投顧算法設(shè)計(jì)、開發(fā)、應(yīng)用的不同階段,出于維護(hù)金融系統(tǒng)的安全穩(wěn)定、保障投資者的知情權(quán)利、便利受算法影響投資者的權(quán)利救濟(jì)等不同目的,對(duì)智能投顧算法實(shí)現(xiàn)不同層次的算法透明。
防范局部金融風(fēng)險(xiǎn)的產(chǎn)生及其向整個(gè)金融系統(tǒng)的蔓延是金融監(jiān)管部門的重要職責(zé),對(duì)智能投顧中金融風(fēng)險(xiǎn)的防控也不例外。為此,金融監(jiān)管部門需要詳細(xì)了解智能投顧算法的核心思想、模型架構(gòu)和服務(wù)模式,掌握智能投顧算法設(shè)計(jì)的底層邏輯,審查投資者個(gè)性化資產(chǎn)配置方案生成過程中算法在各個(gè)環(huán)節(jié)的功能和影響。為此,智能投顧系統(tǒng)的開發(fā)機(jī)構(gòu)需要適度披露算法的模型,將智能投顧背后的金融數(shù)據(jù)、算法參數(shù)和代碼結(jié)構(gòu)等提供給金融監(jiān)管部門,實(shí)現(xiàn)以模型為中心的算法透明。值得深究的問題是,應(yīng)該利用怎樣的制度安排去實(shí)現(xiàn)算法模型透明?當(dāng)前,學(xué)界已提出算法開源、算法備案以及算法合規(guī)審查等多種算法透明制度,那么應(yīng)當(dāng)如何配置、組合這些強(qiáng)度不一的方案呢?
盡管算法開源有利于更廣泛的社會(huì)主體通過檢驗(yàn)代碼捕獲算法內(nèi)含的缺陷及其潛在金融風(fēng)險(xiǎn),但是算法源代碼畢竟涉及開發(fā)者和運(yùn)營(yíng)者的商業(yè)秘密,法律不宜強(qiáng)制其開源[23]。在針對(duì)金融監(jiān)管部門算法透明的實(shí)現(xiàn)方式上,可以區(qū)分成熟算法模型和新型算法模型,分別以合規(guī)審查和算法備案予以實(shí)現(xiàn)。具言之,對(duì)于那些經(jīng)過長(zhǎng)期研發(fā)和驗(yàn)證、在智能投顧中取得良好效果并得到廣泛應(yīng)用的成熟算法模型,由于大量實(shí)踐應(yīng)用能夠證明其具有較高的準(zhǔn)確性和可靠性,對(duì)這類算法模型應(yīng)當(dāng)以合規(guī)審查的方式進(jìn)行監(jiān)管,即審查該算法模型是否符合法律的強(qiáng)制性規(guī)范、金融業(yè)的行業(yè)標(biāo)準(zhǔn)以及相關(guān)技術(shù)標(biāo)準(zhǔn)。而對(duì)于那些為克服既有算法模型局限性而引入新思想、新技術(shù)、新數(shù)學(xué)概念的創(chuàng)新、改進(jìn)型算法模型,由于相關(guān)的法規(guī)建設(shè)和標(biāo)準(zhǔn)制定滯后于技術(shù)創(chuàng)新,為了激勵(lì)算法開發(fā)者積極解決復(fù)雜問題、提高算法效率,拓展新思路、開發(fā)新工具,金融監(jiān)管部門應(yīng)側(cè)重于算法開發(fā)者的權(quán)利保護(hù),以算法備案的方式掌握算法模型并持續(xù)監(jiān)控可能潛藏其中的風(fēng)險(xiǎn)因素即可。需要特別指出的是,為了保護(hù)智能投顧系統(tǒng)開發(fā)機(jī)構(gòu)的知識(shí)產(chǎn)權(quán)和運(yùn)營(yíng)機(jī)構(gòu)的商業(yè)利益,需要對(duì)金融監(jiān)管部門及其工作人員課以嚴(yán)格的保密義務(wù)。
從實(shí)踐的情況來看,大數(shù)據(jù)金融算法備案包括算法邏輯本身的備案和金融從業(yè)人員的備案(注冊(cè))。例如,歐洲證券市場(chǎng)監(jiān)管局要求使用算法進(jìn)行高頻交易的投資機(jī)構(gòu)每年都向其報(bào)備算法交易策略、交易參數(shù)設(shè)定、風(fēng)險(xiǎn)控制模塊以及系統(tǒng)測(cè)試結(jié)果等內(nèi)容,藉此避免缺陷算法造成金融市場(chǎng)動(dòng)蕩[24]。由于智能投顧實(shí)際上模擬了金融從業(yè)人員根據(jù)先驗(yàn)知識(shí)、邏輯推理和專業(yè)判斷提供投資決策方案的過程,因而參與算法開發(fā)、設(shè)計(jì)的金融從業(yè)人員也需進(jìn)行備案。例如,美國(guó)2016 年修訂的《納斯達(dá)規(guī)則》(NASD Rules)要求負(fù)責(zé)開發(fā)、設(shè)計(jì)或者重大修改金融產(chǎn)品算法交易策略的人員和日常監(jiān)管、指導(dǎo)上述活動(dòng)的人員都必須注冊(cè)為證券交易者[25]。在我國(guó),由中國(guó)人民銀行、銀保監(jiān)會(huì)、證監(jiān)會(huì)等金融監(jiān)管部門在2018年出臺(tái)的《關(guān)于規(guī)范金融機(jī)構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》要求,“金融機(jī)構(gòu)應(yīng)當(dāng)向金融監(jiān)督管理部門報(bào)備人工智能模型的主要參數(shù)以及資產(chǎn)配置的主要邏輯”。當(dāng)然,該指導(dǎo)意見對(duì)金融科技算法備案的規(guī)定還十分模糊,算法備案的主管部門、備案內(nèi)容、備案程序以及未履行備案義務(wù)的法律后果等事項(xiàng)還有待將來細(xì)化。
以算法備案破解算法黑箱的負(fù)面效應(yīng)雖然必要但并不充分,因?yàn)樗惴▊浒覆⒉灰馕吨惴ü_和算法可理解。姑且不談算法備案對(duì)監(jiān)管部門及其工作人員課加的保密義務(wù),即便智能投顧的算法模型、主要參數(shù)、運(yùn)行規(guī)則甚至源代碼對(duì)投資者完全公開,金融企業(yè)的技術(shù)與行業(yè)的專業(yè)性仍然是投資者難以逾越的高墻。對(duì)于投資者來說,以自然語言對(duì)算法決策所依賴的邏輯和自動(dòng)生成的資產(chǎn)配置方案進(jìn)行解釋才是有意義的[26]。因此,除了在算法設(shè)計(jì)、運(yùn)行之初通過合規(guī)審查與算法備案對(duì)智能投顧算法進(jìn)行監(jiān)管之外,還需在算法的使用過程中增強(qiáng)算法自動(dòng)化決策的可理解性,這就涉及規(guī)制算法的一組重要權(quán)利義務(wù)——算法告知義務(wù)和算法解釋請(qǐng)求權(quán)。
受算法影響投資者的知情權(quán)和決定權(quán)是保護(hù)其個(gè)人信息權(quán)益免受侵害的基本權(quán)利,其中又以知情權(quán)更為重要,因?yàn)橹槭窃试S、限制抑或拒絕他人進(jìn)行信息處理的前提[27]。個(gè)人信息處理者的算法告知義務(wù)和信息權(quán)利人的算法解釋請(qǐng)求權(quán)共同組成受算法影響投資者的知情權(quán)體系,二者在智能投顧的金融服務(wù)中表現(xiàn)為解釋算法運(yùn)行邏輯的動(dòng)態(tài)互動(dòng)過程。由于算法控制者與投資者普遍的信息不對(duì)稱,法律的規(guī)制方向通常傾向于先讓算法控制者履行告知義務(wù)(投資者知情權(quán)的初次實(shí)現(xiàn)),在此基礎(chǔ)上再以投資者的算法解釋請(qǐng)求權(quán)作為補(bǔ)充(投資者知情權(quán)的補(bǔ)充實(shí)現(xiàn))。就告知(解釋)的內(nèi)容而言,歐盟GDPR 采取的是“基于邏輯的解釋”⑧,即受算法影響者有權(quán)獲得處理者對(duì)自動(dòng)決策算法邏輯的解釋,而美國(guó)采取的是“基于事實(shí)的解釋”⑨,即金融消費(fèi)者僅有權(quán)獲得算法對(duì)其作出不利決策所依據(jù)事實(shí)的解釋,而非算法邏輯本身。
我國(guó)對(duì)算法解釋的規(guī)范經(jīng)歷了從信息處理公開透明的被動(dòng)權(quán)利向算法決策解釋說明的主動(dòng)權(quán)利“進(jìn)化”的過程。在信息處理公開透明方面,根據(jù)我國(guó)法律的相關(guān)規(guī)定⑩,網(wǎng)絡(luò)運(yùn)營(yíng)商等實(shí)體在處理個(gè)人信息時(shí)必須在信息主體知情、自愿、同意的前提下遵循公開原則,明示其處理的目的、方式和范圍;在算法決策解釋說明方面,《個(gè)人信息保護(hù)法》第24 條和第48 條明確規(guī)定,通過自動(dòng)化決策算法作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者對(duì)信息的處理規(guī)則進(jìn)行解釋與說明??梢?,算法告知和算法解釋在我國(guó)已經(jīng)成為法定權(quán)利與義務(wù)。
算法告知和算法解釋入法只是實(shí)現(xiàn)智能投顧算法事中透明的起點(diǎn)。算法告知義務(wù)和算法解釋請(qǐng)求權(quán)還存在權(quán)利內(nèi)容、解釋程度、解釋時(shí)間、解釋方法等一系列問題有待厘清和細(xì)化[28]。但就制度效能而言,即便對(duì)算法解釋的實(shí)際效果持懷疑態(tài)度的學(xué)者也認(rèn)為不可能徹底拋棄算法解釋權(quán)[29]。算法解釋在保障投資者知情權(quán)的同時(shí),作為外部監(jiān)管的補(bǔ)充,還能夠強(qiáng)化投資者與金融機(jī)構(gòu)的信賴關(guān)系,共同限制金融機(jī)構(gòu)的算法權(quán)力,一定程度彌合投資者與金融機(jī)構(gòu)之間的專業(yè)鴻溝,實(shí)現(xiàn)投資者與金融監(jiān)管部門對(duì)算法的合作治理[30]。
在事前、事中的算法透明手段之外,事后的算法評(píng)估也是提升透明度的重要手段。由于人工智能算法時(shí)時(shí)刻刻都處于更新迭代之中,事前備案后實(shí)現(xiàn)相對(duì)透明的算法在運(yùn)行過程中經(jīng)過深度學(xué)習(xí)和自我糾偏,往往變得不復(fù)透明。有學(xué)者便指出,算法備案無法準(zhǔn)確捕捉算法運(yùn)行的內(nèi)在機(jī)理,將逐漸異變?yōu)楦∮谛问降暮弦?guī)管理[31]。事實(shí)上,在“掀開最小縫隙”思想的指導(dǎo)下,智能投顧算法的事前備案旨在實(shí)現(xiàn)金融風(fēng)險(xiǎn)的可防、可控,而非算法的徹底透明。隨著深度神經(jīng)網(wǎng)絡(luò)和動(dòng)態(tài)算法技術(shù)的發(fā)展,即便事前的合規(guī)審查和算法備案轉(zhuǎn)變?yōu)樗惴P蛯?duì)金融監(jiān)管部門的完全透明,算法投入運(yùn)行后的透明度仍然會(huì)變得“忽明忽暗”。對(duì)此,算法評(píng)估無疑是改善投資者弱勢(shì)地位、構(gòu)筑社會(huì)公眾算法信任的重要一環(huán)。
根據(jù)歐盟GDPR 第35 條的規(guī)定,如果使用人工智能等新技術(shù)處理數(shù)據(jù)將會(huì)提升侵犯自然人權(quán)利與自由的風(fēng)險(xiǎn),除了考慮該處理的性質(zhì)、范圍、領(lǐng)域和目的之外,數(shù)據(jù)處理者應(yīng)當(dāng)在數(shù)據(jù)處理之前評(píng)估擬使用的處理程序?qū)€(gè)人數(shù)據(jù)保護(hù)造成的影響。加拿大《自動(dòng)化決策指令》(Directive on Automated Decision-Making)第6 條規(guī)定,任何自動(dòng)化決策系統(tǒng)投入運(yùn)行之前都須發(fā)布算法影響評(píng)估的最終結(jié)果。美國(guó)《算法問責(zé)法案》(Algorithmic Accountability Act)第3 部分規(guī)定,自動(dòng)化決策系統(tǒng)在投入運(yùn)營(yíng)之前應(yīng)當(dāng)接受公正性、透明度和可問責(zé)性等方面的評(píng)估。該法案通過前兩年內(nèi)投入運(yùn)營(yíng)的算法系統(tǒng)也應(yīng)納入評(píng)估的范圍。我國(guó)《個(gè)人信息保護(hù)法》第55 條同樣規(guī)定,利用個(gè)人信息進(jìn)行自動(dòng)化決策的,個(gè)人信息處理者應(yīng)當(dāng)事前進(jìn)行個(gè)人信息保護(hù)影響評(píng)估??梢姡詣?dòng)化決策可能對(duì)個(gè)人權(quán)利和自由造成的影響已為美國(guó)、加拿大、歐盟和我國(guó)所重視,算法評(píng)估作為一項(xiàng)正式的法律制度在以上國(guó)家和地區(qū)都已經(jīng)入法。需要特別指出的是,上述國(guó)家或地區(qū)對(duì)算法評(píng)估的規(guī)定都是出于保護(hù)自動(dòng)化決策中的個(gè)人信息和數(shù)據(jù)權(quán)利,因而算法評(píng)估的啟動(dòng)節(jié)點(diǎn)都規(guī)定在算法程序投入運(yùn)營(yíng)之前。
然而,對(duì)于實(shí)現(xiàn)智能投顧算法的持續(xù)透明來說,評(píng)估算法對(duì)投資者信賴?yán)娴挠绊懜鼮槠惹?。在投資顧問活動(dòng)中,法律要求金融機(jī)構(gòu)嚴(yán)格遵守投資者適當(dāng)性規(guī)則,如果金融機(jī)構(gòu)違反投資者適當(dāng)性規(guī)則給投資者造成損失,將部分或者全部賠償投資者的損失。法律之所以如此嚴(yán)苛,是因?yàn)榻鹑跈C(jī)構(gòu)與投資者之間存在彌深的專業(yè)鴻溝和嚴(yán)重的信息不對(duì)稱。法律打破“買者自負(fù)”原則以投資者適當(dāng)性規(guī)則對(duì)投資者進(jìn)行“家長(zhǎng)式保護(hù)”就是為了維護(hù)投資者對(duì)金融機(jī)構(gòu)的信賴?yán)鎇32]。智能投顧中算法的介入顯然會(huì)干擾投資者對(duì)金融機(jī)構(gòu)的信賴?yán)?,要了解這種“干擾”是否以及在多大程度上影響投資者的信賴?yán)?,需要?duì)不同的智能投顧算法系統(tǒng)進(jìn)行個(gè)別化評(píng)估。事實(shí)上,從當(dāng)前的立法情況來看,歐盟和加拿大法律規(guī)定的算法評(píng)估都具有周期性和動(dòng)態(tài)性[33],美國(guó)的算法評(píng)估甚至有一定的溯及力。因此,我國(guó)不宜拘泥于事前、靜態(tài)、封閉的合規(guī)型算法評(píng)估,應(yīng)根據(jù)算法在智能投顧服務(wù)中的參與程度增加事后評(píng)估,以便于在投資損失發(fā)生后進(jìn)行投資者、金融機(jī)構(gòu)和技術(shù)風(fēng)險(xiǎn)的責(zé)任劃分。
在大數(shù)據(jù)和算法的驅(qū)動(dòng)下,各種算法模型被開發(fā)出來與具體的金融場(chǎng)景深度融合,不斷提升金融產(chǎn)品質(zhì)量、優(yōu)化金融投資策略,實(shí)現(xiàn)金融服務(wù)的智能化、動(dòng)態(tài)化和前瞻化。在此背景下誕生的智能投顧不僅能夠精準(zhǔn)分析投資者的資產(chǎn)配置需求,還極大提升了投資顧問業(yè)務(wù)的服務(wù)質(zhì)量與服務(wù)體驗(yàn)。然而,算法在為金融賦能的同時(shí),也加深了金融業(yè)的信息不對(duì)稱,帶來了更高的風(fēng)險(xiǎn)系數(shù)。對(duì)于傳統(tǒng)金融監(jiān)管來說,算法可能成為規(guī)避監(jiān)管的工具;對(duì)于投資者來說,其與金融機(jī)構(gòu)之間的信賴?yán)姹凰惴ǖ淖詣?dòng)化決策切斷,在投資決策與主體問責(zé)之間形成巨大的不確定性。
算法保持一定程度的秘密性既符合國(guó)家戰(zhàn)略,也是算法開發(fā)者和運(yùn)營(yíng)者建立、維持競(jìng)爭(zhēng)優(yōu)勢(shì)的核心所在。面對(duì)算法保密與算法透明之間的價(jià)值沖突,只有秉持“掀開最小縫隙”原則,在不同階段、基于不同目的對(duì)不同主體實(shí)行不同方式、不同程度的透明,才能在算法福利與算法宰制之間取得平衡。就大數(shù)據(jù)金融中的智能投顧而言,為了防控系統(tǒng)性金融風(fēng)險(xiǎn),需通過“合規(guī)審查+算法備案”向監(jiān)管主體實(shí)現(xiàn)算法模型透明;為保障投資者的知情權(quán),需以金融機(jī)構(gòu)的算法告知義務(wù)為基礎(chǔ)輔之以投資者的算法解釋請(qǐng)求權(quán)實(shí)現(xiàn)算法邏輯透明;為緩解算法決策與主體問責(zé)之間的緊張關(guān)系,需通過算法評(píng)估判斷算法對(duì)投資者信賴?yán)娴挠绊懗潭?,進(jìn)而明確主體責(zé)任的劃分。
注:
①KYC 義務(wù)要求金融機(jī)構(gòu)建立適當(dāng)?shù)男匠曛贫?,防止業(yè)務(wù)員推介金融商品時(shí)單方面追求銷售業(yè)績(jī)引致的道德風(fēng)險(xiǎn),同時(shí)落實(shí)金融消費(fèi)者適當(dāng)性原則;KYP 原則要求金融機(jī)構(gòu)加強(qiáng)對(duì)創(chuàng)新金融產(chǎn)品的風(fēng)險(xiǎn)控制和監(jiān)督,同時(shí)強(qiáng)化金融商品推介過程中的信息披露義務(wù)和風(fēng)險(xiǎn)提示義務(wù),充分保障金融消費(fèi)者的知情權(quán)。參見劉博涵.我國(guó)臺(tái)灣地區(qū)金融消費(fèi)者保護(hù):歷程、經(jīng)驗(yàn)與省思[J].社會(huì)科學(xué)論壇,2021,(1):133-146.
②關(guān)于以算法透明規(guī)制算法的討論,參見Frank Pasquale.The Black Box Society:The Secret Algorithms That Control Money and Information[M].Cambridge:Harvard University Press,2015;汪慶華.人工智能的法律規(guī)制路徑:一個(gè)框架性討論[J].現(xiàn)代法學(xué),2019,(2):54-63; 張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019,(4):63-75.
③人工智能算法不公開、不透明,在學(xué)界一般被稱為“算法黑箱”。然而,“黑箱”與“黑幕”“暗箱操作”等語詞直接關(guān)聯(lián),帶有明顯的貶義感情色彩。相較而言,在指代算法不公開、不透明時(shí),“算法保密”更為中性,更有利于問題的理性討論。鑒于此,本文不對(duì)“算法黑箱”“算法保密”作嚴(yán)格區(qū)分,行文中根據(jù)需要,二者將會(huì)交替出現(xiàn)。
④貪心算法的基本思路是:(1)建立數(shù)學(xué)模型來描述待解決的問題;(2)把求解的問題分成若干子問題;(3)對(duì)每一子問題進(jìn)行求解,得到子問題的局部最優(yōu)解;(4)把子問題的局部最優(yōu)解合并成原來問題的一個(gè)解。參見尚榮華.智能算法導(dǎo)論[M].北京:清華大學(xué)出版社,2021:148-152.
⑤美國(guó)OpenAI 公司于2022 年11 月推出的生成式預(yù)訓(xùn)練轉(zhuǎn)換器(ChatGPT)一經(jīng)問世就受到人們的廣泛關(guān)注,該系統(tǒng)基于“自回歸語言模型”(Auto-Regressive Language Model)、“人類反饋強(qiáng)化學(xué)習(xí)”(Reinforcement Learning from Human Feedback)技術(shù)架構(gòu)與馴化模型,具備自然語言生成與錯(cuò)誤更正能力。目前,ChatGPT 不僅可以同人類進(jìn)行流暢的場(chǎng)景交流,還可替代人類從事文本撰寫、方案制定、翻譯等諸多事務(wù)。這預(yù)示著此前300 多個(gè)人工智能科學(xué)家預(yù)測(cè)的至少45 年以后才會(huì)到來的強(qiáng)人工智能時(shí)代正在加速到來。
⑥搜索王是一家將廣告鏈接嵌入谷歌搜索結(jié)果網(wǎng)頁(yè)的公司。顯然,在谷歌的搜索結(jié)果中排名越靠前,獲得的點(diǎn)擊量和流量就越高。搜索王的商業(yè)模式被谷歌公司發(fā)現(xiàn),谷歌公司通過改變算法降低了搜索王相關(guān)網(wǎng)頁(yè)的排名,甚至完全不予展示搜索王嵌入廣告的網(wǎng)頁(yè)。搜索王公司訴稱,谷歌公司得知搜索王的公司業(yè)務(wù)高度依賴谷歌公司的搜索結(jié)果排名后有意降低相關(guān)網(wǎng)頁(yè)的排名甚至移除相關(guān)網(wǎng)頁(yè),給公司帶來了“無可估量的損失”。谷歌公司則辯稱,谷歌沒有義務(wù)將搜索王嵌入廣告的網(wǎng)頁(yè)排在其想要的位置,也有權(quán)不予展示搜索王嵌入了廣告的網(wǎng)頁(yè)。參見Search King, Inc.v.Google Tech, Inc., No.02-1457,2003 WL 21464568(W.D.Okla.May 27, 2003).
⑦參見State v.Loomis, 881 N.W.2d 749 (Wis.2016).
⑧《通用數(shù)據(jù)保護(hù)條例》序言第71 條規(guī)定,數(shù)據(jù)主體有權(quán)就基于自動(dòng)化處理而對(duì)其產(chǎn)生法律效力或類似重大影響的決定獲得解釋,并就該決定提出質(zhì)疑。
⑨美國(guó)在《平等信貸機(jī)會(huì)法案》(ECOA)和《公平信用報(bào)告法案》(FCRA)兩部法律中以“不利行動(dòng)告知條款”保障金融消費(fèi)者在算法作出拒絕提供信貸、拒絕提供保險(xiǎn)服務(wù)等不利行動(dòng)時(shí)獲得解釋的權(quán)利。
⑩參見《民法典》第1035 條、《網(wǎng)絡(luò)安全法》第41 條、《個(gè)人信息保護(hù)法》第7 條、第14 條和第17 條。