郭俊逸 陸昊鋮 吳仕琦 陳嘉健
金融科技的應(yīng)用旨在利用先進(jìn)的科技手段,推動金融服務(wù)的創(chuàng)新與變革,從而使得金融服務(wù)能夠更加便捷、普惠、高效且安全。金融科技的發(fā)展歷程與信息技術(shù)息息相關(guān):19世紀(jì),電報和電話的發(fā)明加速了金融信息的傳遞速度,使得金融市場能更快地響應(yīng)各種信息;到了20世紀(jì),計算機(jī)的發(fā)展為金融科技提供了強有力的技術(shù)支持,將金融科技推向新的時代(X L ZHENG,M Y ZHU,Q B LI.et al.,2019);進(jìn)入21世紀(jì),隨著互聯(lián)網(wǎng)及大數(shù)據(jù)、云計算、人工智能等技術(shù)的出現(xiàn),金融與科技的深度融合正推動著全球經(jīng)濟(jì)向智能化轉(zhuǎn)型。
正是在這個背景下,人工智能和金融科技的潛力得到了更多的關(guān)注。通過機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等方法,人工智能模型能夠處理和分析大量復(fù)雜的金融數(shù)據(jù),協(xié)助金融機(jī)構(gòu)進(jìn)行快速準(zhǔn)確地分析和決策,從而提高金融服務(wù)的效率和質(zhì)量。隨著人工智能技術(shù)日漸成熟,許多金融機(jī)構(gòu)如商業(yè)銀行、投資銀行、保險公司、私募基金等開始嘗試將人工智能應(yīng)用在資產(chǎn)管理、自動交易、金融客服、欺詐監(jiān)測等方面并且取得顯著的成果。然而,在亮麗的外表下,人工智能在金融領(lǐng)域的應(yīng)用仍然存在一些限制和挑戰(zhàn)。黨的二十大報告指出,防范金融風(fēng)險還須解決許多重大問題。其中,包括數(shù)據(jù)安全性、模型的透明度及解釋性等問題。在當(dāng)今這個金融市場中,如何應(yīng)對這些挑戰(zhàn),使得金融科技和人工智能的應(yīng)用更加安全、有效,將是一個重要的議題。
本文將從三個主要方面深入探討這個議題:第一,介紹人工智能模型的特性及這些特性對于金融行業(yè)的影響;第二,分析人工智能應(yīng)用在當(dāng)前金融領(lǐng)域存在的問題和風(fēng)險;第三,討論人工智能在金融領(lǐng)域存在的問題的潛在解決方案以及未來發(fā)展前景。筆者希望,通過深入研究并提出解決方案,能夠推動中國乃至全球的金融科技和人工智能不斷向前發(fā)展。
成功的人工智能模型離不開數(shù)據(jù)的支持。以近期流行的大語言模型(Large Language Model)為例,Bard的LaMDA模型使用137B個參數(shù)進(jìn)行訓(xùn)練,OpenAI公司的G P T 3.5 模型使用1 7 5 B 個參數(shù)進(jìn)行訓(xùn)練,而目前效果最好的GPT4則使用多達(dá)1T個參數(shù)作為訓(xùn)練數(shù)據(jù) (S SOMAN,H G RANJANNI,2023)。由此可見,用于訓(xùn)練的數(shù)據(jù)的質(zhì)量、數(shù)量和多樣性直接影響模型的性能。目前,主流的AI模型均為通過訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)測,良好的訓(xùn)練數(shù)據(jù)可以幫助人工智能模型得到更準(zhǔn)確的效果(B LI,P QI,B LIU,2022)。因此,數(shù)據(jù)作為人工智能模型的基礎(chǔ),具有不可替代的作用。
挑戰(zhàn)1:金融數(shù)據(jù)特有的性質(zhì)會阻礙人工智能模型實現(xiàn)效益最大化。第一,金融數(shù)據(jù)的巨大規(guī)模和復(fù)雜性使得數(shù)據(jù)預(yù)處理階段變得尤為困難,如數(shù)據(jù)類別的差異性大,權(quán)益資產(chǎn)、固定收益資產(chǎn)、不動產(chǎn)、另類資產(chǎn)等各類資產(chǎn)的數(shù)據(jù)特性差異顯著。這使得適應(yīng)各類數(shù)據(jù)特性的人工智能模型預(yù)處理變得更為復(fù)雜。第二,金融領(lǐng)域的相關(guān)數(shù)據(jù)通常源自多個渠道,包括中央銀行、證券交易所、投資銀行等。盡管這些數(shù)據(jù)都屬于同一類別,但由于每個機(jī)構(gòu)統(tǒng)計的天數(shù)、選取的樣本數(shù)量等可能存在差異,導(dǎo)致同類數(shù)據(jù)間也有微小的差異。這種微小的差異可能會對AI模型的預(yù)測結(jié)果產(chǎn)生重大影響。第三,數(shù)據(jù)的隱私性和安全性也是金融機(jī)構(gòu)需要重點考慮的問題。一項研究表明,62%的銀行家對大數(shù)據(jù)的使用持謹(jǐn)慎態(tài)度(B FANG,P ZHANG,2016)。部分私人金融機(jī)構(gòu)可能出于保護(hù)商業(yè)競爭力和客戶隱私的需要,不愿公開或分享數(shù)據(jù)。而這無疑增加了人工智能模型在金融領(lǐng)域的數(shù)據(jù)收集和分析的難度。第四,人工智能模型通常需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,然而,對于一些短期內(nèi)收益起伏較大的金融機(jī)構(gòu),如私募基金,其數(shù)據(jù)的穩(wěn)定性不足,貿(mào)然使用這類數(shù)據(jù)可能會產(chǎn)生極端值。這些極端值可能會對人工智能模型的訓(xùn)練和結(jié)果造成影響。第五,金融行業(yè)數(shù)據(jù)的即時性也是限制人工智能模型廣泛應(yīng)用的因素之一。對于實時更新的金融數(shù)據(jù)流,人工智能模型需要在短時間內(nèi)處理大量的數(shù)據(jù),這對模型的計算能力和處理速度提出極高的要求,所需的計算資源也會為企業(yè)帶來巨大的成本。第六,金融市場的波動性會導(dǎo)致數(shù)據(jù)常常伴隨著噪聲和異常值,這會干擾人工智能模型的學(xué)習(xí)和預(yù)測,從而影響模型的準(zhǔn)確性和穩(wěn)定性。
過擬合(Overfitting)是機(jī)器學(xué)習(xí)和統(tǒng)計模型中的一個現(xiàn)象,其體現(xiàn)為模型在處理訓(xùn)練數(shù)據(jù)或歷史數(shù)據(jù)時表現(xiàn)優(yōu)異,然而在應(yīng)對測試數(shù)據(jù)或未知數(shù)據(jù)時則表現(xiàn)欠佳,因此難以有效處理新的數(shù)據(jù)并進(jìn)行準(zhǔn)確預(yù)測。具體來說,模型在訓(xùn)練過程中開始“記憶”一些無意義的噪音和異常值,而不是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)潛在規(guī)律。產(chǎn)生過擬合的原因包括模型復(fù)雜度過高、數(shù)據(jù)量過小、數(shù)據(jù)噪聲幅度大,以及訓(xùn)練迭代次數(shù)過多等。Fernando和Rafael指出,“鑒于歷史數(shù)據(jù)的相對稀缺性和金融序列不斷變化的性質(zhì),將深度學(xué)習(xí)技術(shù)應(yīng)用到金融數(shù)據(jù)時,過度擬合是不可避免的現(xiàn)象” (F D M PARDO ,R C LOPEZ,2020)。
挑戰(zhàn)2:過擬合現(xiàn)象會影響人工智能模型在金融行業(yè)的預(yù)測準(zhǔn)確性。金融市場的變化實質(zhì)上是對現(xiàn)實世界的真實事件作出的反應(yīng),這導(dǎo)致了金融市場具有較高的隨機(jī)性,因此金融數(shù)據(jù)往往含有噪聲、非線性數(shù)據(jù),以及許多隱藏的、影響市場行為的因素。這意味人工智能模型在處理金融數(shù)據(jù)時不可避免會遇到過擬合現(xiàn)象。David和Marcos在研究中指出,基于人工智能得出的“最優(yōu)”金融投資策略通常在統(tǒng)計學(xué)角度表現(xiàn)優(yōu)異,但在現(xiàn)實中卻是海市蜃樓(D H.BAILEY ,M L D PRADO,2011)。具體來說,金融市場表現(xiàn)出的是金融產(chǎn)品的實際價值與投資者預(yù)期的結(jié)合,這意味著當(dāng)現(xiàn)實世界受到突發(fā)事件的影響時,投資者的行為與金融產(chǎn)品的表現(xiàn)會使得金融市場頻繁受到?jīng)_擊。人工智能模型的預(yù)測結(jié)果也會相應(yīng)地受到影響。此外,由于金融市場的隨機(jī)性,模型可能會在不斷地訓(xùn)練中過度適應(yīng)歷史數(shù)據(jù)中的噪聲,從而無法有效預(yù)測未來的趨勢,以至于造成人工智能模型預(yù)測結(jié)果偏差較大。
當(dāng)前,普遍使用的人工智能模型的決策依據(jù)主要來源于訓(xùn)練數(shù)據(jù),盡管常規(guī)意義上的人工智能模型是客觀的,但模型訓(xùn)練所使用的數(shù)據(jù)存在一定的偏見性,例如性別、年齡、收入等方面的偏差。人工智能模型在訓(xùn)練過程中可能會無法判斷,甚至?xí)W(xué)習(xí)和復(fù)制這種偏差,從而導(dǎo)致其預(yù)測結(jié)果受到影響。主觀偏差會造成人工智能模型中一類常見的問題,即算法偏見。算法偏見(Algorithmic Bias)是指人工智能模型在預(yù)測、決策過程中表現(xiàn)出對某一類群體或特定結(jié)果的不公正傾向。這種傾向通常源自模型訓(xùn)練數(shù)據(jù)的不平衡或者特征選擇的問題。
挑戰(zhàn)3:算法偏見會造成多方位的社會問題。當(dāng)人工智能模型應(yīng)用在金融系統(tǒng)時,算法偏見可能會引起一系列問題。首先,算法偏見會導(dǎo)致某些群體在使用金融服務(wù)時受到歧視。其次,人工智能模型的決策結(jié)果存在偏見會造成預(yù)測結(jié)果異常,不僅會對企業(yè)造成一定量的虧損,還有可能導(dǎo)致其品牌形象和社會信譽受損。人工智能模型中的算法偏見并非刻意為之,但其結(jié)果可能導(dǎo)致一些嚴(yán)重的社會問題,尤其是在對模型準(zhǔn)確度要求更高的金融領(lǐng)域。算法偏見會從四個方面對金融行業(yè)造成影響。第一,信貸評估:在使用人工智能模型進(jìn)行信貸評估時,如果訓(xùn)練數(shù)據(jù)中存在偏見,例如,對特定人群(如某一種族、性別或年齡段)的過度代表或欠代表,可能導(dǎo)致算法在評估信貸風(fēng)險時產(chǎn)生偏見。例如,如果歷史數(shù)據(jù)顯示某一種族或性別的違約率較高,算法可能會對此類人群進(jìn)行不公平的高風(fēng)險評估。第二,投資策略:在使用算法制定投資策略時,如果訓(xùn)練數(shù)據(jù)主要基于某個特定的市場階段(如牛市或熊市),可能導(dǎo)致算法在面對不同的市場環(huán)境時表現(xiàn)出偏差。例如,如果算法主要在牛市環(huán)境下進(jìn)行訓(xùn)練,它可能在熊市環(huán)境下表現(xiàn)不佳。第三,高頻交易:高頻交易(HFT)使用復(fù)雜的算法在極短的時間內(nèi)進(jìn)行大量交易,以獲得微小的價格差異帶來的利潤。然而,這些算法可能對市場產(chǎn)生不利影響,如加劇市場波動、引發(fā)“閃電崩盤”等。這種情況下的偏差更多的是對市場整體的影響,而不僅僅是對單個個體。第四,保險定價:在使用算法對保險產(chǎn)品進(jìn)行定價時,如果算法過度關(guān)注個別因素(如年齡、性別或健康狀況),可能導(dǎo)致對某些人群的不公平定價。例如,如果算法在健康保險定價時過度依賴年齡因素,可能導(dǎo)致年長者的保費過高。由此可見,人工智能模型造成的算法偏見可能造成的潛在風(fēng)險是每個金融從業(yè)者在使用人工智能技術(shù)時都不得不考慮的問題。
人工智能模型,尤其是深度學(xué)習(xí)模型,通常由數(shù)百萬甚至數(shù)億個參數(shù)組成,這些參數(shù)在模型訓(xùn)練過程中進(jìn)行復(fù)雜的數(shù)學(xué)運算,形成難以理解的決策邏輯。由于其內(nèi)部工作原理很難被觀察到,這些模型通常被視為“黑箱”(Black Box)。
“黑箱”產(chǎn)生的原因有以下兩點:一是一些復(fù)雜的模型,例如深度神經(jīng)網(wǎng)絡(luò),包含大量的隱藏層和參數(shù),導(dǎo)致模型的決策過程十分復(fù)雜且難以直觀的分析和理解。二是許多模型需要處理大量高維數(shù)據(jù),例如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)或循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),數(shù)據(jù)的復(fù)雜性也會導(dǎo)致模型決策過程的透明度降低。
挑戰(zhàn)4:人工智能模型的不透明性會為金融行業(yè)帶來監(jiān)管問題。“黑箱”這一特征導(dǎo)致人工智能模型缺乏透明度,從而使監(jiān)管機(jī)構(gòu)、利益相關(guān)者、客戶對人工智能的決策產(chǎn)生質(zhì)疑。在金融領(lǐng)域,透明度被認(rèn)為是非常重要的一個因素。監(jiān)管機(jī)構(gòu)維持金融市場穩(wěn)定的重要步驟之一是了解金融市場的運作過程,然而,人工智能模型決策的不透明性與之背道而馳,在一些情況下甚至?xí)`反某些金融法規(guī)。例如,歐洲的通用數(shù)據(jù)保護(hù)條例(GDPR)中要求企業(yè)能夠解釋對個人產(chǎn)生明顯影響的決策的人工智能系統(tǒng),盡管GDPR并不要求企業(yè)透露全部的算法,但是由于“黑箱”模型的存在,如何解釋算法決策過程可能會無法滿足GDPR的要求(張濤,2019)。除此之外,投資者可能會因為模型的不透明度對人工智能模型與金融機(jī)構(gòu)產(chǎn)生信任危機(jī),會避免將所有資產(chǎn)與個人名譽置于危墻之下,企業(yè)利益和信譽也會隨之受損。由于無法理解“黑箱”模型內(nèi)部的運算過程,使用者和監(jiān)管者也無法對“黑箱”模型進(jìn)行有效的風(fēng)險管理。以工具為例,用戶使用工具時不僅需要了解工具的使用方法,還需要知道工具的注意事項,這樣才能保證達(dá)成目的的同時也不會危害到人身安全。對于應(yīng)用于金融領(lǐng)域的人工智能模型,低透明度意味著有相對較低的風(fēng)險管控能力,同時也會一定程度上使人工智能模型游離于監(jiān)管之外。
黑天鵝事件(Black Swan Event)指那些極端但又具有深遠(yuǎn)影響的罕見事件,這類事件的特點是預(yù)測困難且影響巨大(N N TALEB,2007)。黑天鵝事件在金融市場中用于形容那些無法預(yù)料且對市場有巨大打擊的突發(fā)事件。
挑戰(zhàn)5:人工智能模型無法很好地應(yīng)對黑天鵝事件及其帶來的影響。一般來說,造成黑天鵝事件的原因包括三個方面:一是市場的不完全理性,雖然金融市場在大部分時候是理性的,但是市場參與者的非理性行為,例如恐慌性買賣有可能會引發(fā)黑天鵝事件;二是復(fù)雜的經(jīng)濟(jì)系統(tǒng)互動,在當(dāng)前經(jīng)濟(jì)全球化的背景下,各個市場和金融產(chǎn)品之間的相互影響和聯(lián)系使得金融體系變得越來越復(fù)雜,可能會導(dǎo)致黑天鵝事件;三是政策因素,不可預(yù)測的政策變化常常是引發(fā)金融市場變動的黑天鵝事件,例如貨幣政策轉(zhuǎn)向等。于2022年初開始的俄烏沖突可被視為一種黑天鵝事件。首先,沖突導(dǎo)致俄羅斯和烏克蘭地區(qū)的實體經(jīng)濟(jì)受到嚴(yán)重打擊?;A(chǔ)設(shè)施遭到破壞,工廠停產(chǎn),供應(yīng)鏈中斷,這些都直接影響了生產(chǎn)和貿(mào)易。進(jìn)而,這種影響會擴(kuò)散到全球范圍,尤其是對那些與這兩個國家有密切經(jīng)濟(jì)聯(lián)系的國家。其次,沖突還會引發(fā)能源價格的劇烈波動,特別是俄羅斯作為全球主要的石油和天然氣供應(yīng)國,沖突可能導(dǎo)致能源供應(yīng)中斷,進(jìn)而推高全球石油和天然氣價格,影響全球經(jīng)濟(jì)的穩(wěn)定。再者,沖突引發(fā)的政治和經(jīng)濟(jì)不確定性會導(dǎo)致全球金融市場的劇烈波動。在沖突爆發(fā)的消息公布后,投資者可能會出于風(fēng)險規(guī)避的心理大規(guī)模拋售股票和其他風(fēng)險資產(chǎn),導(dǎo)致股市暴跌。同時,投資者可能會轉(zhuǎn)向黃金、美元等被視為“避風(fēng)港”的資產(chǎn),推高這些資產(chǎn)的價格。俄烏沖突這類黑天鵝事件會對全球金融市場造成巨大的影響,然而,對于人工智能模型來說,這類突發(fā)性事件是很難預(yù)測的。并且其引起的一系列經(jīng)濟(jì)金融波動也會造成人工智能模型對事件發(fā)生之后的金融市場的分析出現(xiàn)誤差。
由此可見,黑天鵝事件是人工智能模型在金融領(lǐng)域廣泛應(yīng)用的重要阻礙之一。黑天鵝事件的預(yù)測難度很大,人工智能模型對于此類事件的預(yù)測能力表現(xiàn)得并不令人滿意,且事件發(fā)生后人工智能模型的預(yù)測準(zhǔn)確度會有一定下降。人工智能模型的預(yù)測失準(zhǔn)會導(dǎo)致金融機(jī)構(gòu)和投資者做出錯誤的商業(yè)決策,造成無可估量的經(jīng)濟(jì)損失。此外,黑天鵝事件發(fā)生后,模型將不得不進(jìn)行大規(guī)模參數(shù)調(diào)整,這會為模型優(yōu)化帶來困難和潛在風(fēng)險。
挑戰(zhàn)6:人工智能模型的廣泛應(yīng)用可能會造成金融市場的就業(yè)問題。隨著人工智能技術(shù)的日益發(fā)展和成熟,其在金融領(lǐng)域的應(yīng)用也逐步擴(kuò)大。然而,這種發(fā)展趨勢在某種程度上導(dǎo)致了金融市場就業(yè)狀況的波動,因為一些工作職能會逐步被人工智能技術(shù)所取代?!耙允窞殍b,可以知興替”,回顧歷史,我們可以看到這并非首次出現(xiàn)技術(shù)替代人力的現(xiàn)象。在工業(yè)革命的初期,許多曾經(jīng)依賴人力完成的工作,如紡織縫紉等,被“勞動力替代型技術(shù)”所取代,從而導(dǎo)致大量工人失業(yè)。這種現(xiàn)象造成工人的收入水平下降,資本家的利潤上升,對整體經(jīng)濟(jì)發(fā)展產(chǎn)生了深遠(yuǎn)影響,被經(jīng)濟(jì)史學(xué)家羅伯特·艾倫稱為“恩格斯停滯”(C B FREY,2019)。不僅如此,據(jù)弗雷和奧斯本在2013年的研究預(yù)測,未來20年,美國有47%的工作面臨被技術(shù)取代的風(fēng)險(C B FREY,M A OSBORNE,2013)。在金融業(yè)中,一些可以通過自動化程序完成的任務(wù),如數(shù)據(jù)處理、審計以及某些類型的客戶服務(wù),很可能在未來被人工智能技術(shù)取代。然而,這種勞動力被技術(shù)替代的趨勢在短期內(nèi)可能導(dǎo)致社會穩(wěn)定性受到?jīng)_擊。因為隨著一些工作崗位的消失,一些員工可能會發(fā)現(xiàn)他們的技能不能再滿足市場的需求。這可能會帶來一系列社會問題,如就業(yè)安全感的缺失和收入的不均等,進(jìn)而導(dǎo)致社會不滿情緒的上升。盡管人工智能的發(fā)展和應(yīng)用帶來了效率的提升和成本的降低,但其對金融行業(yè)勞動力的影響也不容忽視。如何在新技術(shù)帶來的變革中,保持社會穩(wěn)定和公平,是我們面臨的重大挑戰(zhàn)。
挑戰(zhàn)7:人工智能模型存在安全隱患。安全,作為互聯(lián)網(wǎng)時代的關(guān)鍵核心之一,是每項科技進(jìn)步必須優(yōu)先關(guān)注和考慮的問題。安全的重要性在金融領(lǐng)域更加引人注目,因此,人工智能模型可能帶來的風(fēng)險亦成為一個迫切需要解決的問題。人工智能算法在金融領(lǐng)域主要有以下三方面的問題:第一,數(shù)據(jù)安全問題。人工智能模型在金融領(lǐng)域的應(yīng)用通常需要處理大量的個人和企業(yè)數(shù)據(jù)。這些數(shù)據(jù)可能包括敏感信息,如個人身份信息、銀行賬戶信息、信貸歷史等。如果這些數(shù)據(jù)的保護(hù)措施不足,可能會導(dǎo)致數(shù)據(jù)泄露,對個人或者企業(yè)造成嚴(yán)重?fù)p失。第二,模型穩(wěn)健性問題。模型穩(wěn)健性是指模型在面對輸入數(shù)據(jù)的微小變化時,其預(yù)測結(jié)果是否能夠保持穩(wěn)定的性質(zhì)。如果一個模型的穩(wěn)健性不足,可能會導(dǎo)致其在金融決策中的表現(xiàn)不穩(wěn)定,甚至可能出現(xiàn)嚴(yán)重的錯誤。例如,如果一個模型對價格波動的預(yù)測在面對微小的市場變化時出現(xiàn)大幅波動,那么這個模型在實際應(yīng)用中可能會導(dǎo)致嚴(yán)重的金融損失。第三,惡意攻擊問題。隨著人工智能模型在金融領(lǐng)域的應(yīng)用越來越廣泛,它們也成了攻擊者的目標(biāo)。惡意攻擊者可能會嘗試篡改模型的輸入數(shù)據(jù),以欺騙模型做出錯誤的預(yù)測。這種攻擊方式被稱為對抗性攻擊。例如,攻擊者可能會通過篡改他們的信貸申請數(shù)據(jù),欺騙信貸審批模型批準(zhǔn)他們的貸款金額。
在金融領(lǐng)域,人工智能模型的安全性是一項至關(guān)重要的議題,須被認(rèn)真對待并謹(jǐn)慎管理。隨著人工智能的不斷演進(jìn)以及其在金融業(yè)務(wù)中的日益廣泛應(yīng)用,確保這些系統(tǒng)的安全性成為對抗?jié)撛谄茐囊约熬S系公眾對金融機(jī)構(gòu)信任度的關(guān)鍵所在。
挑戰(zhàn)8:人工智能模型大規(guī)模應(yīng)用可能會打破金融市場的平衡。在中國,政府的干預(yù)對于經(jīng)濟(jì)高質(zhì)量發(fā)展有不可或缺的作用(王桂梅,趙喜倉,羅雨森,2020)。然而,人工智能模型在金融領(lǐng)域的大規(guī)模應(yīng)用可能會對政府干預(yù)造成一定的影響,主要表現(xiàn)在監(jiān)管難度增加、缺少人為干預(yù)的問題,以及可能打破資源分配平衡,導(dǎo)致財富兩極化。首先,如前所述,人工智能模型的復(fù)雜性和不透明性會增加監(jiān)管的難度。政府需要確保金融市場的公平、透明和穩(wěn)定,而這需要對市場行為有清晰和深入的理解。人工智能模型的決策過程通?;趶?fù)雜的算法和大量的數(shù)據(jù),這使得其決策過程往往難以理解和審查,進(jìn)而會對政府的監(jiān)管能力提出挑戰(zhàn)。其次,盡管人工智能模型在某些工作上的效率和精確性超過人類,但它缺乏理解和執(zhí)行人為干預(yù)的能力。這是因為人為干預(yù)通常涉及對復(fù)雜的社會和經(jīng)濟(jì)問題的理解,需要在各種利益之間進(jìn)行權(quán)衡,這超出了人工智能模型目前的能力范圍。并且金融市場的穩(wěn)定性需要人為監(jiān)管來維護(hù),而人工智能模型的大規(guī)模使用會為監(jiān)管增加難度。最后,人工智能模型的大規(guī)模應(yīng)用可能會打破資源分配的平衡,導(dǎo)致財富的兩極化。因為人工智能模型的開發(fā)和應(yīng)用需要投入大量的資源,這使得擁有這些資源的公司會獲得更強的競爭力,并且會使其在金融博弈中占據(jù)優(yōu)勢地位且有可能造成財富分配不均、市場壟斷等經(jīng)濟(jì)問題。
例如,通過LSTM股價預(yù)測模型的預(yù)測結(jié)果和對股票市場具體分析的結(jié)果可以看出,盡管LSTM對于價格長期穩(wěn)定的股票具有相對較高的預(yù)測準(zhǔn)確率,但其無法準(zhǔn)確預(yù)測短時間大幅漲跌的股票。這也證明了人工智能模型無法準(zhǔn)確預(yù)測復(fù)雜的金融市場以及對金融市場有影響的事件。此外,在使用人工智能模型時選取的數(shù)據(jù)集也會對結(jié)果產(chǎn)生較大影響。
盡管當(dāng)前的大部分人工智能技術(shù)在金融領(lǐng)域的應(yīng)用都存在一些問題,但人工智能依然是一項值得深入探索的技術(shù)。針對本文中討論的問題,筆者從以下三方面出發(fā),對于人工智能模型在金融領(lǐng)域的應(yīng)用提出建議。
在人工智能技術(shù)井噴式發(fā)展的當(dāng)前,政府和有關(guān)部門應(yīng)出臺更多相關(guān)的政策和法規(guī)來保證人工智能模型的使用走在正確的道路上。金融領(lǐng)域?qū)?shù)據(jù)的處理、信息的透明度及業(yè)務(wù)的公平性等都有嚴(yán)格的要求,而這些都是人工智能模型在使用過程中需要關(guān)注的問題。法規(guī)和政策在很大程度上決定了金融機(jī)構(gòu)如何、在何種范圍內(nèi)使用這項技術(shù),也影響了人工智能模型在金融領(lǐng)域的創(chuàng)新和發(fā)展。因此,建立明智的法規(guī)和政策,以及與之相適應(yīng)的實踐,對于推動人工智能模型在金融領(lǐng)域的成功應(yīng)用至關(guān)重要(吳漢東,2017)。
政府和有關(guān)部門應(yīng)考慮以下幾方面:第一,數(shù)據(jù)保護(hù)與隱私政策,規(guī)定如何收集、存儲、處理和共享個人和機(jī)構(gòu)的金融數(shù)據(jù),確保數(shù)據(jù)的安全性和隱私;第二,算法透明度和可解釋性政策,對于金融機(jī)構(gòu)使用的人工智能算法,需要有規(guī)定要求其能夠解釋其決策過程和結(jié)果,增強算法的可信度和公正性;第三,算法公平性和無歧視政策,金融機(jī)構(gòu)在使用人工智能進(jìn)行決策時,應(yīng)遵循公平性和無歧視原則,避免算法偏見帶來的不公正;第四,風(fēng)險管理政策,需要有針對使用人工智能的金融機(jī)構(gòu)的特殊風(fēng)險管理規(guī)定,包括數(shù)據(jù)泄露、算法誤判、系統(tǒng)故障等風(fēng)險;第五,人工智能責(zé)任和監(jiān)管政策,明確人工智能在金融交易和決策中的責(zé)任,建立相應(yīng)的監(jiān)管機(jī)制,確保人工智能的合規(guī)使用;第六,人工智能教育和培訓(xùn)政策,推動在金融機(jī)構(gòu)內(nèi)部進(jìn)行人工智能教育和培訓(xùn),提高員工的AI素養(yǎng),確保他們能理解和正確使用人工智能。
人工智能的相關(guān)政策需要政府、金融機(jī)構(gòu)、人工智能企業(yè)以及公眾共同參與和建設(shè),從而為人工智能在金融領(lǐng)域的應(yīng)用和發(fā)展創(chuàng)造健康的環(huán)境。
在金融科技不斷創(chuàng)新的潮流中,金融企業(yè)如何理解和使用人工智能技術(shù),是決定其在金融市場競爭中取得優(yōu)勢地位的關(guān)鍵之一。針對前文提到的挑戰(zhàn),筆者提出以下建議。
金融企業(yè)應(yīng)保證數(shù)據(jù)和信息安全。金融領(lǐng)域的數(shù)據(jù)安全由于涉及個人財產(chǎn)、公司信譽、商業(yè)機(jī)密等高敏感度的因素,顯得格外重要。第一,加強數(shù)據(jù)加密,對存儲和傳輸?shù)臄?shù)據(jù)進(jìn)行加密,是保護(hù)數(shù)據(jù)安全的最基本方式,可以防止未經(jīng)授權(quán)的人員訪問和使用數(shù)據(jù),同時應(yīng)使用最新和最安全的加密技術(shù),并定期更新加密算法和密鑰。第二,使用安全的數(shù)據(jù)存儲和處理設(shè)施,確保使用的云服務(wù)或物理數(shù)據(jù)中心具有高級別的安全保護(hù)措施。數(shù)據(jù)中心應(yīng)該有嚴(yán)格的物理安全措施,以及高級的網(wǎng)絡(luò)安全措施,例如防火墻和入侵檢測系統(tǒng)。第三,實施強大的訪問控制,制定嚴(yán)格的訪問控制政策,只有經(jīng)過授權(quán)的人員才能訪問和處理數(shù)據(jù)。這包括使用強大的身份驗證方法,例如多因素身份驗證。第四,數(shù)據(jù)脫敏和匿名化,在不影響數(shù)據(jù)質(zhì)量和AI算法性能的前提下,對敏感數(shù)據(jù)進(jìn)行脫敏和匿名化。這可以減少如果數(shù)據(jù)被泄露所帶來的風(fēng)險。第五,建立有效的數(shù)據(jù)泄露應(yīng)急響應(yīng)機(jī)制,即使有最好的安全措施,數(shù)據(jù)泄露的風(fēng)險仍然存在。因此,應(yīng)制定數(shù)據(jù)泄露應(yīng)急響應(yīng)計劃,一旦發(fā)生數(shù)據(jù)泄露,可以迅速采取行動,最大程度地減少損害。第六,培訓(xùn)員工和用戶,員工和用戶的行為是數(shù)據(jù)安全的重要組成部分。應(yīng)定期為員工和用戶提供數(shù)據(jù)安全培訓(xùn),幫助他們了解如何保護(hù)數(shù)據(jù),避免高風(fēng)險行為。第七,金融公司須合理地結(jié)合人工智能和人類智能,例如加強員工的培訓(xùn)和教育,使他們能夠理解人工智能技術(shù),知道如何與人工智能系統(tǒng)協(xié)作,以及如何利用人工智能來做出更好的決策。此外,要重新考慮和設(shè)計職位,將一些職位的重點從執(zhí)行任務(wù)轉(zhuǎn)向管理和監(jiān)督人工智能,或者從處理數(shù)據(jù)轉(zhuǎn)向解釋和利用數(shù)據(jù)。
金融企業(yè)在使用人工智能技術(shù)時應(yīng)合理選取模型。隨著時代的進(jìn)步和科技的發(fā)展,越來越多的人工智能模型在金融領(lǐng)域投入使用。從簡單的線性回歸到相對復(fù)雜的神經(jīng)網(wǎng)絡(luò),人工智能模型通過不斷更新,可以發(fā)揮多樣化的作用。金融研究人員和金融分析師應(yīng)該了解特定模型在特定金融領(lǐng)域的可行性(J HUANG,J CHAI,S CHO,2020)。合理的選擇人工智能模型可以提高工作效率,在人工智能模型的幫助下將復(fù)雜問題簡單化,實現(xiàn)多元化的目標(biāo)。在選擇模型的時候,企業(yè)和從業(yè)者應(yīng)該考慮以下幾方面:第一,模型性能,選取相對成熟、穩(wěn)定的模型。并且使用交叉驗證(Cross Validation)、生成式對抗網(wǎng)絡(luò)(Generative Adversarial Networks)、正則化(Regularization)技術(shù)等方法評估模型在未知數(shù)據(jù)上的性能,從而盡可能消除過擬合等問題對模型的影響。第二,符合業(yè)務(wù)需求,選擇的模型應(yīng)與具體的業(yè)務(wù)問題緊密相關(guān)。使用者需要清楚地定義希望人工智能模型解決的問題適合何種模型,例如,自然語言處理(Natural Language Process)適合情感分析(Sentiment Analysis)、文本挖掘(Text Mining);深度學(xué)習(xí)適合創(chuàng)建市場模型、創(chuàng)建交易模型、風(fēng)險分析、價格走勢預(yù)測等,信貸風(fēng)險評估、欺詐檢測、市場走勢預(yù)測等;強化學(xué)習(xí)(Reinforcement Learning)適合優(yōu)化投資組合和投資行為、優(yōu)化交易策略等(L CAO,2022)。第三,解釋性,在金融領(lǐng)域,模型的解釋性非常重要。一個好的金融AI模型應(yīng)該不僅能做出準(zhǔn)確的預(yù)測,還能清楚地解釋其決策過程。因此,可能需要優(yōu)先考慮具有高解釋性的模型,如決策樹、邏輯回歸等。此外,隨著人工智能技術(shù)的發(fā)展,可解釋性人工智能XAI(Explainable Artificial Intelligence)的使用可以很大程度上解決人工智能模型不透明性的問題(D GUNNING,J CHOI, T MILLER.et al,2019)。第四,數(shù)據(jù)兼容性,由于金融數(shù)據(jù)的來源差異性很強,所選模型應(yīng)與使用的數(shù)據(jù)兼容。例如,某些模型可能需要大量的數(shù)據(jù)才能工作良好,而其他模型可能更適合處理稀疏或非結(jié)構(gòu)化的數(shù)據(jù)。第五,法規(guī)遵從性,模型的選擇需要符合金融監(jiān)管法規(guī)。例如,某些地區(qū)的法規(guī)可能要求金融機(jī)構(gòu)能夠解釋其信貸決策的原因,在這種情況下公司應(yīng)選擇透明度較高的人工智能模型。第六,技術(shù)實現(xiàn),模型的選擇應(yīng)考慮到技術(shù)實現(xiàn)的可行性。一些復(fù)雜的人工智能模型需要高性能的硬件、龐大的數(shù)據(jù)庫、高水平技術(shù)人員的支持。公司需要考慮相關(guān)的硬件設(shè)施以及技術(shù)人員的技能是否匹配,以及投入產(chǎn)出比是否值得使用人工智能模型等問題。
金融是社會的重要組成部分,其在促進(jìn)經(jīng)濟(jì)增長、創(chuàng)新和社會福利方面起著關(guān)鍵作用,人工智能模型在金融領(lǐng)域的應(yīng)用應(yīng)基于維護(hù)社會穩(wěn)定的前提。
在使用人工智能模型時應(yīng)注重人工與智能相結(jié)合。具體來說,人類和機(jī)器在不同的任務(wù)上各有優(yōu)勢,機(jī)器擅長處理大量數(shù)據(jù)、執(zhí)行復(fù)雜計算和自動化流程;而人類在解決需要深度理解、創(chuàng)新思考和情緒智能的問題上有優(yōu)勢。因此,應(yīng)該讓人和機(jī)器各司其職、協(xié)同合作,發(fā)揮各自的優(yōu)勢。人工智能的出現(xiàn)和發(fā)展不會取代人類,但是會取代一些工作。就像第一次工業(yè)革命之后,工廠需要更多懂得如何操作機(jī)器的勞動力;第二次工業(yè)革命之后,社會和企業(yè)需要一系列新職位如工程師、機(jī)械師、維修工等(許怡,2022)。企業(yè)、政府和社會有必要通過適當(dāng)?shù)谋U洗胧﹣砭徑膺^渡期的困難,以及通過勞動市場政策來鼓勵新的就業(yè)機(jī)會的創(chuàng)造。對于金融行業(yè)來說,只有合理地將人力資源與人工智能技術(shù)相結(jié)合,才能在保證市場穩(wěn)定的情況下使這項技術(shù)在金融領(lǐng)域更好地發(fā)揮其作用。
在使用人工智能模型時應(yīng)執(zhí)行完整的風(fēng)險管理流程。金融機(jī)構(gòu)和企業(yè)在使用人工智能技術(shù)的時候需要進(jìn)行風(fēng)險評估與風(fēng)險控制,從而在保證安全的情況下實現(xiàn)人工智能的價值,并且降低人工智能模型對社會穩(wěn)定性的影響。企業(yè)和政府應(yīng)定期進(jìn)行全面的風(fēng)險評估,識別和量化使用人工智能可能帶來的各種風(fēng)險,包括數(shù)據(jù)隱私和安全風(fēng)險、技術(shù)風(fēng)險、合規(guī)風(fēng)險、業(yè)務(wù)連續(xù)性風(fēng)險等。不僅如此,在使用人工智能算法的時候應(yīng)進(jìn)行算法審核,保證其性能、可靠性和公平性。金融機(jī)構(gòu)和政府應(yīng)建立實時監(jiān)控和報告系統(tǒng),以便快速發(fā)現(xiàn)和解決任何潛在的問題。包括對模型性能的監(jiān)控、對異常交易或行為的監(jiān)控,以及對任何可能的數(shù)據(jù)泄露或安全威脅的監(jiān)控。此外,金融從業(yè)者和管理者應(yīng)制定適合自身情況的風(fēng)險管理制度和框架,從而最大程度降低使用人工智能帶來的不確定性(NIST,2023)??偟膩碚f,風(fēng)險管理是人工智能在金融市場廣泛應(yīng)用的關(guān)鍵部分,需要在戰(zhàn)略規(guī)劃、實施和運營的每個階段都予以充分的考慮。只有通過有效的風(fēng)險管理,金融機(jī)構(gòu)才能充分利用人工智能,同時避免或最小化可能的負(fù)面影響。
在人工智能技術(shù)發(fā)展的過程中,數(shù)據(jù)、算法和算力被視為三大核心要素,人工智能模型在金融領(lǐng)域的未來也將受到這三大核心要素的影響。
數(shù)據(jù)作為人工智能模型的“知識原料”,在金融領(lǐng)域發(fā)揮著巨大的作用。隨著大數(shù)據(jù)技術(shù)的不斷發(fā)展,人工智能模型使用的數(shù)據(jù)將不再局限于傳統(tǒng)數(shù)據(jù)集。更多的非結(jié)構(gòu)化數(shù)據(jù)(如文本、社交媒體信息、新聞事件、消費者行為等)作為理解金融市場動態(tài)的重要信息資源,將被有效地應(yīng)用于金融領(lǐng)域的人工智能模型中。因此,對于金融機(jī)構(gòu)來說,確保數(shù)據(jù)質(zhì)量和安全性十分重要。因為優(yōu)質(zhì)安全的數(shù)據(jù)資源不僅可以提高模型的預(yù)測準(zhǔn)確性,還有助于有效防范風(fēng)險,對金融行業(yè)的穩(wěn)健運行起到了關(guān)鍵性的作用。例如可以用到反量子加密技術(shù),這也將避免再次出現(xiàn)類似于“千年蟲”的問題。就如 Jonathan在文中提到的一樣,伴隨著量子時代曙光而來的安全和加密轉(zhuǎn)變將成為最不起眼的問題(喬納森·魯安,2022)。
科技進(jìn)步將帶來更多可能性。隨著科技的進(jìn)步,越來越多新的算法不斷涌現(xiàn),例如深度學(xué)習(xí)、強化學(xué)習(xí)等,將為人工智能模型在金融領(lǐng)域的應(yīng)用帶來更多的可能性。深度學(xué)習(xí)技術(shù)可以通過模仿人腦神經(jīng)網(wǎng)絡(luò)來理解和學(xué)習(xí)復(fù)雜的金融模型,從而實現(xiàn)更精準(zhǔn)的預(yù)測。而強化學(xué)習(xí)則可以通過不斷與環(huán)境互動和學(xué)習(xí),達(dá)到優(yōu)化決策的目的,這對于金融機(jī)構(gòu)在不確定環(huán)境下的決策有著重要價值??梢灶A(yù)見的是,未來的金融人工智能模型算法具有向多樣性、自動化、透明性以及個性化發(fā)展的趨勢。多樣化指未來的模型會具有更多的功能,正如在過去的幾十年中人工智能算法從決策樹到神經(jīng)網(wǎng)絡(luò)再到大語言模型的發(fā)展歷程,未來的算法將有能力實現(xiàn)更多、更復(fù)雜的功能。自動化指未來的模型會具備自我學(xué)習(xí)、自我優(yōu)化的能力。具體來說,金融領(lǐng)域的人工智能模型將具備自我檢查、主動學(xué)習(xí)、自動優(yōu)化等能力。透明性指金融領(lǐng)域的人工智能算法會具有較高的可理解性。如前文所述,金融行業(yè)的人工智能模型有必要被政府和企業(yè)所理解,而具有高透明度的算法,例如,XAI等會成為未來的發(fā)展方向之一。個性化指根據(jù)使用者的需求定制具有獨特能力的算法,例如金融領(lǐng)域的量化交易算法或金融類大語言模型等。算法的進(jìn)步伴隨著人工智能模型替代人工勞動力的過程,未來的金融算法將有能力完成現(xiàn)在的高端人力資源所做的工作。
算力是推動人工智能發(fā)展的關(guān)鍵驅(qū)動力。隨著計算能力的提升和云計算技術(shù)等的發(fā)展,人工智能模型將具備處理更大規(guī)模的數(shù)據(jù)的能力,例如量子計算、邊緣計算和類腦計算。量子計算通過量子力學(xué)效應(yīng)增強計算能力,可以為處理大量數(shù)據(jù)或者一些突發(fā)事件提供策略優(yōu)化。在2021年5月,一家量子計算公司Zapata Computing宣布了與西班牙對外銀行 (BBVA)共同進(jìn)行的研究結(jié)果,該研究旨在調(diào)查量子系統(tǒng)在創(chuàng)建信用估值調(diào)整 (Credit Valuation Adjustment,CVA)——為盡量減少系統(tǒng)性金融風(fēng)險而實施的一項監(jiān)管要求方面的實際應(yīng)用(Jonathan,2022)。一些大型金融機(jī)構(gòu)正在逐步認(rèn)識到,量子計算在未來具有深遠(yuǎn)且廣闊的發(fā)展前景及潛在影響力,例如高盛(Goldman Sachs)與摩根大通(J.P.Morgan Chase)等機(jī)構(gòu)的團(tuán)隊正積極探索量子計算在金融領(lǐng)域中的優(yōu)化效應(yīng),并對其在人工智能模型中的潛在應(yīng)用可能性進(jìn)行深入研究。邊緣計算作為云計算的一種補充,進(jìn)一步推動了微型機(jī)器學(xué)習(xí)(TinyML)發(fā)展。這一類新技術(shù)的出現(xiàn),幫助人工智能模型以更高的速度進(jìn)行計算,這對于金融市場的實時決策具有極大的幫助。更重要的是,高效的計算能力也為模型的實時更新和優(yōu)化提供了可能,使得模型能夠更好地適應(yīng)金融市場的快速變化。
隨著數(shù)據(jù)技術(shù)、算法和算力的不斷進(jìn)步,人工智能模型在金融領(lǐng)域?qū)懈鼜V闊的未來。我們可以預(yù)見未來的金融市場將會因為更高效的數(shù)據(jù)處理,更加精確的預(yù)測模型以及更強的計算能力而變得更加智能化。因此,我們有理由期待人工智能模型為金融領(lǐng)域帶來的無限可能,幫助金融機(jī)構(gòu)更好地適應(yīng)市場的快速變化。
盡管人工智能在金融領(lǐng)域的應(yīng)用道阻且長,但是其在數(shù)據(jù)處理、風(fēng)險預(yù)測、決策支持等方面獨特的優(yōu)勢,讓我們對人工智能在金融領(lǐng)域的未來充滿期待。我們深入探索和研究這些挑戰(zhàn)和限制,目的不僅在于指出人工智能的缺陷,更是為了通過這樣的探究找到解決問題的途徑,進(jìn)而更好地發(fā)揮人工智能在金融領(lǐng)域的潛力和價值。
在嚴(yán)格的監(jiān)督和科學(xué)指導(dǎo)下,我們期待著人工智能能夠幫助金融業(yè)提升效率,降低風(fēng)險,并推動其持續(xù)、健康、穩(wěn)定地發(fā)展。在金融領(lǐng)域內(nèi),人工智能不僅有可能對現(xiàn)有的金融產(chǎn)品和服務(wù)進(jìn)行創(chuàng)新,還有可能開創(chuàng)全新的金融模式。因此,我們需要繼續(xù)研究和解決那些擋在人工智能模型應(yīng)用道路上的難題,為今后實現(xiàn)這一具有深遠(yuǎn)影響的轉(zhuǎn)型做準(zhǔn)備。