■ 山東 劉勝軍 趙長(zhǎng)林
隨著人工智能技術(shù)的高速發(fā)展,基于人工智能技術(shù)的解決方案正在被各大企業(yè)部署應(yīng)用,影響著我們生活的方方面面。人工智能所做出的決策是否值得信賴,如何保證合規(guī)性?人工智能的一個(gè)新興分支出現(xiàn)了。
可解釋的人工智能正在引起人們的注意,它可以幫助企業(yè)解決由各種法規(guī)帶來(lái)的監(jiān)管問(wèn)題。但可解釋性并不僅僅是合規(guī)問(wèn)題。可解釋性對(duì)于改進(jìn)決策者和一線專家提出的人工智能模型的采用也很重要??山忉屝钥梢允瓜嚓P(guān)人員確認(rèn)和解決機(jī)器學(xué)習(xí)模型中的盲點(diǎn)。
如果我們開發(fā)了一個(gè)人們不愿意購(gòu)買的系統(tǒng),這就是一個(gè)大問(wèn)題。例如,工程師們開發(fā)了一個(gè)人工智能工具,它可以改進(jìn)保險(xiǎn)業(yè)或貸款審批等領(lǐng)域的決策。此工具的一個(gè)主要目標(biāo)就是準(zhǔn)確性。但是,能夠向用戶們解釋正在發(fā)生什么和讓用戶撤銷一個(gè)毫無(wú)意義的建議非常重要。
專家們相信構(gòu)建一個(gè)健壯的人員全面參與的人工智能系統(tǒng)是可靠選擇。例如,一個(gè)團(tuán)隊(duì)可以用離線數(shù)據(jù)著手構(gòu)建機(jī)器學(xué)習(xí)模型。然后,將此模型投入到“預(yù)生產(chǎn)”中,給用戶們一個(gè)從預(yù)測(cè)和解釋的角度理解模型如何工作的機(jī)會(huì)。用戶們還需要擁有接受決策或退回再重來(lái)的能力。
有的模型看起來(lái)很棒,但是從另一方面看其中是否存在偏見(jiàn)呢? 如果模型無(wú)法得到解釋,就只能放棄。專業(yè)人員往往要求咨詢客戶為什么某個(gè)變量要存在于一個(gè)特定的模型中。這是在深度學(xué)習(xí)啟動(dòng)之前,專家們?cè)趧?chuàng)建財(cái)務(wù)模式時(shí)需要考慮的數(shù)據(jù)知識(shí)。無(wú)需很多監(jiān)管或指導(dǎo)就理解大型的復(fù)雜數(shù)據(jù)集是深度學(xué)習(xí)的優(yōu)點(diǎn)之一,但是這種方法將數(shù)據(jù)專家與理解數(shù)據(jù)隔離開來(lái)。如果我們要說(shuō)服客戶相信我們正在做的事情,這就是一個(gè)需要經(jīng)歷的練習(xí)。
在人工智能方面的一個(gè)怪象是企業(yè)為可解釋性而犧牲準(zhǔn)確性。然而,如果開發(fā)者和數(shù)據(jù)專家能夠正確地構(gòu)建機(jī)器學(xué)習(xí)模型,可解釋性就可以融入到深度學(xué)習(xí)等現(xiàn)代的人工智能技術(shù)中。
尋求實(shí)現(xiàn)模型的完全精確必然要犧牲可解釋性。要容易看出人工智能模型中出現(xiàn)什么問(wèn)題,并且知道如何應(yīng)對(duì)這些問(wèn)題,通過(guò)這種方法來(lái)實(shí)施人工智能算法,這是一個(gè)更好的目標(biāo)。理解模型的缺點(diǎn)并管理這些缺點(diǎn)對(duì)于某些企業(yè)來(lái)說(shuō)至關(guān)重要。企業(yè)可以構(gòu)建可解釋的復(fù)雜模型。
有很多問(wèn)題可以影響到可解釋的人工智能。例如,監(jiān)管就是一個(gè)因素,還有企業(yè)還需要考慮做出可能影響到客戶的決策。
另外,考慮模型的相關(guān)性也很重要。例如,用秋季數(shù)據(jù)創(chuàng)建的模型可能運(yùn)行良好,但是在其它季節(jié),其準(zhǔn)確性就低了。專家可以憑借經(jīng)驗(yàn)來(lái)理解這些趨勢(shì),可以查看模型,并且看出模型中的某個(gè)變量的影響是否重要,是否存在弱點(diǎn),可以知道如何解決這個(gè)問(wèn)題。
很多情況下,我們會(huì)發(fā)現(xiàn)用樣本數(shù)據(jù)可以很好地運(yùn)行一個(gè)模型時(shí),在生產(chǎn)中卻發(fā)生故障。例如,我們可以發(fā)現(xiàn)一個(gè)以前被忽視的卻需要進(jìn)一步探索的關(guān)聯(lián),通過(guò)進(jìn)一步的分析,卻發(fā)現(xiàn)這僅僅是一個(gè)數(shù)據(jù)問(wèn)題。只有在模型是可解釋的并且我們能夠看出問(wèn)題出自哪里時(shí),這種類型的數(shù)據(jù)問(wèn)題才如此明顯。
我們應(yīng)對(duì)的是大型的數(shù)據(jù)集,而且有時(shí)也不知道數(shù)據(jù)是否干凈。因而,可解釋的人工智能不僅僅是關(guān)于構(gòu)建更好的模型問(wèn)題,而且還要確認(rèn)所收集的數(shù)據(jù)集的問(wèn)題。
舉例說(shuō)明,如果消費(fèi)者想要借錢,公平的借貸法律都要求債權(quán)人向消費(fèi)者提供資金或以易于理解的方式解釋其選擇不貸款的理由。其中的目的是保證公平,但這也使消費(fèi)者有機(jī)會(huì)對(duì)債權(quán)人的決定提出異議。
債權(quán)人使用人工智能模型做出批準(zhǔn)貸款的決定往往基于一種結(jié)果的概率。如果某些因素低于一個(gè)臨界值,貸款申請(qǐng)將被拒絕。然后,債權(quán)人需要看一下為什么拒絕??山忉屝砸箨P(guān)注影響這個(gè)決定的因素。實(shí)際上,即使監(jiān)管機(jī)構(gòu)沒(méi)有要求這樣做,這種透明性仍非常重要。
可解釋的人工智能和可解釋性是相關(guān)的觀念,但并不完全是同義詞。前者與變量變化時(shí)對(duì)即將發(fā)生事情的預(yù)測(cè)能力有關(guān)。可解釋性描述的是借助用戶語(yǔ)言表示一個(gè)模型底層機(jī)制的能力。
對(duì)于人工智能而言,可解釋性有著不同的層次,而不同的應(yīng)用需要不同程度的可解釋性,這種程度的具體依據(jù)是這個(gè)解釋針對(duì)哪類用戶。
消費(fèi)者希望知道其財(cái)務(wù)行為的哪些方面影響到了貸款決策。向消費(fèi)者解釋基本貸款決策的一種方法可能是關(guān)注模型中最關(guān)鍵的相關(guān)性,對(duì)貸款決策影響最大的相關(guān)性。例如,消費(fèi)者不能夠及早還款可能是影響拒絕貸款的最大因素。
另一種水平的可解釋性在于說(shuō)服公司的董事會(huì)采用新模型。事實(shí)上,從高管已經(jīng)同意的事情開始是很有用的。 例如,在美國(guó)的信貸行業(yè),高管們習(xí)慣將FICO信用評(píng)分與貸款風(fēng)險(xiǎn)聯(lián)系起來(lái)。在一個(gè)人的信用評(píng)分降至720以下之前,這個(gè)分?jǐn)?shù)都可以進(jìn)行很好的預(yù)測(cè)。當(dāng)然,信貸公司還可以使用其他變量來(lái)提高預(yù)測(cè)此類客戶貸款風(fēng)險(xiǎn)的準(zhǔn)確性。展示這些更復(fù)雜的模型在與傳統(tǒng)模型對(duì)比時(shí)的表現(xiàn),可以更容易地向財(cái)務(wù)主管解釋更好的模型如何影響業(yè)務(wù)。當(dāng)然,在更高層面上,數(shù)據(jù)專家在決定一個(gè)新模型的價(jià)值時(shí),需要考慮更細(xì)微的差別。
總體而言,可解釋的人工智能在除合規(guī)之外的很多方面都可帶來(lái)益處。