Tim OBrien
2018年,微軟發(fā)表了《未來計算》(The Future Computed)一書,其中提出了人工智能開發(fā)的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。
首先是公平性。公平性是指對人而言,不同區(qū)域的人、不同等級的所有人在AI面前是平等的,不應(yīng)該有人被歧視。
人工智能數(shù)據(jù)的設(shè)計均始于訓(xùn)練數(shù)據(jù)的選擇,這是可能產(chǎn)生不公的第一個環(huán)節(jié)。訓(xùn)練數(shù)據(jù)應(yīng)該足以代表我們生存的多樣化的世界,至少是人工智能將運行的那一部分世界。以面部識別、情緒檢測的人工智能系統(tǒng)為例,如果只對成年人臉部圖像進(jìn)行訓(xùn)練,這個系統(tǒng)可能就無法準(zhǔn)確識別兒童的特征或表情。
確保數(shù)據(jù)的“代表性”還不夠,種族主義和性別歧視也可能悄悄混入社會數(shù)據(jù)。假設(shè)我們設(shè)計一個幫助雇主篩選求職者的人工智能系統(tǒng),如果用公共就業(yè)數(shù)據(jù)進(jìn)行篩選,系統(tǒng)很可能會“學(xué)習(xí)”到大多數(shù)軟件開發(fā)人員為男性,在選擇軟件開發(fā)人員職位的人選時,該系統(tǒng)就很可能偏向男性,盡管實施該系統(tǒng)的公司想要通過招聘提高員工的多樣性。
如果人們假定技術(shù)系統(tǒng)比人更少出錯、更加精準(zhǔn)、更具權(quán)威,也可能造成不公。許多情況下,人工智能系統(tǒng)輸出的結(jié)果是一個概率預(yù)測,比如“申請人貸款違約概率約為70%”,這個結(jié)果可能非常準(zhǔn)確,但如果貸款管理人員將“70%的違約風(fēng)險”簡單解釋為“不良信用風(fēng)險”,拒絕向所有人提供貸款,那么就有三成的人雖然信用狀況良好,貸款申請也被拒絕,導(dǎo)致不公。因此,我們需要對人進(jìn)行培訓(xùn),使其理解人工智能結(jié)果的含義和影響,彌補人工智能決策中的不足。
第二是可靠性和安全性。它指的是人工智能使用起來是安全的、可靠的,不作惡的。
目前全美熱議的一個話題是自動駕駛車輛的問題。之前有新聞報道,一輛行駛中的特斯拉系統(tǒng)出現(xiàn)了問題,車輛仍然以每小時70英里的速度在高速行駛,但是駕駛系統(tǒng)已經(jīng)死機,司機無法重啟自動駕駛系統(tǒng)。
想象一下,如果你要發(fā)布一個新藥,它的監(jiān)管、測試和臨床試驗會受到非常嚴(yán)格的監(jiān)管流程。但是,為什么自動駕駛車輛的系統(tǒng)安全性完全是松監(jiān)管甚至是無監(jiān)管的?這就是一種對自動化的偏見,指的是我們過度相信自動化。這是一個很奇怪的矛盾:一方面人類過度地信賴機器,但是另一方面其實這與人類的利益是沖突的。
另一個案例發(fā)生在舊金山,一個已經(jīng)喝暈了的特斯拉車主直接進(jìn)到車?yán)锎蜷_了自動駕駛系統(tǒng),睡在車?yán)?,然后這輛車就自動開走了。這個特斯拉的車主覺得,“我喝醉了,我沒有能力繼續(xù)開車,但是我可以相信特斯拉的自動駕駛系統(tǒng)幫我駕駛,那我是不是就不違法了?”但事實上這也屬于違法的行為。
可靠性、安全性是人工智能非常需要關(guān)注的一個領(lǐng)域。自動駕駛車只是其中一個例子,它涉及到的領(lǐng)域也絕不僅限于自動駕駛。
第三是隱私和保障,人工智能因為涉及到數(shù)據(jù),所以總是會引起個人隱私和數(shù)據(jù)安全方面的問題。
美國一個非常流行的健身的App叫Strava,比如你騎自行車,騎行的數(shù)據(jù)會上傳到平臺上,在社交媒體平臺上有很多人就可以看到你的健身數(shù)據(jù)。問題隨之而來,有很多美國軍事基地的在役軍人也在鍛煉時用這個應(yīng)用,他們鍛煉的軌跡數(shù)據(jù)全部上傳了,整個軍事基地的地圖數(shù)據(jù)在平臺上就都有了。美國軍事基地的位置是高度保密的信息,但是軍方從來沒想到一款健身的App就輕松地把數(shù)據(jù)泄露出去了。
第四是人工智能必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。
舉個領(lǐng)英的例子,他們有一項服務(wù)叫“領(lǐng)英經(jīng)濟圖譜搜索”。領(lǐng)英、谷歌和美國一些大學(xué)聯(lián)合做過一個研究,研究通過領(lǐng)英實現(xiàn)職業(yè)提升的用戶中是否存在性別差異?這個研究主要聚焦了全美排名前20 MBA的一些畢業(yè)生,他們在畢業(yè)之后會在領(lǐng)英描述自己的職業(yè)生涯,他們主要是對比這些數(shù)據(jù)。研究的結(jié)論是,至少在全美排名前20的MBA的畢業(yè)生中,存在自我推薦上的性別差異。如果你是一個男性的MBA畢業(yè)生,通常你在毛遂自薦的力度上要超過女性。
如果你是一個公司負(fù)責(zé)招聘的人,登錄領(lǐng)英的系統(tǒng),就會有一些關(guān)鍵字域要選,其中有一頁是自我總結(jié)。在這一頁上,男性對自己的總結(jié)和評估通常都會高過女性,女性在這方面對于自我的評價是偏低的。所以,作為一個招聘者,在招聘人員的時候其實要獲得不同的數(shù)據(jù)信號,要將這種數(shù)據(jù)信號的權(quán)重降下來,才不會干擾對應(yīng)聘者的正常評估。
但是,這又涉及到一個程度的問題,這個數(shù)據(jù)信號不能調(diào)得過低,也不能調(diào)得過高,要有一個正確的度。數(shù)據(jù)能夠為人類提供很多的洞察力,但是數(shù)據(jù)本身也包含一些偏見。那我們?nèi)绾螐娜斯ぶ悄?、倫理的角度來更好地把握這樣一個偏見的程度,來實現(xiàn)這種包容性,這就是我們說的人工智能包容性的內(nèi)涵。
在這四項價值觀之下還有兩項重要的原則:透明度和問責(zé)制,它們是所有其他原則的基礎(chǔ)。
第五是透明度。在過去十年,人工智能領(lǐng)域突飛猛進(jìn)最重要的一個技術(shù)就是深度學(xué)習(xí),深度學(xué)習(xí)是機器學(xué)習(xí)中的一種模型,我們認(rèn)為至少在現(xiàn)階段,深度學(xué)習(xí)模型的準(zhǔn)確度是所有機器學(xué)習(xí)模型中最高的,但在這里存在一個它是否透明的問題。透明度和準(zhǔn)確度無法兼得,你只能在二者權(quán)衡取舍,如果你要更高的準(zhǔn)確度,你就要犧牲一定的透明度。
在李世石和AlphaGo的圍棋賽中就有這樣的例子,AlphaGo打出的很多手棋事實上是人工智能專家和圍棋職業(yè)選手根本無法理解的。如果你是一個人類棋手,你絕對不會下出這樣一手棋。所以到底人工智能的邏輯是什么,它的思維是什么,人類目前不清楚。
所以我們現(xiàn)在面臨的問題是,深度學(xué)習(xí)的模型很準(zhǔn)確,但是它存在不透明的問題。如果這些模型、人工智能系統(tǒng)不透明,就有潛在的不安全問題。
為什么透明度這么重要?舉個例子,20世紀(jì)90年代在卡耐基梅隆大學(xué),有一位學(xué)者在做有關(guān)肺炎方面的研究,其中一個團隊做基于規(guī)則的分析,幫助決定患者是否需要住院?;谝?guī)則的分析準(zhǔn)確率不高,但由于基于規(guī)則的分析都是人類能夠理解的一些規(guī)則,因此透明性好。他們“學(xué)習(xí)”到哮喘患者死于肺炎的概率低于一般人群。
然而,這個結(jié)果顯然違背常識,如果一個人既患有哮喘,也患有肺炎,那么死亡率應(yīng)該是更高的。這個研究“學(xué)習(xí)”所得出的結(jié)果,其原因在于,一個哮喘病人由于常常會處于危險之中,一旦出現(xiàn)癥狀,他們的警惕性更高、接受的醫(yī)護(hù)措施會更好,因此能更快得到更好的醫(yī)療。這就是人的因素,如果你知道你有哮喘,你就會迅速采取應(yīng)急措施。
人的主觀因素并沒有作為客觀的數(shù)據(jù)放在訓(xùn)練模型的數(shù)據(jù)圖中,如果人類能讀懂這個規(guī)則,就可以對其進(jìn)行判斷和校正。但如果它不是基于規(guī)則的模型,不知道它是通過這樣的規(guī)則來判斷,是一個不透明的算法,它得出了這個結(jié)論,人類按照這個結(jié)論就會建議哮喘患者不要住院進(jìn)行治療,這顯然是不安全的。
所以,當(dāng)人工智能應(yīng)用于一些關(guān)鍵領(lǐng)域,比如醫(yī)療領(lǐng)域、刑事執(zhí)法領(lǐng)域的時候,我們一定要非常小心。比如某人向銀行申請貸款,銀行拒絕批準(zhǔn)貸款,這個時候作為客戶就要問為什么,銀行不能說我是基于人工智能,它必須給出一個理由。
第六是問責(zé)。人工智能系統(tǒng)采取了某個行動,做了某個決策,就必須為自己帶來的結(jié)果負(fù)責(zé)。人工智能的問責(zé)制是一個非常有爭議的話題,我們還是回到自動駕駛車上進(jìn)行討論。確實,它還涉及到一個法律或者立法的問題。在美國已經(jīng)出現(xiàn)多例因為自動駕駛系統(tǒng)導(dǎo)致的車禍。如果是機器代替人來進(jìn)行決策、采取行動出現(xiàn)了不好的結(jié)果,到底是誰來負(fù)責(zé)?我們的原則是要采取問責(zé)制,當(dāng)出現(xiàn)了不好的結(jié)果,不能讓機器或者人工智能系統(tǒng)當(dāng)替罪羊,人必須是承擔(dān)責(zé)任的。
但現(xiàn)在的問題是我們不清楚基于全世界的法律基礎(chǔ)而言,到底哪個國家具備能力處理類似案件的能力。(美國)很多案件的裁決是基于“判例法”進(jìn)行判定的,但是對于這樣一些案例,我們沒有先例可以作為法庭裁決的法律基礎(chǔ)。
其實,不光是自動駕駛,還有其他很多領(lǐng)域,比如刑事案件問題,還有涉及軍事領(lǐng)域的問題?,F(xiàn)在有很多的武器已經(jīng)自動化或者是人工智能化了,如果是一個自動化的武器殺傷了人類,這樣的案件應(yīng)該如何裁定?
這就要牽涉到法律中的法人主體的問題,人工智能系統(tǒng)或全自動化系統(tǒng)是否能作為法人主體存在?它會帶來一系列的法律的問題:首先,人工智能系統(tǒng)是否可以判定為是一個法律的主體?如果你判定它是一個法律的主體,那就意味著人工智能系統(tǒng)有自己的權(quán)力,也有自己的責(zé)任。如果它有權(quán)力和責(zé)任,就意味著它要對自己的行為負(fù)責(zé),但是這個邏輯鏈?zhǔn)欠癯闪ⅲ咳绻鳛橐粋€法律主體存在,那么它要承擔(dān)相應(yīng)的責(zé)任,也享有接受法律援助的權(quán)利。因此,我們認(rèn)為法律主體一定要是人類。
(作者為微軟人工智能項目總經(jīng)理;編輯:韓舒淋)