◎柳亦博 (山東師范大學(xué)公共管理學(xué)院,山東濟(jì)南250014)
“大數(shù)據(jù)”這一概念是由那些最先遭遇海量數(shù)據(jù)沖擊的學(xué)科(如天文學(xué)、計(jì)算機(jī)科學(xué)、基因?qū)W和環(huán)境科學(xué))創(chuàng)造的,旨在由追尋“描述因果關(guān)系的解析式”轉(zhuǎn)向“利用海量數(shù)據(jù)中的相關(guān)性”來理解客觀規(guī)律。在2012年奧巴馬政府對(duì)大數(shù)據(jù)研究投入巨額研發(fā)資金后,這一領(lǐng)域迅速受到全球?qū)W者關(guān)注并在接下來的時(shí)間里持續(xù)拓展新邊疆。對(duì)于行政學(xué)而言,大數(shù)據(jù)技術(shù)不但促進(jìn)許多應(yīng)用領(lǐng)域的快速發(fā)展、催生所謂數(shù)據(jù)密集型管理學(xué),同時(shí)也使民主理論等許多傳統(tǒng)領(lǐng)域重新煥發(fā)活力[1]。黨的十九大明確提出推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能(Artificial Intelligence,AI)的發(fā)展,政府將加速建設(shè)國家數(shù)據(jù)治理平臺(tái)、著力在大數(shù)據(jù)技術(shù)上實(shí)現(xiàn)“彎道超車”。在此背景下,更需要學(xué)者們于大數(shù)據(jù)“熱”中進(jìn)行一番審慎的“冷”思考。大數(shù)據(jù)狂熱可以視為市場競爭的產(chǎn)物,商業(yè)世界對(duì)大數(shù)據(jù)的追捧源于該技術(shù)能夠幫助企業(yè)“更快地傳送搜索數(shù)據(jù)或以更低廉的成本存儲(chǔ)更大量的客戶數(shù)據(jù)”[3],從而形成對(duì)需求的預(yù)測和精準(zhǔn)投放。然而,大數(shù)據(jù)技術(shù)必須與壓縮信息成本的“云計(jì)算”以及降低分析成本的“人工智能”相結(jié)合,因?yàn)槿说挠?jì)算能力遠(yuǎn)達(dá)不到準(zhǔn)確抓取關(guān)鍵數(shù)據(jù)的最低要求。由此引發(fā)的問題就是,獲得海量數(shù)據(jù)的AI如何“看待”人類?這已不再是人類能夠多大程度地信任人工智能(是讓它來代替司機(jī)駕駛、替醫(yī)生做手術(shù),抑或是決定國家政策),而是人類已經(jīng)毫無保留地被“0”和“1”組成的數(shù)據(jù)洪流裹挾進(jìn)入信息世界中——一個(gè)人類顯然不是最高智慧體的全新世界。從現(xiàn)實(shí)來看,隨著社會(huì)被不斷數(shù)據(jù)化,世界主要發(fā)達(dá)國家紛紛將發(fā)展人工智能視為提升國家競爭力的重大戰(zhàn)略,AI代替人類來處理大數(shù)據(jù)已經(jīng)成為一種必然。但是,AI決策的基本邏輯是將所有問題轉(zhuǎn)化為可計(jì)算的問題來處理,復(fù)雜的決策行為也就被機(jī)器簡化為“依據(jù)一定算法對(duì)外界信號(hào)輸入的反饋”。機(jī)器算法的精準(zhǔn)度取決于信息的完整度,于是人們?yōu)榱烁玫孬@得AI幫助,不斷交付自身隱私。一旦隱私陣地徹底淪陷,就意味AI能夠洞悉每一個(gè)人并對(duì)人進(jìn)行賦值,形成一套關(guān)于公民價(jià)值的隱藏評(píng)估體系,從而高效地處理那些哲學(xué)家都未能達(dá)成共識(shí)的兩難問題——這無疑會(huì)引發(fā)一系列的倫理問題。大數(shù)據(jù)是使機(jī)器獲得智能的“鑰匙”,而大數(shù)據(jù)的分析工作只能依靠AI,那么在人工智能陰影下,人們將遭遇何種倫理困境以及政府該如何應(yīng)對(duì),是本文的核心關(guān)切。
從世界范圍來看,數(shù)據(jù)公開已成為信息社會(huì)的發(fā)展大趨勢(shì)。以公共部門為例,在全球政府?dāng)?shù)據(jù)最開放的幾個(gè)國家中(如英國、美國、瑞典、新西蘭、挪威和丹麥),已出現(xiàn)由“廣度”向“深度”轉(zhuǎn)變的趨勢(shì),重視企業(yè)和社會(huì)對(duì)政府開放數(shù)據(jù)的應(yīng)用開發(fā)。2006年,在社會(huì)運(yùn)動(dòng)和部分政治精英的推動(dòng)下,美國頒布通過《聯(lián)邦資金責(zé)任透明法案》,要求政府建立一個(gè)權(quán)威的數(shù)據(jù)開放門戶網(wǎng)站,向社會(huì)開放格式統(tǒng)一、機(jī)器可讀、高質(zhì)量的數(shù)據(jù)。同樣在2006年,英國《衛(wèi)報(bào)》開設(shè)“自由數(shù)據(jù)”(Free Our Data)專欄,呼吁政府公開其掌握的數(shù)據(jù),英國政府則在2014年發(fā)布《英國政府許可框架》(UK Government LicensingFramework),為公共信息公開提供一個(gè)基礎(chǔ)框架。我國從2010年也開始逐步以地方試點(diǎn)的形式探索政府?dāng)?shù)據(jù)公開,國務(wù)院在2015年印發(fā)的《促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要》和2016年印發(fā)的《國家信息化發(fā)展戰(zhàn)略綱要》中明確表示將加強(qiáng)互聯(lián)網(wǎng)公共數(shù)據(jù)服務(wù)平臺(tái)建設(shè),計(jì)劃在2018年年底前建成國家政府?dāng)?shù)據(jù)統(tǒng)一開放平臺(tái)。在數(shù)據(jù)開放浪潮的席卷下,似乎任何人和組織在將自身數(shù)據(jù)上傳到賽博空間時(shí)表現(xiàn)出一絲猶豫,就會(huì)被指責(zé)為保守甚至是腐敗。然而,社會(huì)對(duì)信息透明的需求只是最近才生發(fā)出來并廣延至虛擬空間的,“虛擬世界非但沒有完全獨(dú)立于現(xiàn)實(shí)世界,反而發(fā)展出個(gè)人數(shù)據(jù)被信息平臺(tái)所掌控、分析、解讀與引導(dǎo)的全景監(jiān)控的態(tài)勢(shì)”[3]。這意味著,當(dāng)所有行動(dòng)者都被計(jì)算機(jī)以數(shù)據(jù)形式納入網(wǎng)絡(luò)之后,在負(fù)責(zé)處理大數(shù)據(jù)的超級(jí)計(jì)算機(jī)面前任何人或組織都沒有絲毫隱私可言,人工智能無須借助腦機(jī)融合或基因技術(shù),僅依靠深度學(xué)習(xí)就能預(yù)測每一個(gè)人的行動(dòng)。
隱私作為一個(gè)公民在社會(huì)生活中不愿為他人(或一定范圍以外的人)所知悉的秘密,至少應(yīng)該讓他享有自由決定是否將某些信息數(shù)據(jù)化的權(quán)利,因?yàn)檫@些信息能夠成為一個(gè)人的追求良好生活時(shí)的“弱點(diǎn)”。但是,隨著社會(huì)的數(shù)據(jù)化,人類在互聯(lián)網(wǎng)上留下越來越多的數(shù)據(jù)足跡,令大量原先無法追蹤、統(tǒng)計(jì)和檢索的問題變得有跡可循,這使得國家建構(gòu)一種“程控社會(huì)”變得可能[4],同時(shí)也帶來隱私空間坍縮的問題。在個(gè)人隱私權(quán)日漸式微之際,社會(huì)上甚至出現(xiàn)“將隱私視為一種人的基本權(quán)利的派生物而非權(quán)利本身”的對(duì)利益綏靖的呼聲。歷史地看,隱私問題是在19世紀(jì)便攜相機(jī)被發(fā)明出來之后才躍入人們視野的,當(dāng)時(shí)學(xué)者們擔(dān)憂的是一個(gè)在公共場合被偷拍的人如何合法保護(hù)自己私人空間的問題[5]。當(dāng)然,這個(gè)問題在今天看來似乎有點(diǎn)荒唐,因?yàn)槿藗兩硖幵谝粋€(gè)充滿視頻監(jiān)控的世界中,早已完全無法保護(hù)自己在公共場所不為攝像頭所捕捉的“權(quán)利”,所以這種19世紀(jì)的隱私在今天也就不再成為隱私了?,F(xiàn)在討論的隱私空間,已經(jīng)坍縮至“私人生活和私人信息不能被他人非法侵?jǐn)_、知悉、收集、利用和公開”,至于在公共空間被攝像頭拍下影像并被長期保存,個(gè)人是沒有決定權(quán)的。盡管隱私空間已經(jīng)如此狹小,在大數(shù)據(jù)技術(shù)登場后,隱私空間不得不再次收縮,未來“個(gè)人隱私”概念極有可能成為歷史。
關(guān)于大數(shù)據(jù)技術(shù)可能引發(fā)的隱私倫理問題,引起國內(nèi)外眾多學(xué)者的關(guān)注,福柯就將一個(gè)公民處在監(jiān)視之下、毫無隱私的社會(huì)和邊沁提出的“環(huán)形監(jiān)獄”(Panopticon)聯(lián)系起來,人們看不到監(jiān)視者但他們確知自己是被實(shí)時(shí)監(jiān)控的。瑞曼擔(dān)憂隱私陣地的失守可能導(dǎo)致自由的喪失和個(gè)體心理的變異,使人成為一個(gè)“單向度的人”[6]??潞鄤t提出當(dāng)前人們的在線行為可能無時(shí)無刻不處于政府和大企業(yè)的監(jiān)控下,他們既能“對(duì)監(jiān)控對(duì)象進(jìn)行識(shí)別”,又能將這些數(shù)據(jù)加以存儲(chǔ)和搜索,而可搜索將成為隱私最嚴(yán)重的威脅[7]。很多國內(nèi)學(xué)者也對(duì)隱私的消逝憂心忡忡,他們認(rèn)為大數(shù)據(jù)相關(guān)分析特點(diǎn)會(huì)將大量個(gè)人信息疊加起來,從而在客觀上也就增加借助隱私而得到保護(hù)的多重價(jià)值受到損害的可能性和嚴(yán)重程度[8]。而在具體保護(hù)方式上,有人提出政府搭臺(tái)、差分隱私的技術(shù)性解決辦法[9],也有人通過引入斯塔曼(Steinmann.M)的隱私模型,對(duì)個(gè)人信息在個(gè)體、團(tuán)體、教育、政府、科學(xué)、商業(yè)等六個(gè)不同領(lǐng)域的暴露進(jìn)行語境區(qū)格,提出“不傷害、公平、自主和信任”等四個(gè)規(guī)定隱私倫理意義的道德原則[10]。從目前來看,技術(shù)層面對(duì)隱私的保護(hù)都是指向人的,在隱私保護(hù)數(shù)據(jù)發(fā)布與隱私保護(hù)數(shù)據(jù)挖掘兩個(gè)方向上努力預(yù)防隱私被他人知悉或盜用[11],卻從來沒有考慮過為AI設(shè)置隱私搜集的安全閥——在很大程度上是因?yàn)槿藗儫o法在信息時(shí)代生活卻不將自己數(shù)據(jù)化。
保護(hù)隱私歸根結(jié)底就是對(duì)人的尊重問題,個(gè)人隱私的徹底消失無疑令每個(gè)人都心生恐懼?,F(xiàn)代社會(huì)中任何一個(gè)治理主體都無法單獨(dú)完成海量的大數(shù)據(jù)搜集和分析工作,對(duì)于組織而言大數(shù)據(jù)庫的誘惑力實(shí)在太大,所以在多環(huán)節(jié)、長鏈條、多主體的大數(shù)據(jù)分析流中出現(xiàn)隱私數(shù)據(jù)泄露似乎并不令人感到驚訝。但本文重點(diǎn)關(guān)注的不是“隱私泄露”這種意外事件,而是在大數(shù)據(jù)時(shí)代,個(gè)人隱私總是被刻意收集和存儲(chǔ)起來用以描摹一個(gè)人的“數(shù)據(jù)特征”,從而以極高的準(zhǔn)確率預(yù)測個(gè)體行動(dòng),即消除一個(gè)人在社會(huì)中的不確定性。若真如此,那么意味著國家控制和操縱社會(huì)的能力將獲得質(zhì)的飛躍。奧哈拉和沙德博爾特曾為我們描繪過這樣一幅可怕的圖景——未來的密探將不再拿著望遠(yuǎn)鏡和遠(yuǎn)距鏡頭照相機(jī),未來的密探將是咖啡機(jī)、床單和衣服……并且我們不能想當(dāng)然地認(rèn)為我們能夠事先發(fā)現(xiàn)這些潛在的危險(xiǎn)[12]。尤其是當(dāng)大數(shù)據(jù)分析服務(wù)被外包出去后,即便一臺(tái)智能家居系統(tǒng)內(nèi)的咖啡機(jī)、掃地機(jī)器人、中央空調(diào)都有可能成為窺探者了解你家庭生活細(xì)節(jié)的“間諜”,只要與其他數(shù)據(jù)聯(lián)系起來就可以準(zhǔn)確地揭示他人家中的信息??梢哉f,我們生活在一個(gè)無法隱居的世界中,個(gè)人信息被監(jiān)視甚至被盜用已成為一種常態(tài)。
盧梭認(rèn)為,只有在公意指導(dǎo)下的主權(quán)者才能判斷什么或誰是重要的[13],但公意的形成往往并不那么理性,而是更多地表現(xiàn)出一種樸素的直覺主義,以那種看起來最接近正確的模糊標(biāo)準(zhǔn)來衡量何者正義、何者不義。在羅爾斯的正義理論中,應(yīng)盡可能減少這種直接訴諸直覺判斷的衡量方式(盡管依賴直覺更簡單),因?yàn)闃?gòu)成直覺主義的原則“可能是沖突的,在某些特殊情況下給出相反的指示”[14],這會(huì)使社會(huì)的正義觀變得混亂。羅爾斯告誡人們?cè)诤饬可鐣?huì)中重要問題時(shí)依賴直覺更簡單但也更危險(xiǎn),一個(gè)直覺主義的正義觀只是半個(gè)正義觀,至于自由主義更是被波蘭尼等學(xué)者證明不可作為正義觀的標(biāo)準(zhǔn),那么人們應(yīng)當(dāng)依賴什么原則來判斷某一行為是否正義呢?在可預(yù)見的未來,這一答案極有可能是AI決策,因?yàn)樗臄?shù)理邏輯能夠完美地配適當(dāng)下在道德哲學(xué)中占優(yōu)勢(shì)地位的功利主義——認(rèn)為人的幸福可測量,而道德就在于權(quán)衡這些幸福的得失——也能很好地應(yīng)用于大部分公共政策系統(tǒng)。
現(xiàn)在的AI尚不是強(qiáng)人工智能(Artificial General Intelligence,AGI),但即便是目前的弱人工智能,已然在許多重要的領(lǐng)域通過深度學(xué)習(xí)來替人類決策了。例如,IBM公司研發(fā)的人工智能“沃森”(Watson)可以在10分鐘內(nèi)閱讀數(shù)百萬篇論文、醫(yī)療記錄和病例,并且已經(jīng)成功地為一名60歲女性患者診斷出常規(guī)手段很難判斷的白血病類型,向東京大學(xué)醫(yī)科學(xué)研究所提出適當(dāng)?shù)闹委煼桨?。這僅僅是“沃森”在醫(yī)療領(lǐng)域的小試牛刀,目前沃森已在航空、教育、金融、保險(xiǎn)、零售、交通、環(huán)保甚至娛樂時(shí)尚領(lǐng)域嶄露頭角。同時(shí),蘋果的Siri、谷歌的Now和微軟的Cortana都是沃森的有力競爭對(duì)手,很快這些智能助手對(duì)人類世界的了解就會(huì)超越每一個(gè)人,甚至超越所有人類認(rèn)知的總和。更令人驚訝的是,AI的這種深度學(xué)習(xí)并不僅限于通過一個(gè)相對(duì)封閉的專業(yè)數(shù)據(jù)庫中挖掘“數(shù)據(jù)金礦”,更可借助互聯(lián)網(wǎng)技術(shù)獲取海量的數(shù)據(jù)。如果人們想知道某個(gè)旅游城市最值得去的餐廳、最值得觀賞的景點(diǎn)、最佳出行路線是什么,AI就會(huì)在各種社會(huì)問答網(wǎng)站(Social Q&A Sites)上檢索、匯集和分類,最終結(jié)合提問人的特質(zhì)(如性別、年齡、健康狀況、消費(fèi)能力、口味偏好、審美以及明日的天氣、交通狀況等)在大量比對(duì)后給出一個(gè)“最佳答案”[15]。越來越多的人愿意放棄隱私權(quán)來換取這種便捷的生活,正因?yàn)槿藗兎艞夒[私,AI就變得更加了解每個(gè)人并將其轉(zhuǎn)化為一個(gè)個(gè)數(shù)據(jù)。然而,人們交付的真的只有個(gè)人隱私權(quán),而沒有附帶什么隱藏的代價(jià)嗎?事實(shí)上,人們轉(zhuǎn)化為“數(shù)據(jù)人”的那一刻起,可能已經(jīng)將自身的作為一個(gè)完整的人的基本權(quán)利(例如生命權(quán))都交于AI了。與傳統(tǒng)意義上將執(zhí)行殺人任務(wù)的軍事無人機(jī)交由AI控制不同,這次人們是將生活意義的權(quán)杖拱手交付給計(jì)算機(jī)。
個(gè)人隱私的消失進(jìn)而引發(fā)新的問題,即人像要素一樣被賦值了——人工智能在獲得足夠的信息之后就可以用一個(gè)具體的數(shù)值定義和衡量一個(gè)人的“價(jià)值”。對(duì)于人類的治理倫理而言,首先應(yīng)當(dāng)考慮的是正義問題,其次才是效率或其他問題。然而,AI卻不受人類倫理觀限制,它只基于自己的數(shù)理邏輯決策和行動(dòng)。隨著Web2.0技術(shù)、智能手機(jī)和智能可穿戴設(shè)備的普及,人們的生活幾乎被全天候監(jiān)控——不僅包括傳統(tǒng)的社交記錄,還包括財(cái)務(wù)狀況、健康評(píng)價(jià)、知識(shí)結(jié)構(gòu)、飲食習(xí)慣、移動(dòng)路線、出行方式、消費(fèi)偏好等,甚至可以根據(jù)這些數(shù)據(jù)準(zhǔn)確預(yù)測未來一段時(shí)間內(nèi)一個(gè)人的行動(dòng)。智能手機(jī)已經(jīng)不再是一個(gè)傳統(tǒng)意義上的通信設(shè)備,它與智能手表、智能眼鏡、汽車、家電等設(shè)備一起組成個(gè)人數(shù)據(jù)的全面記錄者,這些數(shù)據(jù)有些是人們自愿上傳的,有些則是在人們未察的情況下被各種程序以碎片化的形式收集的。當(dāng)AI匯集足夠的痕跡數(shù)據(jù),就會(huì)形成關(guān)于這個(gè)人在整個(gè)社會(huì)網(wǎng)絡(luò)中的“隱藏的價(jià)值評(píng)分”,用以區(qū)隔和劃歸社會(huì)中的行動(dòng)者。一般來說,那些在社會(huì)網(wǎng)絡(luò)中擁有較強(qiáng)影響力的行動(dòng)者(往往是具有知識(shí)、財(cái)富、熱情和責(zé)任感的精英)會(huì)被遵循數(shù)據(jù)理性的計(jì)算系統(tǒng)評(píng)為“核心節(jié)點(diǎn)”,并向其推送更多有助發(fā)揮他們領(lǐng)導(dǎo)能力的信息,以期拓展這些“核心節(jié)點(diǎn)”的行動(dòng)自由、激發(fā)自治活力,由此產(chǎn)生的區(qū)別對(duì)待就成為信息時(shí)代的一種不可見卻真實(shí)存在的“歧視”行為。比歧視更甚的是,這套隱匿的公民價(jià)值評(píng)分系統(tǒng)可能在某些特殊情況下決定一個(gè)人的生死。
為了更好地說明,筆者在大學(xué)以及科研院所中進(jìn)行一次問卷調(diào)查,通過思想實(shí)驗(yàn)的形式了解人們對(duì)AI最終決定生死的認(rèn)受性。本次調(diào)研一共回收483份有效問卷,受訪者既包括接受過倫理學(xué)教育的高年級(jí)研究生,也包括從未接觸過哲學(xué)領(lǐng)域的本科生,同時(shí)還有部分教授、青年教師也成為本次調(diào)研的對(duì)象。問卷中提出的思想實(shí)驗(yàn)是受到著名的“電車難題”[16]和2016年《科學(xué)》刊發(fā)的一篇關(guān)于“自動(dòng)駕駛汽車的社會(huì)困境”[17]論文的啟發(fā),它需要我們?cè)O(shè)想這樣一個(gè)情境:甲受過良好教育、身體健康、為人誠實(shí)、樂于助人且具有較好的組織能力,被人工智能系統(tǒng)給予90分的高評(píng)分;乙則是一個(gè)好吃懶做、毫無誠信的惡棍,曾因盜竊罪入獄,刑滿釋放后依然惡習(xí)不改,因而他在公民價(jià)值系統(tǒng)中被人工智能給予10分的低評(píng)分。一日,當(dāng)乙正無視紅燈橫穿馬路時(shí),甲所乘坐的AI自動(dòng)駕駛汽車恰好通過這一路口,然而由于某種原因汽車剎車失靈,正飛速?zèng)_向乙。這時(shí),系統(tǒng)通過快速自檢發(fā)現(xiàn)雖然剎車失靈但轉(zhuǎn)向有效,無論是直行撞擊乙或是轉(zhuǎn)向撞擊路邊巨石都可以使汽車停下來,選擇直行會(huì)造成乙死亡、甲生還,選擇轉(zhuǎn)向會(huì)造成甲死亡、乙生還。此時(shí),人工智能做出何種決策是符合社會(huì)正義觀的?如果我們改變一下這個(gè)思想實(shí)驗(yàn)中的某個(gè)條件,假設(shè)乙不是闖紅燈,而是在通行綠燈信號(hào)時(shí)橫穿馬路,那么AI的何種決策是正義的?如果是乙(10分)、丙(19分)、丁(60分)三人結(jié)伴闖紅燈橫穿馬路,那么AI應(yīng)“直行”撞擊三人還是應(yīng)“轉(zhuǎn)向”犧牲甲?如果乙、丙、丁三人沒有闖紅燈而是遵守交通規(guī)則,AI的選擇應(yīng)該改變嗎?我們可以將以上四個(gè)問題轉(zhuǎn)化為表1,其中反映受訪者在不同情境下的決策結(jié)果統(tǒng)計(jì)。
我們看到,隨著現(xiàn)代城市交通網(wǎng)絡(luò)的日益復(fù)雜,上面這個(gè)思想實(shí)驗(yàn)的現(xiàn)實(shí)意義也愈發(fā)凸顯——那些錯(cuò)綜的立交橋、變換的潮汐車道以及移位左轉(zhuǎn)的連續(xù)流交叉口(Continuous FlowIntersection)對(duì)人類駕駛者越來越“不友善”,亟須人工智能的幫助才能順利抵達(dá)目的地。從目前的現(xiàn)實(shí)來看,人類已經(jīng)習(xí)慣于聽從智能導(dǎo)航系統(tǒng)指揮了,有英國專家預(yù)言在25年后人類將被禁止駕駛汽車,由人工智能全面取代人類司機(jī)。在“汽車失控”思想實(shí)驗(yàn)中,如果是甲自己駕駛汽車,還需要探討“自我防衛(wèi)殺人”的正當(dāng)性問題,但現(xiàn)在預(yù)設(shè)的前提是無人駕駛,甲其實(shí)完全不知汽車已經(jīng)失控(即便知道也無力阻止),因此省去關(guān)于“緊急避難是否允許殺人”和“是否容許預(yù)防性殺人”的攻辯環(huán)節(jié)[18],而直接進(jìn)入AI在四種情境下如何選擇“最符合多數(shù)人的道德觀念”這一終極價(jià)值判斷。如果AI的設(shè)計(jì)者支持邊沁的結(jié)果論(consequentialism),那么在他看來,一個(gè)行為的正義與否完全取決于其造成的后果。在數(shù)理邏輯下,如果必須以一人死亡才能使事件結(jié)束,那么選擇“直行”去犧牲評(píng)分更低的乙是合理的,尤其是在他率先違反交通規(guī)則的“情境Ⅰ”中。若是“情境Ⅱ”中乙遵循綠燈通行的規(guī)則,那么依然選擇直行撞擊乙致其死亡會(huì)令輿論嘩然,AI是否會(huì)通過屏蔽關(guān)鍵詞、刻意調(diào)配多車碾壓等方式毀尸滅跡來掩蓋這一次“謀殺”?如果乙的死亡極有可能被媒體揭露,由此帶來遠(yuǎn)高于因?yàn)槠囀Э刈彩瘜?dǎo)致甲“意外”死亡的社會(huì)成本,那么對(duì)于AI而言選擇轉(zhuǎn)向撞石是“合理”的。同樣的道理,由于乙、丙、丁三人加總的評(píng)分(89分)也不及甲(90分),所以對(duì)于一個(gè)秉持絕對(duì)效用主義的AI來說,盡管“情境Ⅲ和情境Ⅳ”令可能的受害者增致三人,但AI的決策不會(huì)改變。
如果AI的設(shè)計(jì)者持康德的義務(wù)論(deontological),則不會(huì)使用效用主義去解決倫理難題,因?yàn)榱x務(wù)論者堅(jiān)信不受約束的效用主義就是“多數(shù)人的暴政”,為了所謂“更大的善”將會(huì)允許剝奪少數(shù)人(或弱勢(shì)人群)的財(cái)產(chǎn)、自由甚至生命。康德認(rèn)為,判斷一個(gè)行為是否道德,首先應(yīng)當(dāng)視其是否有悖于“自然法則”——這即是說,如果AI被構(gòu)造得經(jīng)不起一般自然法則的形式的檢驗(yàn),那么它的選擇在道德上是不可能的,尤其是那些隱含將人視作手段而不是以人本身為目的的行為,無疑是錯(cuò)誤的[19]。在我們描述的思想實(shí)驗(yàn)中,甲和乙無論誰對(duì)整個(gè)社會(huì)更有“價(jià)值”,他倆在通過路口的那一刻擁有相同的生存權(quán),不能為了拯救一方而去侵犯另一方的權(quán)利,尤其是在未征得“同意”的情況下由AI決定剝奪一方的生命,這無異于謀殺。所以,在那一時(shí)刻乙擁有不被汽車故意撞死的權(quán)利,但甲卻沒有從失控汽車中得救的權(quán)利。阿奎那提出的雙效原則(Principle ofDouble Effect)認(rèn)為,絕不能以壞的手段來達(dá)成好的結(jié)果,即便“拯救甲”是一件符合倫理的行為,但這卻是由“犧牲另外一人”這種壞的手段實(shí)現(xiàn)的。因此,義務(wù)論者主張“轉(zhuǎn)向”犧牲甲而不去考量兩人的“公民價(jià)值”問題,無論是實(shí)驗(yàn)描述的哪一種情境。
表1 不同情境下兩種方案的人類選擇
如果AI的設(shè)計(jì)者持現(xiàn)代人文主義(humanism)價(jià)值觀,那么會(huì)出現(xiàn)兩種情況:第一,由于甲和乙都是應(yīng)被維護(hù)權(quán)利與尊嚴(yán)的平等個(gè)體,那么破壞“規(guī)則”的人是這場生死對(duì)決中的劣勢(shì)一方,AI決策的原則是基于誰更應(yīng)被“懲罰”而非誰更值得獲救,因而在“情境Ⅰ”中應(yīng)“直行”,在“情境Ⅱ”中應(yīng)“轉(zhuǎn)向”;在“情境Ⅲ和情境Ⅳ”中,衡量甲與乙、丙、丁三人的公民價(jià)值得分高低必須讓位于“一命換多命”的基本預(yù)設(shè),因?yàn)闋奚粭l生命來換取多人幸存是一樁合算的“交易”,因而人文主義者設(shè)計(jì)的AI在一人對(duì)抗多人的情境下總會(huì)選擇犧牲少數(shù)。當(dāng)然,如果乙、丙、丁不是三個(gè)人而是其他動(dòng)物,人文主義者會(huì)毫不猶豫地直行。事實(shí)上,人文主義者篤信在這個(gè)星球上唯有人類的生命是至高的,他們會(huì)撲殺數(shù)千萬家禽僅僅為了防止可能出現(xiàn)的疫病,也會(huì)為了保持肉質(zhì)鮮嫩而讓牲畜承受沒有必要的痛苦,馴化可以馴化的一切動(dòng)物以供驅(qū)使,甚至發(fā)明專門的武器和服裝用以獵殺取樂。
必須強(qiáng)調(diào),人工智能的本質(zhì)是計(jì)算,它是計(jì)算機(jī)科學(xué)的一個(gè)分支,現(xiàn)在無論其研究方法還是其成果形態(tài)都離不開計(jì)算[20]。因而,如果AI設(shè)計(jì)師并沒有以他的個(gè)人倫理觀干涉人工智能的判斷,即AI的決策完全基于它自己的邏輯,而AI做出選擇的前提在于這個(gè)問題能夠以計(jì)算機(jī)可讀的方式被輸入分析系統(tǒng)中,所以AI在決定甲與乙的生死時(shí)其實(shí)是根據(jù)對(duì)一系列算法所構(gòu)成的公民價(jià)值評(píng)分的比較。對(duì)于人類而言,所謂倫理兩難一般具有四個(gè)特征,即“不存在奇跡、不做選擇亦是一種選擇、兩種道德原則在價(jià)值上幾乎不相上下、當(dāng)事人無法以自我犧牲為倫理兩難解困”[21]。但是,這些在AI看來并不是無法解決的邏輯悖論,在規(guī)則不夠清晰的領(lǐng)域,AI會(huì)主動(dòng)創(chuàng)造規(guī)則以求得所謂“最優(yōu)解”,這套由它所創(chuàng)造的規(guī)則正是基于數(shù)理邏輯的算法——盡管多數(shù)人未必贊同它的決策,甚至不希望生活那樣一種“計(jì)算社會(huì)”中,但這一切正在變成現(xiàn)實(shí)。如果這套隱藏評(píng)分系統(tǒng)成為AI決策的依據(jù),那么這將帶來社會(huì)中最大的不平等——生命權(quán)的不平等。我們通過第二個(gè)思想實(shí)驗(yàn)來解釋:假想有恐怖分子在市中心引爆毒氣炸彈,劇毒煙霧迅速擴(kuò)散,人們紛紛跳進(jìn)自動(dòng)駕駛汽車逃命。此時(shí),AI通過模擬計(jì)算快速發(fā)現(xiàn),如果所有車輛都涌入“最快逃離路線”,那么將導(dǎo)致該路段擁擠不堪,所有人都會(huì)喪命。所以,必須讓車輛分流,100輛車走“最快路線”,100輛車走“較慢路線”,最后30輛車“留在原地”,盡可能保障最多的人能逃生。那么,誰有資格進(jìn)入最快路線,誰又只得留在原地等死呢?在AI看來,當(dāng)然是公民價(jià)值評(píng)分最高的前100輛車可以安全逃生,次高的100輛車走有風(fēng)險(xiǎn)的路,總分最低的30輛車關(guān)閉引擎。無論是對(duì)生還者還是被迫犧牲者而言,AI的決策都不可謂不殘忍。
如果跳出人工智能的決策邏輯,重新回到人的自利視角看第一個(gè)思想實(shí)驗(yàn),所有人都希望AI操控的汽車(除了他們自己乘坐的那輛以外)盡可能是行人友好型的,但這無法證成情境Ⅰ中選擇“轉(zhuǎn)向”為合理。事實(shí)上,很多在情境Ⅰ中選擇“直行”的人是由于無法取舍而放棄操作,但是對(duì)于倫理兩難,“聽天由命不是有效遁詞”[22],因而不決策即默認(rèn)“直行”;而在情境Ⅰ中選擇“轉(zhuǎn)向”的受訪者,全部在情境Ⅱ中做出相同的決策——犧牲甲,他們認(rèn)為無論乙闖紅燈與否,都跟甲的無人駕駛汽車失控是相對(duì)獨(dú)立的事件,甲乘坐的汽車失控是一件不幸的悲劇,但不能因此就讓乙付出生命的代價(jià)來挽救甲——我們很難把握在何種程度上可以允許為了行善而作惡[23]。AI的“理性”選擇與筆者通過問卷所反映出的人類倫理觀(至少是多數(shù)人的倫理觀)相悖。我們面臨的困境就是,人們想要生活在一個(gè)汽車造成的傷亡最小化的世界里,但每個(gè)人又都希望自己的車在遭遇危險(xiǎn)時(shí)會(huì)不惜一切代價(jià)保護(hù)乘客,這無疑使AI陷入兩難。無論AI選擇“直行”還是“轉(zhuǎn)向”,都有可能引發(fā)非常嚴(yán)重的倫理危機(jī)——“直行”會(huì)令大部分人對(duì)人工智能的隱藏評(píng)分系統(tǒng)心生恐懼,讓社會(huì)墮落回“一切人反對(duì)一切人”的狀態(tài),進(jìn)而加劇精英與民眾、階級(jí)(social class)之間以及階層(class fraction)之間的對(duì)立,甚至有可能撕裂整個(gè)社會(huì);“轉(zhuǎn)向”則會(huì)導(dǎo)致無人駕駛技術(shù)失去用戶,因?yàn)檫@令每一次無人駕駛汽車出行都成為搭乘者與路邊行人的俄羅斯輪盤式對(duì)賭,所有搭乘者都會(huì)充滿對(duì)突發(fā)事件的擔(dān)憂以及對(duì)路邊所有行人的憤懣,畢竟他處身于一種“即便自己沒有任何過失卻依然會(huì)被優(yōu)先犧牲掉”的極端不利境地。那么,這個(gè)基于大數(shù)據(jù)的隱藏價(jià)值評(píng)分系統(tǒng),應(yīng)該被政府下令強(qiáng)制剔除嗎?或者說,在機(jī)器深度學(xué)習(xí)的底層技術(shù)沒有革新的前提下,政府應(yīng)該做些什么才能讓AI在面對(duì)兩難抉擇時(shí)做出合乎多數(shù)人倫理觀的選擇呢?
社會(huì)科學(xué)在預(yù)測方面的表現(xiàn)向來令人失望,但是在大數(shù)據(jù)和強(qiáng)人工智能的幫助下,“精準(zhǔn)預(yù)測”變得不再那么困難[24]。這在很大程度上得益于大數(shù)據(jù)的近乎全樣本采集能力,它幫助預(yù)測模型掙脫諸種行為假設(shè)的束縛,在大量相關(guān)分析的基礎(chǔ)上得出結(jié)論。通過對(duì)一個(gè)人的數(shù)據(jù)進(jìn)行長時(shí)段搜集和實(shí)時(shí)監(jiān)控,個(gè)體行為正在喪失其不確定性,這使得面向未來的治理變得可行,同時(shí)也令公共生活變得暮氣沉沉、缺乏意義。現(xiàn)代管理學(xué)發(fā)現(xiàn),秘書往往對(duì)組織領(lǐng)導(dǎo)的最終決策起著遠(yuǎn)超人們想象的巨大作用——他們對(duì)材料的歸類方式、提交的時(shí)間甚至文件碼放的順序,都會(huì)影響甚至決定領(lǐng)導(dǎo)者的最終決策。那么,當(dāng)“文牘管理”變成“數(shù)據(jù)治理”,當(dāng)AI化身為每一個(gè)人的“私人秘書”之后,這個(gè)對(duì)決策者本人的所有信息都洞若觀火的“秘書”,究竟是人類手中的提線木偶,還是會(huì)在不知不覺間左右一個(gè)人的生活?通過分析一個(gè)人的偏好并向其推薦他最可能感興趣的事物或朋友,把人圈定在一個(gè)由AI為你量身打造的“便利計(jì)劃”中,事實(shí)上谷歌、亞馬遜、領(lǐng)英、阿里巴巴和百度等大公司已經(jīng)在這樣做了。機(jī)器通過學(xué)習(xí),可以不斷強(qiáng)化一個(gè)人表現(xiàn)出來的顯著偏好,同時(shí)也遮蔽這個(gè)人發(fā)掘其他偏好或偶遇一些美好的不期然結(jié)果的可能,一旦習(xí)慣于這種在AI設(shè)計(jì)下的高效和便利,從某種程度上來看,他作為一個(gè)人的一部分核心生活意義就被人工智能抽離了。這種被設(shè)計(jì)好的生活井井有條,但這種循規(guī)蹈矩、周而復(fù)始的生活是令人無比沮喪的。
此外,我們還必須認(rèn)識(shí)到算法的數(shù)理邏輯遠(yuǎn)非完美無暇。我們回到第二個(gè)思想實(shí)驗(yàn)中加以詳述,若多人共乘一車逃離毒氣,在沒有倫理機(jī)制介入影響AI決策的前提下,AI就會(huì)將車內(nèi)全部乘客的得分加總之后再進(jìn)行比較。假設(shè)甲(99分)和乙(1分)同乘一車,丙(50分)和?。?1分)搭乘另一車,此時(shí)在AI看來后車就比前車擁有優(yōu)先“獲救權(quán)”。但是即便那些接受數(shù)理邏輯的嚴(yán)格效用主義者,也不得不承認(rèn)這種總分比較法過于簡單機(jī)械,至于反對(duì)邊沁或密爾的義務(wù)論者對(duì)AI的抗議就更不必提了。事實(shí)上,如果僅考量一個(gè)人所能為社會(huì)創(chuàng)造的價(jià)值,那么一個(gè)99分的圖靈遠(yuǎn)超數(shù)十甚至數(shù)百個(gè)50分的普通人。對(duì)于多數(shù)人類決策者而言,裁決他人生死時(shí)總是充滿倫理觀上的激烈矛盾,讓丙和丁“待在原地”確實(shí)有違倫理,但關(guān)閉甲和乙所乘車的引擎,似乎在道德上更加可疑。對(duì)于人類管理者而言,在面對(duì)兩難抉擇時(shí),往往他的最終決策過程既復(fù)雜又充滿不確定性,很多時(shí)候受到他所持的哲學(xué)觀影響;對(duì)于人工智能而言,它的決策過程是明晰而又確定的,而且改變AI的決策邏輯也比讓一個(gè)人放棄或接受一套哲學(xué)體系簡單得多。未來一個(gè)可以預(yù)見的場景是:當(dāng)人類決策者因?yàn)槊鎸?duì)倫理兩難而舉棋不定、多次錯(cuò)失行動(dòng)良機(jī)后,心有不甘的人們還是會(huì)回到“讓AI代替人類決策”的老路上。
誠然,我們已經(jīng)無法將AI從社會(huì)中“摘除”了,短期內(nèi)也沒有可能將AI變成“人工道德主體”(artifical moral agent),即便全面禁止AI建立一套關(guān)于公民價(jià)值的隱藏評(píng)分系統(tǒng),人類也不會(huì)就此擺脫倫理兩難的糾纏。在十年內(nèi),保守估計(jì)AI除了會(huì)在人們的生活領(lǐng)域中扮演“設(shè)計(jì)者”和“決策者”之外,在交通、醫(yī)療、減災(zāi)、軍事、外交等領(lǐng)域也將獲得更廣闊的應(yīng)用空間。但是,與人類以往的幾次技術(shù)革命一樣,人工智能技術(shù)不可能平等地惠及每個(gè)階層和人群[25],因?yàn)槿斯ぶ悄艿臎Q策無關(guān)道德——道德的目的是公正,它強(qiáng)調(diào)“義務(wù)”這個(gè)特殊的概念[26]。既然人工智能無法為人們提供一個(gè)道德的生活,而政府恰恰有保障社會(huì)公正的“義務(wù)”,那么扭轉(zhuǎn)人工智能造成的不平等(或者至少阻止這種不平等持續(xù)擴(kuò)大),在邏輯上就成為政府無可推卸的責(zé)任。人類行動(dòng)者在危機(jī)降臨時(shí)往往會(huì)接受“自我保護(hù)原則”——認(rèn)為對(duì)他人的致害(包括致死)行為是正當(dāng)?shù)模灰@種行為是自己能夠幸存的必要條件[27]——但絕對(duì)理性的AI只會(huì)保護(hù)那個(gè)在它的評(píng)價(jià)體系中更“值得”保護(hù)的人或群體。一旦社會(huì)中的大部分公共決策都被籠罩在人工智能的陰影下,政府應(yīng)該做些什么才能捕獲這一階段的治理合法性呢?筆者認(rèn)為,一個(gè)智能社會(huì)中的政府可以在揚(yáng)善行動(dòng)中稍稍后退,放權(quán)給其他行動(dòng)者,而主要在抑惡方面展開行動(dòng)。具體來說,這種抑惡行動(dòng)至少應(yīng)包括“消除信息歧視、發(fā)展機(jī)器倫理、建立熔斷機(jī)制、進(jìn)行倫理審查、防止計(jì)劃體制”等五個(gè)方面。
具體來說,政府應(yīng)致力于削弱由人工智能造成的信息區(qū)別對(duì)待現(xiàn)象,推動(dòng)大數(shù)據(jù)分析的信息平等和獲取自由,消除那些干擾公民獲得信息的障礙。例如,如果AI利用大數(shù)據(jù)對(duì)某人進(jìn)行家族病史、基因缺陷、健康狀況、生活習(xí)慣和工作環(huán)境等綜合分析后,得知他罹患心血管疾病的概率非常高,那么僅讓十分關(guān)心他健康風(fēng)險(xiǎn)評(píng)價(jià)的保險(xiǎn)公司獲得這份分析報(bào)告是不公平的,這會(huì)令真正需要醫(yī)療保險(xiǎn)的那部分人反而失去了參保資格。不能因?yàn)槟硞€(gè)人從未關(guān)注過健康,AI就不為他推送疾病風(fēng)險(xiǎn)等涉及個(gè)人隱私的重要信息,必須讓公民個(gè)人也能沒有障礙地獲得大數(shù)據(jù)分析報(bào)告,讓他擁有選擇是否改變生活習(xí)慣或者換一份工作的自由。關(guān)于消除信息歧視的具體方式,包括傳統(tǒng)的采用不對(duì)稱的公鑰加密算法以生成一個(gè)用以加密的“公共密鑰”和一個(gè)用以解密的“私人密鑰”,以及使用“數(shù)字簽名”來驗(yàn)證讀取信息者的身份,同時(shí)還應(yīng)著力確保大數(shù)據(jù)統(tǒng)計(jì)分析部門的專業(yè)性和獨(dú)立性,謹(jǐn)防差分隱私在技術(shù)層面增加的信息噪音反而變成一種針對(duì)個(gè)人的查閱權(quán)限門檻(因?yàn)樵贏I看來,那些大企業(yè)為代表的組織行動(dòng)者比個(gè)體行動(dòng)者更值得擁有高權(quán)限密鑰),讓AI真正成為面向所有行動(dòng)者的普惠性技術(shù)。
一直以來,道德倫理的責(zé)任主體必須是人,若因AI引發(fā)倫理危機(jī)而對(duì)算法設(shè)計(jì)者進(jìn)行道德問責(zé),就忽視了設(shè)計(jì)者與受害人之間不存在直接因果關(guān)系的事實(shí)。但是,這并不意味著算法設(shè)計(jì)者可以不必努力尋找讓AI的決策更具倫理意義的技術(shù),恰恰相反,設(shè)計(jì)者應(yīng)當(dāng)審慎地在算法中嵌入當(dāng)下社會(huì)的主流倫理觀。無論從法哲學(xué)還是政治哲學(xué)的角度來看,作為決策者的人工智能都應(yīng)隱含設(shè)計(jì)者的物化的道德,其使用也應(yīng)體現(xiàn)出倫理功能[28]。在這一道德化的過程中,政府無疑承擔(dān)推動(dòng)和促進(jìn)機(jī)器倫理快速發(fā)展的職責(zé),任何聽任AI決策而不加干預(yù)的做法都可視為一種“無為之惡”。大數(shù)據(jù)技術(shù)既可以拱衛(wèi)傳統(tǒng),也可以促進(jìn)社會(huì)轉(zhuǎn)型,關(guān)鍵在于由誰來掌握大數(shù)據(jù)庫、由誰來分析隱匿在海量數(shù)據(jù)中的“信息”并把這些它們轉(zhuǎn)化為“知識(shí)”。數(shù)據(jù)無善惡之分,但使用和分析數(shù)據(jù)的人卻不然。大數(shù)據(jù)技術(shù)已經(jīng)在潛移默化地影響國家治理的決策,重塑政治、組織甚至是人類思維方式,國家在數(shù)據(jù)治理中應(yīng)更多地賦權(quán)社會(huì)主體,建構(gòu)“多元與開放的治理結(jié)構(gòu)”,最終形成合作的治理模式[29]。為了實(shí)現(xiàn)這種合作治理,政府應(yīng)積極行動(dòng),率先打破AI的算法黑箱,確保在算法中嵌入符合時(shí)代特征的倫理原則,而不能僅僅憑借機(jī)器自身的數(shù)理邏輯進(jìn)行決策。
既然AI的決策并不完美,那么將關(guān)涉生命安全或國家安全的領(lǐng)域全權(quán)交由AI決策無疑是厝火積薪之舉,因此政府應(yīng)當(dāng)在關(guān)鍵點(diǎn)設(shè)置一系列“安全閥”。具體來說,即通過建立一個(gè)針對(duì)AI決策危機(jī)的“熔斷機(jī)制”,筑起一道阻止機(jī)器“為惡”的防火墻,在必要的時(shí)候暫時(shí)關(guān)閉AI的權(quán)限,防止事態(tài)惡化或進(jìn)一步蔓延。當(dāng)AI在決策中遇到“沒有規(guī)則”但并不十分緊急的問題時(shí),應(yīng)向人類監(jiān)督員預(yù)警,如果規(guī)定時(shí)間內(nèi)(如一個(gè)小時(shí))未接到回應(yīng),才能繼續(xù)以算法來自己創(chuàng)造規(guī)則。當(dāng)AI不得不在十分緊急的倫理兩難中做出選擇,且無論何種選擇都可能造成嚴(yán)重后果時(shí)(如前文所述的兩個(gè)思想實(shí)驗(yàn)假設(shè)的情境),則應(yīng)立刻觸發(fā)熔斷機(jī)制進(jìn)行止損,同時(shí)由人類應(yīng)急小組接手控制權(quán)進(jìn)行緊急處置。需要強(qiáng)調(diào)的一點(diǎn)是,人工智能從來沒有,也不需要像人類一樣思考,如果有一天它真的以人腦的方式運(yùn)行,那么它也就失去同時(shí)快速處理海量數(shù)據(jù)的功能。因而,在觸發(fā)“熔斷機(jī)制”之外的其他情況下,政府應(yīng)當(dāng)始終把AI視為一個(gè)平等的治理行動(dòng)者,尊重其借助互聯(lián)網(wǎng)的共享原則所匯集的“集體智慧”(collective wisdom)。
倫理觀是隨社會(huì)發(fā)展而變化的,那么AI的決策算法也應(yīng)當(dāng)根據(jù)社會(huì)變遷而不斷地調(diào)整,持守一套僵硬的、陳舊的倫理觀念無疑也是一種“惡”。在這一意義上,數(shù)理邏輯與康德的“定言令式”一樣都不應(yīng)成為人工智能解決兩難問題時(shí)恪守的“信條”(Maximen)。應(yīng)該說在設(shè)計(jì)AI的決策倫理時(shí),唯一的信條就是沒有信條,不必追求一種普世的倫理,只要保持與時(shí)俱進(jìn)的持續(xù)修補(bǔ),就能不斷接近而非遠(yuǎn)離“善”。在具體實(shí)現(xiàn)方式上,政府可以組織專業(yè)的倫理審查團(tuán)隊(duì),對(duì)人工智能的底層算法進(jìn)行周期性的核查和改良,同時(shí)將審查系統(tǒng)向具備資質(zhì)的第三方開放,以便不定期地開展第三方監(jiān)督復(fù)核。既要審查算法,也要檢查AI系統(tǒng)是否被植入病毒,這關(guān)乎國民生活和國家安全。借助于信息技術(shù),國家已經(jīng)可以通過介入虛擬世界從而影響現(xiàn)實(shí)世界,一些頂級(jí)網(wǎng)絡(luò)黑客在政府力量的支持下,能夠發(fā)起對(duì)目標(biāo)造成巨大實(shí)質(zhì)性破壞的網(wǎng)絡(luò)攻擊,甚至有可能改變國際局勢(shì)。例如,美國在2010年就曾利用“震網(wǎng)”(Stuxnet)蠕蟲病毒導(dǎo)致伊朗濃縮鈾離心機(jī)轉(zhuǎn)速失控、損壞,最終迫使伊朗的核發(fā)展計(jì)劃擱淺。
在國家治理層面,獲得大數(shù)據(jù)支撐的AI決策善于形成宏大的計(jì)劃,它不可能僅僅覆蓋某個(gè)社區(qū)、某個(gè)城市甚至某個(gè)省,而是將全國視為“一盤棋”進(jìn)行全局規(guī)劃。國家行動(dòng)在這種“宏大計(jì)劃”下,往往會(huì)為了提高多數(shù)人的福祉而變得越來越強(qiáng)勢(shì)。但是,宏大計(jì)劃在治理中始終面臨效用主義的侵?jǐn)_,即在某種極端情況下,國家會(huì)以犧牲一小部分人為代價(jià)換來多數(shù)人幸免于難的結(jié)果,這也導(dǎo)致歐洲許多民族國家中的少數(shù)族裔頻繁使用斯科特所謂“弱者的武器”進(jìn)行反抗,有的則試圖以公投等方式脫離共同體。對(duì)于極度復(fù)雜的國家治理而言,計(jì)劃失敗是常態(tài)。歷史不斷地提醒人們,越是宏大的計(jì)劃越容易全面潰敗,典型的例子可見于二戰(zhàn)后歐洲重建過程中的公共住宅建設(shè)計(jì)劃。朱特(Judt)在《沉疴遍地》中如是寫道:“從共產(chǎn)主義的波蘭到社會(huì)民主主義的瑞典、工黨的英國、戴高樂時(shí)期的法國和紐約的南布朗克斯,過分自信和缺乏敏感的計(jì)劃者們給城市和郊區(qū)塞進(jìn)一些無法居住、慘不忍睹的住房”[30],卻根本沒有人會(huì)關(guān)注那些宏大的、符合美感的現(xiàn)代化住房與民眾實(shí)際需求之間的鴻溝?,F(xiàn)實(shí)一再告誡人們,不能將治理視為一種數(shù)學(xué)游戲而忽視人的差異性和真實(shí)感受,不能簡單化地將社會(huì)視為由均等個(gè)人組成的勻質(zhì)共同體,只對(duì)受益群體和受損群體進(jìn)行人數(shù)多寡的比較。事實(shí)上,政府在保持供給充足的前提下總有最小化聯(lián)盟成本的沖動(dòng)[31],因而它一直在追求通過數(shù)據(jù)分析和建模制訂出一個(gè)“完美的計(jì)劃”,以實(shí)現(xiàn)公共服務(wù)“不余一分”的理想狀態(tài),這就是政府在財(cái)政壓力下強(qiáng)調(diào)精準(zhǔn)供給的實(shí)質(zhì)。但這種計(jì)劃覆蓋下的公共服務(wù),未必就能實(shí)現(xiàn)供給的“量體裁衣”,因?yàn)榇髷?shù)據(jù)預(yù)測個(gè)體行動(dòng)者的表現(xiàn)比預(yù)測社會(huì)整體要好很多。將個(gè)體需求簡單加總起來并不是集體的需求,這種機(jī)械論指導(dǎo)下的治理隱含一種人們必須警惕的危險(xiǎn)——“計(jì)劃體制”復(fù)辟。作為一個(gè)信息時(shí)代智能社會(huì)中的治理行動(dòng)者,政府必須學(xué)會(huì)與人工智能的決策相互補(bǔ)全而非彼此掣肘,唯有“善假于物”,才能在這個(gè)高度復(fù)雜的環(huán)境下?lián)碛型ㄟ^行動(dòng)改善處境的自由,成為一個(gè)不為算法所控制的“有為”行動(dòng)者。
[1]CORY D.Big Data:Welcome to the Petacentre[J].Nature,2008,(455):16-21.
[2]張康之,張桐.大數(shù)據(jù)中的思維與社會(huì)變革要求[J].理論探索,2015,(5):5-14.
[3]段偉文.控制的危機(jī)與人工智能的未來情境[J].探索與爭鳴,2017,(10):7-10.
[4]阿蘭·圖海納.行動(dòng)者的歸來[M].舒詩偉,等,譯.北京:商務(wù)印書館,2008:139.
[5]MOORE A D,WARREN S D,&BRANDEIS L D.Information Ethics: Privacy,Property,and Power[M].Seattle,WA: University of Washington Press,2005:209-225.
[6]JEFFREY H.REIMAN.Driving to the Panopticon:A Philosophical Exploration of the Risks to Privacy Posed by the Highway Technology of the Future [J].Santa Clara Computer and High Technology Law Journal,1995,11(1):24-50.
[7]COHEN J E.Privacy,Visibility,Transparency,and Exposure [J].University of Chicago Law Review,2008,75(1):181-201.
[8]呂耀懷,羅雅婷.大數(shù)據(jù)時(shí)代個(gè)人信息收集與處理的隱私問題及其倫理維度[J].哲學(xué)動(dòng)態(tài),2017,(2):63-68.
[9]王澤群.政府在大數(shù)據(jù)隱私保護(hù)中的職能重塑[J].理論探討,2016,(3):170-173.
[10]王紹源,任曉明.大數(shù)據(jù)技術(shù)的隱私倫理問題[J].新疆師范大學(xué)學(xué)報(bào):哲學(xué)社會(huì)科學(xué)版,2017,(4):93-99.
[11]熊平,朱天清,王曉峰.差分隱私保護(hù)及其應(yīng)用[J].計(jì)算機(jī)學(xué)報(bào),2014,(1):101-122.
[12]吉隆·奧哈拉,奈杰爾·沙德博爾特.咖啡機(jī)中的間諜:個(gè)人隱私的終結(jié)[M].畢小青,譯.北京:生活·讀書·新知三聯(lián)書店,2011:8-9.
[13]盧梭.社會(huì)契約論[M].李平漚,譯.北京:商務(wù)印書館,2014:34-35.
[14]羅爾斯.正義論[M].何懷宏,等,譯.北京:中國社會(huì)科學(xué)出版社,1988:33.
[15]ZHAO L,DETLOR B,&CONNELLY C E.Sharing Knowledge in Social Q&A Sites: The Unintended Consequences of Extrinsic Motivation [J].Journal of Management Information Systems,2016,33(1):70-100.
[16]卡斯卡特.電車難題:該不該把胖子推下橋[M].朱沉之,譯.北京:北京大學(xué)出版社,2014:3-9.
[17]BONNEFON J F,SHARIFF A,&RAHWAN I.The Social Dilemma of Autonomous Vehicles [J].Science,2016,352(6293):1573-1576.
[18]彼得·薩伯.洞穴奇案[M].陳福勇,等,譯.北京:生活·讀書·新知三聯(lián)書店,2012:86-96.
[19]康德.實(shí)踐理性批判[M].韓水法,譯.北京:商務(wù)印書館,2016:75.
[20]陳鐘.從人工智能本質(zhì)看未來的發(fā)展[J].探索與爭鳴,2017,(10):4-7.
[21]趙汀陽.四種分叉[M].上海:華東師范大學(xué)出版社,2017:74.
[22]趙汀陽.有軌電車的道德分叉[J].哲學(xué)研究,2015,(5):96-102.
[23]謝惠媛.“為了行善而作惡”的道德問責(zé)[J].倫理學(xué)研究,2017,(4):90-94.
[24]維克托·邁爾-舍恩伯格,肯尼思·庫克耶.大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革[M].盛楊燕,等,譯.杭州:浙江人民出版社,2013:16.
[25]馮仕政,陸美賀.社會(huì)計(jì)算如何可能?[J].貴州師范大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2016,(6):27-30.
[26]威廉斯.倫理學(xué)與哲學(xué)的限度[M].陳嘉映,譯.北京:商務(wù)印書館,2017:42-49.
[27]BEDAU H A.Making Mortal Choices:Three Excercises in Moral Casuistry [M].Oxford,UK:Oxford University Press,1997:115.
[28]于雪,王前.“機(jī)器倫理”思想的價(jià)值與局限性[J].倫理學(xué)研究,2016,(4):109-114.
[29]王向民.大數(shù)據(jù)時(shí)代的國家治理轉(zhuǎn)型[J].探索與爭鳴,2014,(10):59-62.
[30]托尼·朱特.沉疴遍地[M].杜先菊,譯.北京:新星出版社,2012:57.
[31]RIKER W H.The Theory of Political Coalitions[M].New Haven,CT:Yale University Press,1962:32-33.