劉寶杰,姜 惠
(曲阜師范大學(xué) 馬克思主義學(xué)院,山東 曲阜 273165)
文森特·穆勒(Vincent C.Müller)是埃因霍溫理工大學(xué)(TU/e)的技術(shù)哲學(xué)教授,利茲大學(xué)的大學(xué)研究員和倫敦的Alan Turing 研究所的圖靈研究員,以及歐洲認(rèn)知系統(tǒng)學(xué)會和“倫理,法律和社會經(jīng)濟(jì)問題”euRobotics 專題組主席。近年來,穆勒發(fā)表了40 余篇學(xué)術(shù)論文,并編輯出版了16 本著作,內(nèi)容涉及AI 和認(rèn)知科學(xué)哲學(xué)、計(jì)算哲學(xué)、語言哲學(xué)、應(yīng)用倫理學(xué)等方面。近年來,其研究聚焦于心靈、語言與計(jì)算哲學(xué)以及信息與計(jì)算倫理。
當(dāng)前,新一輪科技革命正蓄勢待發(fā),各國紛紛進(jìn)行顛覆性技術(shù)創(chuàng)新以搶占先機(jī)。從國際大環(huán)境看,顛覆性技術(shù)創(chuàng)新聚焦于一些關(guān)鍵領(lǐng)域,人工智能便是其中之一。當(dāng)人工智能的研究人員去探索人工智能時(shí),他們認(rèn)為從哲學(xué)角度審視人工智能,是發(fā)展人工智能的必要一環(huán),穆勒也表明人工智能哲學(xué)將對人工智能的發(fā)展發(fā)揮指導(dǎo)作用?;谌斯ぶ悄苷軐W(xué)的發(fā)展現(xiàn)狀,穆勒指出,人工智能哲學(xué)實(shí)際上已經(jīng)發(fā)生了一些新變化,并且主要體現(xiàn)在兩個(gè)方面,即:人工智能與認(rèn)知科學(xué)相分離以及人工智能的長期風(fēng)險(xiǎn)在哲學(xué)研究中日益受到關(guān)注[1]2。
關(guān)于人工智能與認(rèn)知科學(xué)的關(guān)系研究。在傳統(tǒng)觀點(diǎn)中,人工智能與認(rèn)知科學(xué)之間恰似一枚硬幣的兩面。20 世紀(jì)80 年代,約翰·豪格蘭德(John Haugeland)提出了“有效的老式人工智能”(GOFAI),認(rèn)為對符號表征的句法處理足以實(shí)現(xiàn)智能。[2]2如果認(rèn)知是基于符號表征的計(jì)算過程,那么計(jì)算可以被認(rèn)知科學(xué)發(fā)現(xiàn),然后由人工計(jì)算系統(tǒng)中的人工智能實(shí)現(xiàn)。[1]2在GOFAI 之后,穆勒指出,現(xiàn)在認(rèn)知不再必須作為算法符號處理而存在,認(rèn)知科學(xué)涉及“具身化理論”“動(dòng)態(tài)理論”等,并且它趨向于尋找自己的發(fā)展道路,而不再附屬于人工智能。
關(guān)于人工智能長期風(fēng)險(xiǎn)的哲學(xué)分析。人工智能作為顛覆性技術(shù),其應(yīng)用和發(fā)展必然會對社會產(chǎn)生多樣的顛覆性影響,其中,人工智能所帶來的長期風(fēng)險(xiǎn)更是在哲學(xué)研究中引起廣泛關(guān)注。在這里,長期風(fēng)險(xiǎn)主要包含兩方面的理解。一方面,人工智能的應(yīng)用使人類當(dāng)前正面對著一系列風(fēng)險(xiǎn)挑戰(zhàn),這些現(xiàn)有的風(fēng)險(xiǎn)對人類的影響時(shí)間較久,就此而言,人工智能的風(fēng)險(xiǎn)是長期的。另一方面,人工智能的發(fā)展使人類未來將面臨新的風(fēng)險(xiǎn)挑戰(zhàn)。盡管一些人工智能在現(xiàn)實(shí)應(yīng)用中并未完全暴露出其風(fēng)險(xiǎn),但由于新興技術(shù)尚不完善,隨著人工智能的發(fā)展,新的風(fēng)險(xiǎn)將接續(xù)出現(xiàn),這也意味著人工智能的風(fēng)險(xiǎn)是長期風(fēng)險(xiǎn)??傊吕照J(rèn)識到人工智能風(fēng)險(xiǎn)的長期性,綜合考量人工智能的現(xiàn)有風(fēng)險(xiǎn)與潛在風(fēng)險(xiǎn)。
穆勒指出,當(dāng)前人工智能哲學(xué)新發(fā)展中的一個(gè)主要變化就是,由于人工智能和認(rèn)知科學(xué)的發(fā)展,人工智能與認(rèn)知科學(xué)的關(guān)系呈現(xiàn)新變化。同時(shí),穆勒認(rèn)為,我們?nèi)绾慰创斯ぶ悄艿陌l(fā)展前景、如何看待人工智能與認(rèn)知科學(xué)的新關(guān)系,這取決于我們?nèi)绾慰创约褐圃斓募夹g(shù)產(chǎn)品和人類自身,因?yàn)檫@些問題涉及技術(shù)功能和人類認(rèn)知。因此,當(dāng)我們重新審視二者之間的關(guān)系時(shí),這在一定程度上意味著重新審視技術(shù)產(chǎn)品與人類之間的關(guān)系。[3]68
傳統(tǒng)的“計(jì)算主義者”認(rèn)為,認(rèn)知是對表征的計(jì)算,它可以在任何自然的或人工的計(jì)算系統(tǒng)中進(jìn)行。[3]68認(rèn)知科學(xué)通過其理論應(yīng)用發(fā)現(xiàn)了自然的認(rèn)知系統(tǒng)是如何工作的,而人工智能的工程學(xué)科則測試了認(rèn)知科學(xué)的假設(shè)并將其用于發(fā)展人工認(rèn)知系統(tǒng)的過程中。[1]2在這種傳統(tǒng)觀點(diǎn)中,人工智能和認(rèn)知科學(xué)具有共同假設(shè)的哲學(xué)分析,二者相互聯(lián)系,這一觀點(diǎn)引起了人們對人工智能的哲學(xué)和理論探索興趣。但就目前來看,這一舊共識的大多數(shù)觀點(diǎn)都受到了強(qiáng)烈的沖擊:[3]68計(jì)算是數(shù)字化的;表征對于計(jì)算至關(guān)重要;有生命或是無生命主體間的區(qū)別已無關(guān)緊要;等等。
就人工智能發(fā)展歷程來說,在經(jīng)過1967 年至20 世紀(jì)70 年代初期的蕭條停滯期后,人工智能不斷走向蓬勃發(fā)展。此外,加上認(rèn)知科學(xué)在當(dāng)前的新發(fā)展,這兩方面的因素使穆勒認(rèn)為“當(dāng)前的人工智能似乎已經(jīng)終結(jié)了同認(rèn)知科學(xué)間的特殊關(guān)系”[4]102,二者不再緊密結(jié)合。當(dāng)前,穆勒指出認(rèn)知主義找到了撤退和重組的方法,特別是當(dāng)它涉及人工智能或人工認(rèn)知系統(tǒng)的論題時(shí),穆勒還特別以人工通用智能進(jìn)行說明:如果我們一開始就假設(shè)智能主體是在給定的環(huán)境中通過選擇正確行為來實(shí)現(xiàn)其目標(biāo)的主體,那么更智能的主體可以在更多的環(huán)境中實(shí)現(xiàn)其目標(biāo)——這一考量提供了智能的一般衡量標(biāo)準(zhǔn)。[5]47因此,可以通過機(jī)器學(xué)習(xí)技法(machine-learning techniques)來實(shí)現(xiàn)人工通用智能,機(jī)器學(xué)習(xí)技法實(shí)質(zhì)上就是在給定某些輸入集的情況下優(yōu)化輸出。盡管原始模型中有類似于智能主體具有無限計(jì)算能力這樣的不真實(shí)的假設(shè),仍然有大量項(xiàng)目意欲創(chuàng)建智能主體。在這里,穆勒指出了“行動(dòng)選擇”問題(Problems of“Action-Selection”),具體而言,智能主體解決了“行動(dòng)選擇”問題即“接下來我應(yīng)該做什么”的問題,這是“建模-計(jì)劃-行動(dòng)”的結(jié)果,也就是基于主體的認(rèn)知主義的結(jié)果。但在穆勒看來,當(dāng)前許多智能主體根本不進(jìn)行“行動(dòng)選擇”,例如耦合具身化系統(tǒng)中的被動(dòng)動(dòng)態(tài)助行器(the passive dynamic walker),它是一種不需要任何電子控制設(shè)備就可以行走的微型機(jī)器人,其行走取決于行走的路表狀況和助行器的機(jī)械參數(shù),并不需要助行器做出“行動(dòng)選擇”,這就與認(rèn)知主義并無關(guān)聯(lián)。而且,在對人工認(rèn)知系統(tǒng)的探討中,穆勒對經(jīng)驗(yàn)論題、實(shí)踐工程論題和概念論題做出判斷:具身認(rèn)知的經(jīng)驗(yàn)論題完全為真,實(shí)踐工程論題基本為真,而概念論題可能為假。[5]48這三個(gè)論題在邏輯上是各自獨(dú)立的,就此而言,人工智能與認(rèn)知科學(xué)是相互獨(dú)立的。
此外,在對瑪格麗特·博登(Margaret Boden)《機(jī)器思維:認(rèn)知科學(xué)的歷史》(Minds as Machine:A history of cognitive science)一書的書評中,穆勒更是直言:“認(rèn)知科學(xué)死了,認(rèn)知科學(xué)萬歲!”[6]124在穆勒看來,認(rèn)知科學(xué)摒棄了原有的發(fā)展模式,逐漸開辟出新的發(fā)展路徑,它以認(rèn)知心理學(xué)為主要形式,并與人工智能分離,而人工智能也已成為一門成功的工程學(xué)科,在很大程度上沒有任何關(guān)于認(rèn)知的探索[6]124。
穆勒認(rèn)為當(dāng)前人工智能哲學(xué)的另一個(gè)主要新變化就是,人工智能哲學(xué)日益重視對人工智能的長期風(fēng)險(xiǎn)研究,并且穆勒也做出大量分析。其中,穆勒分別從就業(yè)、隱私和軍事等方面指出,人工智能使人類面臨著失業(yè)風(fēng)險(xiǎn)、隱私風(fēng)險(xiǎn)和安全風(fēng)險(xiǎn)。
人工智能可能激化未來全球范圍內(nèi)的失業(yè)問題。人工智能對就業(yè)的影響,一方面,人工智能會提供新的就業(yè)機(jī)會,另一方面,人工智能又會使勞動(dòng)者失業(yè)。在人工智能對失業(yè)的影響這一問題上,盡管人們對此持悲觀、中立和樂觀三種態(tài)度,但三方都認(rèn)為人工智能會造成大批勞動(dòng)者失業(yè)。在穆勒看來,其一,由于人工智能的發(fā)展,智能機(jī)器人進(jìn)入生產(chǎn)和生活領(lǐng)域,不斷排擠勞動(dòng)者。例如,在健康護(hù)理行業(yè)中,護(hù)理機(jī)器人代替了大量的人類護(hù)理人員。其二,由于顛覆性技術(shù)是能夠破壞和替代現(xiàn)有技術(shù)的全新技術(shù),其發(fā)展和應(yīng)用必然需要新的技能,在人工智能領(lǐng)域內(nèi),勞動(dòng)者若不按人工智能的技術(shù)新要求提高勞動(dòng)水平,就將不幸成為失業(yè)者。其三,工業(yè)自動(dòng)化取代了人的自然力,數(shù)字自動(dòng)化取代了人的思想或信息處理,由于人工智能使信息技能自動(dòng)化,目前勞動(dòng)力市場上出現(xiàn)了“工作兩極分化”或就業(yè)結(jié)構(gòu)“啞鈴狀”:高技能的技術(shù)性工作需求量大、工資高,低技能的服務(wù)性工作需求量大、工資低,但中等技能要求的工作(即絕大多數(shù)工作),由于具有相對可預(yù)測性且有固定規(guī)則,因此最有可能被自動(dòng)化所取代,從事這些工作的勞動(dòng)者大多會失業(yè)。穆勒總結(jié)道:“人工智能最終是否會導(dǎo)致失業(yè),取決于技術(shù)發(fā)展和社會反應(yīng)?!保?]10隨著人工智能的發(fā)展,擺脫時(shí)間與空間的局限,人工智能在未來可能會加劇全球范圍內(nèi)的失業(yè)問題,因此說,人類面臨著失業(yè)風(fēng)險(xiǎn)。
人工智能增加了對個(gè)人進(jìn)行數(shù)據(jù)收集和利用信息操縱行為的可能性。隨著新興技術(shù)的發(fā)展,人們的生活愈發(fā)信息化、數(shù)字化。一般來說,目前的數(shù)據(jù)都以數(shù)字化方式進(jìn)行收集和儲存,后經(jīng)傳感技術(shù)轉(zhuǎn)化為新的信息和數(shù)據(jù)。例如,人臉識別系統(tǒng)借助大數(shù)據(jù)分析和人工智能算法,通過對照片或監(jiān)控系統(tǒng)中的人臉進(jìn)行識別,從而實(shí)現(xiàn)對個(gè)人信息的搜索和分析。因此,從這個(gè)角度來說,人工智能極大地增加了數(shù)據(jù)收集、數(shù)據(jù)分析和監(jiān)視的可能性。而當(dāng)前,越來越多的商業(yè)企業(yè)開始利用人工智能的這一效應(yīng),對顧客的信息進(jìn)行訪問,以實(shí)現(xiàn)自己的經(jīng)濟(jì)利益。此外,“監(jiān)視中的人工智能問題不僅涉及對數(shù)據(jù)的收集和關(guān)注的方向,還包括使用信息來操縱行為”[7]6。雖然操縱行為由來已久,但在基于大數(shù)據(jù)分析的人工智能系統(tǒng)中,操縱行為有了新的發(fā)展。由于國家、企業(yè)和私人個(gè)體對個(gè)人信息和數(shù)據(jù)的掌握,用戶很容易受到欺騙,進(jìn)而阻礙自主理性的行為選擇??傊?,人工智能及其應(yīng)用在很大程度上對人類進(jìn)行監(jiān)視,個(gè)人面臨著隱私風(fēng)險(xiǎn)。
人工智能在軍事中的應(yīng)用使得安全風(fēng)險(xiǎn)增加。其一,借用斯派洛(Rob Sparrow)所假設(shè)的案例:機(jī)載自動(dòng)武器系統(tǒng)在人工智能的指導(dǎo)下,仍會有意轟炸已表明投降意愿的敵軍。[8]304穆勒指出,人工智能應(yīng)用于戰(zhàn)爭之中,戰(zhàn)爭機(jī)理隨之發(fā)生變化,存在各種不確定因素。同時(shí)人工智能尚未成熟,存在著較高的誤判概率,軍事安全得不到保障。其二,自主武器的使用,可能提高戰(zhàn)爭爆發(fā)概率和戰(zhàn)爭破壞程度。就小范圍的影響而言,一架裝載爆炸物的小型無人機(jī)就能夠搜索、識別、追殺一個(gè)部隊(duì)的人類。那么能夠自動(dòng)識別和攻擊目標(biāo)的常規(guī)巡航導(dǎo)彈,會在更大范圍內(nèi)造成破壞,特別是在人口稠密的地區(qū),人們的生命安全受到更大的威脅。其三,由于各國政治力量和人工智能發(fā)展水平不同,一方可以不受懲罰地攻擊另一方的不對稱性沖突已經(jīng)存在。這種不對稱性沖突,無論是發(fā)生概率抑或是破壞程度都較之以前有所提高,特別是對被攻擊一方而言,人民的生命安全受到威脅。“可以說,主要的威脅不是在常規(guī)戰(zhàn)爭中使用此類武器,而是在非對稱沖突中或由包括罪犯在內(nèi)的非國家機(jī)構(gòu)使用?!保?]12
坐在沙發(fā)上的周澤贍無聊地?fù)Q著電視頻道。換到播《動(dòng)物世界》的頻道時(shí),周澤贍停下了按鍵的手指,抱肩看起電視來,眼神卻沒有聚焦到屏幕上。周澤贍坐到靠近桌子的座機(jī)前,熟練地?fù)苤柎a。
作為顛覆性技術(shù)的人工智能無疑給社會帶來新的發(fā)展和變革,其中,穆勒著重對人工智能及其發(fā)展所帶來的風(fēng)險(xiǎn)挑戰(zhàn)進(jìn)行分析。以人工智能對就業(yè)、隱私和安全的消極效應(yīng)分析為例,穆勒揭示了人工智能所帶來的社會問題、倫理問題和安全問題。
由于人工智能給人們的日常生活帶來許多威脅,不少人都主張禁止使用人工智能,特別是在致命自主武器系統(tǒng)(LAWS)這一領(lǐng)域,人們普遍反對人工智能的應(yīng)用。不同的是,穆勒提出了“調(diào)節(jié)規(guī)范、而非禁止”[8]321的口號。針對人工智能所帶來的問題與挑戰(zhàn),穆勒強(qiáng)調(diào)各國政府和國際組織有責(zé)任規(guī)范人工智能及其應(yīng)用,通過政策引導(dǎo)推進(jìn)人工智能的健康發(fā)展及合理應(yīng)用。
盡管已經(jīng)認(rèn)識到政策制定的重要性,但穆勒同時(shí)指出,政策的實(shí)際制定及執(zhí)行存有一定難度,人工智能政策很有可能與經(jīng)濟(jì)政策等相矛盾。在政策制定時(shí),一個(gè)重要的現(xiàn)實(shí)影響因素就在于政策制定的對象以及主體的構(gòu)成。例如政府往往傾向于將決策委托給專家,而非更深入地吸收社會相關(guān)利益者,[7]4這就可能導(dǎo)致在政策指導(dǎo)后的人工智能仍然可能引起民眾反抗。因此,以“負(fù)責(zé)任創(chuàng)新”(RRI)的研究口號為鑒,像人工智能此類顛覆性技術(shù)的政策制定要充分考量社會相關(guān)利益者的情緒和建議。此外,穆勒強(qiáng)調(diào),在政策制定時(shí)應(yīng)將法律和倫理分開考量,因?yàn)槲覀兺ǔUJ(rèn)為這兩方面在邏輯上是獨(dú)立的:某些特定合法行為仍然可能是不合倫理的,而某些特定合乎倫理的行為仍然可能是非法的。[9]138政策或規(guī)則同樣如此,如果我們接受了倫理規(guī)范,也并不意味著存在或應(yīng)該存在法律規(guī)則,反之亦然。就此而言,在制定人工智能的相關(guān)政策時(shí),穆勒建議采取法律和倫理分析兩個(gè)步驟。例如,基于人工智能在軍事領(lǐng)域中的風(fēng)險(xiǎn)分析,穆勒以LAWS 為例,對規(guī)范人工智能提出系列政策建議。
基于法律考量的LAWS 政策。一是建立國際LAWS 技術(shù)標(biāo)準(zhǔn)機(jī)構(gòu)。LAWS 對國際人道法相稱原則的遵守首先應(yīng)出于道德和政治判斷,然后再以技術(shù)規(guī)范表示。同時(shí),全球技術(shù)發(fā)展的現(xiàn)實(shí)又要求建立國際標(biāo)準(zhǔn)機(jī)構(gòu)來建立和維護(hù)這些規(guī)范。二是建立國家LAWS 技術(shù)標(biāo)準(zhǔn)和許可機(jī)構(gòu)。建立國內(nèi)技術(shù)規(guī)范標(biāo)準(zhǔn),并將國家或超國家監(jiān)管機(jī)構(gòu)合并,使這些機(jī)構(gòu)負(fù)責(zé)發(fā)放許可證并管理生產(chǎn)商。三是將戰(zhàn)爭罪行的法律條文擴(kuò)展到LAWS 的非法使用。在建立國際和國家標(biāo)準(zhǔn)機(jī)構(gòu)后,就需要法律約束來強(qiáng)制遵守。同時(shí),法律應(yīng)該擴(kuò)展到LAWS 的非法使用,在這里,非法使用包括:部署不合標(biāo)準(zhǔn)的LAWS、使用不合標(biāo)準(zhǔn)的LAWS、故意不當(dāng)或嚴(yán)重過失使用LAWS。四是與常規(guī)戰(zhàn)爭相比,LAWS 效應(yīng)更優(yōu)時(shí)才允許被部署。當(dāng)LAWS 符合國際人道法的相稱原則,且在戰(zhàn)爭中給人民帶來的風(fēng)險(xiǎn)小于常規(guī)戰(zhàn)爭給人民帶來的風(fēng)險(xiǎn)時(shí),才可部署LAWS。五是僅在有令人信服的軍事理由時(shí)才允許使用LAWS 進(jìn)行殺戮。由四可知,只有符合國際人道法,才可部署LAWS,而要在戰(zhàn)爭中使用LAWS,則需有令人信服的軍事理由。[10]3總之,穆勒基于法律維度的人工智能政策建議,兼顧了國內(nèi)國際的考量,包含了法律的制定完善與遵守。
基于倫理考量的LAWS 政策。就戰(zhàn)爭中是否可使用LAWS 這一問題上,大多數(shù)人持反對態(tài)度,也有基于結(jié)果論的人持支持態(tài)度。而穆勒基于正義戰(zhàn)爭理論所假定的權(quán)利的非總體結(jié)構(gòu),在倫理維度表明了LAWS 使用的允許性。[8]302在這里,穆勒引入了“容忍度”(tolerance level)的規(guī)范性概念,它實(shí)際指的是倫理上要求的技術(shù)的可靠性程度。在實(shí)踐中,容忍度通常與一個(gè)系統(tǒng)執(zhí)行其功能的特定條件相關(guān),[8]307并且設(shè)定容忍度需要解決風(fēng)險(xiǎn)倫理的一系列問題。在以上規(guī)定之下,穆勒做出論述:在LAWS 中,殺手機(jī)器人的可靠性是針對各個(gè)任務(wù)分別定義的,因此,殺手機(jī)器人應(yīng)當(dāng)是以充分的可靠性來執(zhí)行其功能的工程系統(tǒng)。[8]310在設(shè)計(jì)殺手機(jī)器人時(shí),容忍度的要求之一就是需要定義殺手機(jī)器人僅在攻擊合適的目標(biāo)時(shí)應(yīng)達(dá)到的可靠性程度,而在倫理方面最重要的關(guān)注點(diǎn)就在于攻擊目標(biāo)的選擇。殺手機(jī)器人若在目標(biāo)選擇時(shí)出現(xiàn)了偏差,就可能導(dǎo)致嚴(yán)重的后果,即無辜的人在這場戰(zhàn)爭中受到攻擊。因此,穆勒建議,必須首先確定LAWS 的容忍度,并且僅在經(jīng)過全面的測試和檢查之后才能使用LAWS。
總之,穆勒對人工智能的政策建議是針對人工智能的風(fēng)險(xiǎn)而提出,目的是盡可能通過政策引導(dǎo)來減少人工智能所帶來的風(fēng)險(xiǎn)。
在穆勒看來,目前關(guān)于人工智能未來的討論主要存在三個(gè)方向:[3]68-69一是基于技術(shù)進(jìn)步,人工智能將實(shí)現(xiàn)新發(fā)展,這一方向與機(jī)器超越人類智能的“奇點(diǎn)”概念相關(guān)。二是未來人工智能將拋棄傳統(tǒng)形象,特別是通過拒絕表征、強(qiáng)調(diào)主體的具身化以及對屬性的“出現(xiàn)”。三是人工智能在其他領(lǐng)域獲取新發(fā)展。一種方法是從神經(jīng)科學(xué)開始,著力于動(dòng)力學(xué)系統(tǒng),并試圖在認(rèn)知系統(tǒng)中比經(jīng)典認(rèn)知科學(xué)建模更多的基本工程。其他方法則是顛覆“主體”的概念,并在更廣泛的系統(tǒng)中發(fā)現(xiàn)智能。三個(gè)方向的討論都體現(xiàn)著人工智能不斷革新發(fā)展的趨勢,并且穆勒認(rèn)為人工智能取得的大部分進(jìn)步,都可以歸因于速度更快的處理器和更大的存儲量。
面對未來“超級智能”的風(fēng)險(xiǎn),應(yīng)該怎樣對待“超級智能”?對此,穆勒又分析了“控制超級智能”的問題[7]17:從狹義上講,“控制問題”是指一旦人工智能系統(tǒng)變?yōu)椤俺壷悄堋?,那么我們?nèi)祟悜?yīng)該如何繼續(xù)控制它。這里涉及,我們應(yīng)將其限制在各種“盒子”內(nèi),還是應(yīng)對其某些方面做出硬性規(guī)定,抑或是防止它忽略人類意圖······?從廣義上講,“控制問題”是指我們?nèi)绾尾拍艽_保人工智能系統(tǒng)對人類而言是積極意義上的系統(tǒng),這時(shí)常被稱為超級智能的“價(jià)值對齊”(value alignment),后來梅內(nèi)爾(Hadfield Menell)將其正式定義為“協(xié)同反向強(qiáng)化學(xué)習(xí)”(cooperative inverse reinforcement learning)??刂瞥壷悄艿碾y易程度很大程度上取決于從人類控制的系統(tǒng)到超級智能系統(tǒng)的發(fā)展速度,這引起了人們對具有自我完善能力的系統(tǒng)的特別關(guān)注。穆勒還認(rèn)識到,未來超級系統(tǒng)極有可能會產(chǎn)生人類無法預(yù)料的負(fù)面效應(yīng),這對“控制超級智能”而言是一個(gè)極大挑戰(zhàn)。而且更糟的是,當(dāng)人工智能超過人類的智能水平,“這似乎暗示著,即使我們對它有了豐富的認(rèn)識,但它仍然是深不可測、不可控制的”[12]300。
近年來,穆勒將研究視點(diǎn)聚焦于顛覆性技術(shù)(尤以人工智能為重點(diǎn)),并取得了豐碩的研究成果。他在人工智能哲學(xué)上的貢獻(xiàn)主要在于:首先,針對當(dāng)前人工智能哲學(xué)發(fā)生的新變化,穆勒對其中兩個(gè)主要變化進(jìn)行了分析。其一,隨著人工智能與認(rèn)知科學(xué)的發(fā)展,穆勒指出二者逐漸分離,不再是一枚硬幣的兩面。其二,人工智能的風(fēng)險(xiǎn)在哲學(xué)研究中日益受到關(guān)注,對于此問題,穆勒主要分析了人工智能給人類帶來的失業(yè)風(fēng)險(xiǎn)、隱私風(fēng)險(xiǎn)和安全風(fēng)險(xiǎn)。繼而,穆勒基于對人工智能風(fēng)險(xiǎn)的分析,主張對人工智能進(jìn)行政策干預(yù)以實(shí)現(xiàn)人工智能的健康發(fā)展。其中,穆勒強(qiáng)調(diào)政策規(guī)范應(yīng)充分考慮社會相關(guān)利益者的情緒和建議并將法律維度和倫理維度分開考量。其后,穆勒對人工智能的未來發(fā)展進(jìn)行展望,指出人工智能在發(fā)展的同時(shí)也將給人類帶來風(fēng)險(xiǎn),穆勒對此的態(tài)度為“控制超級智能”。但同時(shí)他也認(rèn)識到,實(shí)際上,“控制超級智能”對人類來說也是一項(xiàng)挑戰(zhàn)??傊?,穆勒對人工智能哲學(xué)的研究已經(jīng)呈現(xiàn)出清晰的邏輯進(jìn)路。
然而,縱觀穆勒對人工智能的哲學(xué)研究,穆勒尚未從價(jià)值維度對人工智能的發(fā)展目標(biāo)做出規(guī)范,如穆勒的研究并未涉及人工智能是否可發(fā)展成為具有人性化、公平性、安全性等價(jià)值的人工智能。在人工智能給人類帶來巨大風(fēng)險(xiǎn)挑戰(zhàn)的情況下,建構(gòu)什么樣的人工智能實(shí)際上是人工智能哲學(xué)中的必要一問,在一定意義上也是人工智能研究的出發(fā)點(diǎn)和落腳點(diǎn)。對待這一問題,除了基于人工智能技術(shù)本身,更應(yīng)該從公眾、政府、國際社會等角度去探索人工智能的建構(gòu)方向,使人工智能造福人類。此外,在穆勒的現(xiàn)有研究成果中,也存在可待商榷之處。
在人工智能的政策規(guī)范問題中,穆勒強(qiáng)調(diào)在政策制定時(shí)應(yīng)將法律和倫理分開考量。誠然,人們通常認(rèn)為法律和倫理各自具有獨(dú)立性,但這樣的政策在引導(dǎo)人工智能的發(fā)展時(shí),法律和倫理間的矛盾沖突并未得到根本解決,因?yàn)楫?dāng)一項(xiàng)人工智能技術(shù)在基于法律考量的政策引導(dǎo)下進(jìn)行應(yīng)用時(shí),它仍有違背倫理的可能性,反之亦然。因此,無論是在人工智能的哲學(xué)研究中,還是在人工智能的實(shí)際應(yīng)用中,我們需要去探索如何盡可能地使人工智能政策實(shí)現(xiàn)法律與倫理的有機(jī)結(jié)合。
關(guān)于人工智能的未來發(fā)展,根據(jù)穆勒的調(diào)查問卷結(jié)果,被調(diào)查者基本上對人工智能的發(fā)展持樂觀態(tài)度。這主要體現(xiàn)在,一是人們基本認(rèn)為人工智能未來會發(fā)展為“超級智能”,只不過在實(shí)現(xiàn)時(shí)間上存在著不同看法,二是僅有30%左右的被調(diào)查者認(rèn)為人工智能的未來發(fā)展對人類將產(chǎn)生“壞”或“極壞”的影響。針對這一調(diào)查問卷及結(jié)果,需要認(rèn)識到的是,穆勒設(shè)置的調(diào)查對象是550 位人工智能及相關(guān)領(lǐng)域的專家,這使得該調(diào)查具有一定的專業(yè)性,但同時(shí)也使得基于該調(diào)查的研究缺乏一定的完整性,特別是忽視了群眾、決策者等人的多樣化態(tài)度。從這一角度講,穆勒基于該調(diào)查所做的研究具有較強(qiáng)的人工智能專業(yè)性,但同時(shí)也具有一定的狹隘性。此外,穆勒提出要“控制超級智能”,并強(qiáng)調(diào)這對人類而言也是一種挑戰(zhàn),而在當(dāng)前穆勒還未進(jìn)一步說明如何“控制超級智能”的問題。因此,在筆者看來,穆勒未來可就“控制超級智能”做出進(jìn)一步研究,以完善當(dāng)前論題。
佛山科學(xué)技術(shù)學(xué)院學(xué)報(bào)(社會科學(xué)版)2021年3期