董惠敏 [盧森堡] 雷卡·馬爾科維奇 [盧森堡] 里昂·范德拓,
(1.浙江大學(xué) 哲學(xué)系, 浙江 杭州 310058; 2.盧森堡大學(xué) 計算機系, 埃斯蘇阿茲特 L-4001)
人工智能不僅是計算機科學(xué)的子學(xué)科,還覆蓋了哲學(xué)、心理學(xué)、社會學(xué)、法律、經(jīng)濟學(xué)等學(xué)科的不同方面。人工智能研究開發(fā)模仿人類智能的程序,使計算機具有智能行為[1],在感知、表征與推理、學(xué)習(xí)、自然交互、社會影響等五個方面開發(fā)相應(yīng)的人工智能技術(shù)。將邏輯用于這些方面[2-3],尤其是在可解釋性人工智能(explainable AI)這一背景下,能彌補以往“黑匣子”式人工智能技術(shù)的不足[4]。
隨著人工智能和機器學(xué)習(xí)的興起,人們關(guān)心的不僅是自主機器人及其他智能系統(tǒng)對自身行為的推理問題,還包括如何在個體愿望、目標與社會、法律、倫理規(guī)范之間保持平衡[5]。此外,還要思考智能主體是如何考慮其他主體行為的[6-8]。例如,自動駕駛汽車不僅能做出駕駛和導(dǎo)航這類行為,而且必須考慮交通法規(guī),還需要對其他自動駕駛或人類駕駛行為進行推理。因此,本文集中回應(yīng)如下挑戰(zhàn):人工智能邏輯如何考慮社會推理?
盡管社會人工智能邏輯領(lǐng)域已經(jīng)有一定的進展,如利用道義邏輯去刻畫人工智能規(guī)范推理,但本文強調(diào)的是,構(gòu)建社會人工智能邏輯更為迫切。抽象地說,社會推理和實踐推理與經(jīng)典推理的主要區(qū)別在于,主體可以對何為正確行動、何為當前世界狀態(tài)有各自不同的意見[9-11]。對實踐推理的形式化旨在刻畫個體概念與集體概念之間的多種互動方式,例如基于知識的義務(wù)及其推理互動[12]。雖然在某種意義上,社會集體行為是全部主體個人行為的總和[13],但在形式理論層面上,依然存在著如何將社會推理與實踐推理聯(lián)系起來這一挑戰(zhàn)。單主體的推理是基于其能力與知識的,主體的能力反映于他所能執(zhí)行的行動,同時他依據(jù)具有不確定性的知識進行決策[14-15]。
因而,就下面關(guān)于構(gòu)建社會人工智能邏輯的問題,本文將給出有針對性的回答:(1)如何通過智能主體的義務(wù)與允許之間的關(guān)系來表示權(quán)利這一概念?(2)如何將人工智能與知情權(quán)等社會概念結(jié)合起來?(3)何種智能主體之間的沖突可以得到識別?如何解決這些沖突?(4)如何為智能主體的自由行動做辯護?
本文首先將權(quán)利和允許作為社會推理的核心概念,并將它們引入人工智能邏輯中來回答第一個問題。我們將給出這兩個概念與禁止、義務(wù)的不同互動方式,并解釋它們是如何與自由行動等社會概念相互聯(lián)系的[16-18]。權(quán)利和允許強調(diào)社會規(guī)范是如何授權(quán)給主體,以實現(xiàn)僅主體自身無法實現(xiàn)的目標的[5,19-20]。從智能主體的角度來看,禁止和義務(wù)是消極的,它們僅強調(diào)社會規(guī)范是如何限制個人規(guī)劃的[20]。
本文通過將重點放在知情權(quán)上來回答第二個問題。盡管知情權(quán)對隱私[21]等重要問題有實際影響,但它仍未被充分研究;同時,知情權(quán)涉及不同主體和不同社會關(guān)系,比如患者對他們自身治療結(jié)果與治療情況的知情權(quán)、士兵對他們奮斗原因的知情權(quán)[22]、公民對政府工作的知情權(quán)、美國環(huán)境法所規(guī)定的大眾對所接觸化學(xué)物品的知情權(quán)。
對第三個問題,通過社會推理中普遍存在的沖突和不確定性,本文指出形式論辯理論的重要性[18]。這一理論并沒有忽略反而是接受沖突,同時,其推理目標不僅旨在解決此類沖突,還在于使不同意見達成共識。
對第四個也是最后一個問題,我們不僅從權(quán)利的角度來探討自由,也從允許這一語境來討論。對于自由選擇允許帶來的挑戰(zhàn),我們將使用形式論辯來應(yīng)對。
通過回答上述四個問題,本文提出一個基于論辯的社會人工智能邏輯研究計劃,或者,更一般地講,一個社會人工智能邏輯。本文通過社會、法律、倫理推理中的例子來說明構(gòu)建社會人工智能邏輯所面臨的挑戰(zhàn)。下面,我們先談?wù)勱P(guān)于使用邏輯語言或其他知識表示的形式語言對現(xiàn)實生活場景進行建模的三個著名論點。首先,形式化這一工作是很難的,它是一種技巧,有人甚至稱之為藝術(shù)。其次,通常并不存在“最好”的形式化,而往往存在對一個論點的多種形式化,因為每一種形式化都有它自身的優(yōu)缺點。再次,對例子進行建模的主要挑戰(zhàn)總是與建模方法的發(fā)展息息相關(guān)。這就像決策論的發(fā)展一樣,對期望函數(shù)和概率分布的第一個猜測總是錯的。人們需要實際參與到?jīng)Q策中,例如在決策論里是參與到博彩中,從而更好地理解它。決策分析中的偏好誘導(dǎo)概念正是這樣提出的。不過,本文并不就建模方法做進一步的討論。
人工智能邏輯對智能自主主體的實踐推理進行形式化。本文所采用的人工智能邏輯相對于經(jīng)典邏輯具有兩個特征:它具有豐富的語言表達力;它能處理不確定性與不一致性。本節(jié)將解釋人工智能邏輯如何從經(jīng)典邏輯中擴張出來,使其擴張語言包括了刻畫智能自主主體行動、信念、知識、權(quán)利、義務(wù)和允許的模態(tài)算子。后面則會解釋人工智能邏輯是如何采用形式論辯的技術(shù)來表示常識推理,處理不確定性、沖突與異常的。本節(jié)使用如下示例。
例1[敏感數(shù)據(jù)]:每個人的健康數(shù)據(jù)均被視為敏感信息,因此在大多數(shù)國家受到保護原則的嚴格約束(歐盟中稱之為GDPR,即歐洲議會及其理事會頒布于2016年4月27日的2016/679條例,它針對自然人個人數(shù)據(jù)處理的保護與自由流通,并廢除95/46/EC命令)。這意味著其他人不允許知道這些敏感信息。然而,如果有人生病并需要治療,那么醫(yī)生應(yīng)治療,而要履行這種義務(wù),醫(yī)生就要求知道患者的健康數(shù)據(jù)。
圖1展示了上述示例所涉及的各種論點,它是使用人工智能邏輯后得到的一個形式模型。此外,通過豎箭頭,這些論點可劃分為兩組論據(jù)。左邊四個論點組成了結(jié)論為不允許醫(yī)生知道敏感信息的論據(jù),而右邊三個論點組成了結(jié)論為允許醫(yī)生知道這些信息的論據(jù)。最上面的論點為結(jié)論,而其他論點用以支撐這些結(jié)論。最上面的從右往左指向的箭頭表示醫(yī)生的知情權(quán)占據(jù)上風(fēng)這一事實。本節(jié)僅考慮自然語言陳述在人工智能邏輯中的形式化,第三節(jié)將對論辯進行更為詳盡的討論。
圖1 敏感數(shù)據(jù)場景中的兩個論據(jù)
給出一個經(jīng)典邏輯語言,其公式包括生病和治療,從而表示患者生病和患者得到治療。我們也可以添加變元,使得公式生病(患者)表示患者生病。此外,若考慮諸如醫(yī)生、患者、張三這類主體,在模態(tài)邏輯中我們可以用形如K醫(yī)生生病的公式表示醫(yī)生知道患者生病,以及¬K醫(yī)生生病表示患者不知道其生病。這里可以采取認知邏輯中最常見的假設(shè),即信念可以有誤但知識必須正確。也就是說,當醫(yī)生知道患者生病,那么推出患者生病這一事實。知識可刻畫為得到辯護的真信念。
我們再來考慮權(quán)利、義務(wù)、允許的社會性。例如,O醫(yī)生治療可以表示醫(yī)生有義務(wù)讓患者得到治療,而P患者生病可以表示允許患者生病。在一些情況下,在模態(tài)算子中標示出兩個主體,使得被標示的義務(wù)具有方向性(1)針對主體間的社會依賴性的形式化也是多樣的。依據(jù)本文的方法,我們可以通過帶有方向性的模態(tài)詞來表示一個主體相對于或依賴于另一主體的某種社會性質(zhì)。在下文的例2中,醫(yī)生知道某個患者a而非患者b的病情,可以表示為K醫(yī)生,a病情∧¬K醫(yī)生,b病情。(參見第二小節(jié))。例如,O醫(yī)生,患者治療可以表示醫(yī)生有義務(wù)讓患者得到治療,明確義務(wù)中所關(guān)涉的兩個主體。在這里,這是一個醫(yī)生對患者的義務(wù)。一般來講,這個示例可以有多種形式化,而這些都將留待建模者來完成。
由于實踐推理考慮的是主體行動,因此主體行動也必須在語言中得到表征[13],例如,公式[醫(yī)生](治療)表示醫(yī)生具有使患者得到治療的能力。也可以使用全稱模態(tài)去表征必然性,例如,□(生病→敏感)表示患者生病時的健康數(shù)據(jù)被視為敏感信息。
模態(tài)邏輯的好處在于其表達式可以通過不同方式混合使用,本文會有大量這種例子。例如,P醫(yī)生[醫(yī)生]K醫(yī)生生病表示允許醫(yī)生讓患者知道其病情。我們可以通過省略主體的方法來表征普遍允許和普遍義務(wù),PK醫(yī)生生病就是其中一個例子。
權(quán)利在本文中具有重要地位,因為它指出一個關(guān)鍵的社會現(xiàn)象:主體的社會地位(在特定情況下為規(guī)范地位)依賴彼此之間的地位。在法學(xué)的實際操作中,對權(quán)利本身的談?wù)撏悄:摹_@種模糊性很容易導(dǎo)致概念上的不清晰,因此,在一百年前,美國著名法學(xué)家Hohfeld對權(quán)利的可能含義進行了區(qū)分[23-24]。Hohfeld的權(quán)利系統(tǒng)由四組不同的法律關(guān)系構(gòu)成,其中包括四種不同的權(quán)利,每種權(quán)利都對應(yīng)一方對另一方的義務(wù)類型:某人的權(quán)利總是意味著他人的義務(wù),這些配對被稱為規(guī)范地位[19]。而這四種可能關(guān)系被稱為相鄰權(quán),因為它們總是一起出現(xiàn)(2)從邏輯的觀點來看即等價關(guān)系。。Hohfeld的權(quán)利系統(tǒng)如圖2所示,其中權(quán)利(包括主張權(quán)、自由權(quán)、權(quán)力、豁免權(quán))(3)權(quán)利的英文為rights或legal rights;權(quán)力的英文為power,可理解為賦權(quán)。Hohfeld給出的法權(quán)系統(tǒng)中將主張、自由、義務(wù)、無主張、權(quán)力、豁免、責任、無能力作為八種最為基本的權(quán)利??梢?,權(quán)力也是權(quán)利的一種。在上一行,義務(wù)和責任在下一行。
圖2 Hohfeld的權(quán)利框架
主張和義務(wù)這兩個權(quán)利概念之間的聯(lián)系在采購合約的協(xié)商過程中體現(xiàn)得最為明顯:賣家對買家的采購價格的主張和要求顯然意味著買家有義務(wù)為賣家提供該信息。這一現(xiàn)象是很普遍的。在認知地位中,如若某人具有知悉某事的主張權(quán),這意味著其他主體有義務(wù)告知他此事:Ra[b]Kaφ?Ob,a[b]Kaφ。然而,如果某人具有知悉某事的自由權(quán),那僅意味其他主體不具備主張其不得獲悉此事的權(quán)利。我們通常認為這一規(guī)范地位為允許,第三小節(jié)將會對其進行分析。
圖2(b)具有類似圖2(a)的結(jié)構(gòu),并且涉及圖2(b)的權(quán)利地位是動態(tài)的[25-27],是關(guān)于改變他人權(quán)利和義務(wù)的潛力[24]。例如,如果我們認為知情權(quán)是一種權(quán)利,那這意味著具有這種權(quán)利的主體使其他主體具有使前者知情的義務(wù),而這樣的規(guī)范地位在這個法理系統(tǒng)中被稱為責任:Pa,b[a]Ob,a[b]Kaφ。同時,如果某人具有對其知識的豁免權(quán),我們可以認為其他主體沒有權(quán)力對前者施加告知后者信息的義務(wù)。即便使用Hohfeld的法理系統(tǒng)和標示出主體的規(guī)范地位,我們也并不排除談?wù)撈毡闄?quán)利和普遍義務(wù)(4)從法律觀點來看,也可以稱之為絕對權(quán)利和絕對義務(wù)。的可能性。我們所常常討論的公民自由,如言論自由權(quán)利,意味著一個主體對其他人而言具有能表達其所知所想的權(quán)利[24]。就像我們有不殺害他人的義務(wù)一樣,一般來說,這并不需要指明這樣的義務(wù)針對的是誰,因為它指向的是所有人:Oa¬[a]殺人。這里涵蓋了主體a與社會其他成員之間的全體相關(guān)法律關(guān)系的復(fù)合[28-29]。更重要的是,如果我們認為這一義務(wù)在一般意義上對所有人來說都是有效的,而且只關(guān)注沒有人應(yīng)該被殺害這一結(jié)果,那我們可以這樣表達:O¬殺人。
我們可以在系統(tǒng)層面上同時以邏輯來處理允許和義務(wù)這兩個概念,即建立一個道義邏輯[20]。這一工作歸功于馮·賴特[30]。馮·賴特提出的弱允許通??衫斫鉃椤皼]有禁令”。所以“這被允許”這一表達方式意為“不被禁止”。這樣的還原論觀點將弱允許簡化,使其等價于禁止的否定,稱之為義務(wù)的對偶。這樣的相互定義由標準道義邏輯的兩條基礎(chǔ)公理之一所刻畫[31]。正如正則模態(tài)邏輯中的可能性模態(tài)那樣,弱允許采用的是向上原則。“如果允許醫(yī)生查閱患者的醫(yī)療記錄并進行醫(yī)治,那么允許醫(yī)生醫(yī)治患者”:P醫(yī)生(查閱∧治療)→P醫(yī)生治療。
這一向上封閉性不可避免地給弱允許帶來過強的、超出社會推理所需要的推理能力,引致羅斯悖論的變種[31]。假定允許醫(yī)生去查閱患者的醫(yī)療記錄,它會推出允許醫(yī)生去查閱患者的醫(yī)療記錄或者將其售賣給保險公司:P醫(yī)生治療→P醫(yī)生(查閱∨售賣)(5)因此,如前所述,允許始終與主體的行動有關(guān),這里所談?wù)摰脑试SP醫(yī)生查閱或P[醫(yī)生]查閱是P醫(yī)生[醫(yī)生]查閱的縮寫。,但后者在道德、法律上都是不被允許的。
馮·賴特后來說,“(強)允許意味著在所允許范圍之內(nèi)的所有選項中自由選擇”[32]32。這種開放性意味的自由選擇在哲學(xué)中往往被看作一種自由的[33]允許。這在日常語言和法律語境下,往往以自主意志的形式出現(xiàn),如“顧客可自行決定給多少小費”,“保釋由法院酌情決定”。與弱允許相比,這種開放性是受限向下封閉的(所用公理記為FCP)?!叭绻试S醫(yī)生知道患者的醫(yī)療記錄,那么允許醫(yī)生知道患者的病情”:PK醫(yī)生記錄→PK醫(yī)生病情,因為當前病情往往是醫(yī)療記錄的一種,即□(病情→記錄)。范·丙申的道義模態(tài)邏輯刻畫了這類允許[34]。其中,強允許不僅遵循那條刻畫了開放性的公理,還必須遵守一條被稱為“義務(wù)為最弱允許”的公理(OWP)[35]。針對強允許,后面的這條公理給出了“不違反規(guī)定”的限制:所有強允許必須在義務(wù)所設(shè)置的范圍之內(nèi)。當允許醫(yī)生知道并使用患者的電子郵箱去與之聯(lián)系時,醫(yī)生是被禁止濫用這些數(shù)據(jù)的,例如,不允許醫(yī)生給患者發(fā)送垃圾郵件:O醫(yī)生¬垃圾郵件。雖然允許醫(yī)生知道和使用患者的電子郵箱,即PK醫(yī)生電郵,但醫(yī)生所被允許的行為受限于禁令,即□(K醫(yī)生電郵→¬垃圾郵件)。這一點與馮·賴特的觀點十分相近[36]。
有人認為強允許的推理能力也會過強,在社會推理中面臨著自由選擇悖論[16]那樣的難題。這里主要是擔心向下封閉性會導(dǎo)致異常情況:如果允許醫(yī)生知道患者的醫(yī)療記錄,那么就允許醫(yī)生知悉患者醫(yī)療記錄并毀掉它,即PK醫(yī)生記錄→P(K醫(yī)生記錄∧毀壞)。這一異常結(jié)果基于這樣一個假設(shè):醫(yī)生知道醫(yī)療記錄并毀壞它是醫(yī)生知道醫(yī)療記錄的一個例子,即□(K醫(yī)生記錄∧毀壞→K醫(yī)生記錄)。不過這一假設(shè)并非日常生活中的常見例子。第四小節(jié)將對強允許做進一步分析。
主張權(quán)常常出現(xiàn)在法律、倫理規(guī)范中,很容易與我們所說的強允許相混淆[32]。允許無論強弱,總是關(guān)于我們自身的行動,而與他人無關(guān)。所以,允許與動態(tài)的權(quán)力更為相似。在某種程度上,這兩者都指向關(guān)于我們自身的在規(guī)范上不同的可能性。正如Makinson[37]所指出的,它們之間的重要差別在于后果:當我們在沒有允許的情況下做某事時,后果就是被懲罰;然而,如果我們在沒有權(quán)力的情況下做某事,我們就不可能去做這件事。正如Markovich[24]所論述的,權(quán)力與行動相關(guān),這些行動由構(gòu)成性規(guī)則[38]所生成。我們不能售賣不屬于我們的東西:售賣是一個構(gòu)成性概念或行動,由描述了當某人出售某物時將會發(fā)生何事的規(guī)則所構(gòu)成。擁有財產(chǎn)的這一規(guī)范狀態(tài)包括了出售這一財產(chǎn)的權(quán)力;而如果不擁有這份財產(chǎn),我們就不能出售它。
對知識和規(guī)范概念的使用,或許會影響我們可以(或應(yīng)該)使用何種模型。隱私權(quán)是一個涉及眾多權(quán)利的復(fù)雜概念(6)參見關(guān)于敏感數(shù)據(jù)的例1。,它指向隱私這樣一個復(fù)合概念[21]。隱私權(quán)的內(nèi)核是一組指向其他所有人的主張權(quán),要求他人遠離其私人領(lǐng)域。也就是說,其他人不得獲悉其私人生活。這意味著長長的一系列禁令,包括那些實際上可能采集或公開其隱私信息的行為。
這些權(quán)利像大多數(shù)權(quán)利一樣是可廢止的。這一性質(zhì)意味著權(quán)利的存在(表達它們的句子的真值或者推出它們的推理有效性)可能依賴語境。某人的知情權(quán)所對應(yīng)的信息可能出于某種原因需要保密,同時存在一個更強的論證支持其保密性而非使之獲悉,在這種情況下,并不存在使前者獲悉此信息的義務(wù)。又或者反過來:某人的隱私權(quán)意味著禁止其他人知道其私人生活和私人信息,這也是可廢止的。他們的私人生活可能給他人帶來危險,而公共利益通常是反對個人利益的更強論證。有時候要決定哪一個論證更強不是一件容易的事,這是我們所要面對的困境。這兩種情況都可以通過第三節(jié)的形式論辯理論來表示。
當我們在知情權(quán)這一背景下去談?wù)摂?shù)據(jù)和查詢數(shù)據(jù)時,需要考慮允許獲悉與知識之間的互動。作為公民,你被允許知道這個城市的歷史檔案。這似乎是一種許可,并且你似乎顯然可以(即允許)走進檔案館查閱資料。如果你提出要查詢數(shù)據(jù),那似乎可以說檔案館應(yīng)該將你所需要的數(shù)據(jù)提供給你。這意味著你所具有的許可不僅是一個允許,而且是一個主張權(quán)。所以,在此場景下,Pa[a]查詢和Ra[b]Ka數(shù)據(jù)同時成立。這樣的日常許可反映出使用多模態(tài)邏輯的另一挑戰(zhàn)??紤]如下與知識交互的例子。如果我們認為在當前情景下所涉及的知識應(yīng)該是經(jīng)典的“得到辯護的真信念”,即知識推出真,那么依據(jù)知情權(quán)RaKaφ這一前提,我們會得到Ob,a[b]Ka數(shù)據(jù)這樣一個奇怪的結(jié)論:檔案館必須讓數(shù)據(jù)內(nèi)容為真。當與規(guī)范概念互動時,我們尚不清楚知識是否依然推出真。社會推理的其他方面也存在類似的關(guān)于知識的挑戰(zhàn)[39]。其中一個著名例子是摩爾悖論[40],它涉及語用悖論公式Ka(φ∧¬Kaφ)。當我們對自然語言中的“允許”“獲悉”等模態(tài)詞進行形式化時,我們希望使用的是何種意義上的知識?在社會推理中,這是一個重要問題。
兩個主體的信念可能是不同的,這會導(dǎo)致主體之間的沖突。然而,兩個主體發(fā)生沖突的方式有很多。例如,它們可以執(zhí)行帶來相反結(jié)果的行動,或者它們具有互不兼容的權(quán)利。BOID邏輯[41]采用Thomason[42]劃分優(yōu)先級的想法,將不同類型的信念、義務(wù)、愿望、意圖劃分不同優(yōu)先級,然后通過陳述不同主體類型的通用策略來解決沖突。下一節(jié)將介紹主體間的形式論辯理論,以表征不同邏輯公式之間的矛盾沖突。
邏輯有兩種定義沖突的方法。一種方法是使用形式語義,如果一個句子沒有模型,那就有沖突。模態(tài)邏輯語義基于可能世界語義。每個模態(tài)算子都存在一集合可通達的可能世界,使得形如Oφ為真,當且僅當它所通達的可能世界φ為真。在一個具有持續(xù)性的模型上,我們不能為O¬治療和O治療這兩個句子找到同一個模型。另一種方法是為模態(tài)邏輯定義一個證明系統(tǒng):在一集合給定的前提下得出矛盾沖突,當且僅當這個系統(tǒng)同時推出一個公式和它的否定。證明系統(tǒng)的另一個優(yōu)點是,證明系統(tǒng)的公理可以反映出該邏輯的特征和性質(zhì)。
論辯理論分析社會推理中的爭論,以期在不同意見中達成共識。爭論在社會生活中是很常見的。下面的例子給出了人工智能邏輯中的三種常見沖突。通過使用論辯理論這一工具,可以表示和解決現(xiàn)實情景中的沖突。我們以墮胎這一全球性話題為例討論知情權(quán),并展示形式論辯理論的方法和工具(圖3)。
圖3 墮胎爭論的形式化(7)其中我們考慮的是新生兒患重病的情況,而[父母]¬孩子表示墮胎這一行為。>
例2[墮胎與知情權(quán)]:普遍認為,準父母有權(quán)知道胎兒在出生后是否健康。這意味著醫(yī)生必須告訴他們是否健康。支持這一觀點的論據(jù)是,如果預(yù)期胎兒會患重病,那么準父母有權(quán)決定他們是否要這個孩子,為了做這一決定,他們必須知道這一點。這會得出墮胎是允許的(如果不被允許,那么就不需要做決定了)。而事實上另一個與之相矛盾的觀點認為墮胎是錯誤的,支持這一觀點的論據(jù)是每個人都有生存的權(quán)利,即其他人包括準父母都不允許扼殺這個生命。而這一論證支持關(guān)系(即論點C1和C2之間的關(guān)系)被“生命是從出生開始算起”這一論點所否定,從而不成立,也就是說,墮胎并不違反生存的權(quán)利。在美國得克薩斯州,參議院通過了一項法案,宣布生下患有重疾的嬰兒的父母不能因為在懷孕期間醫(yī)生沒有識別這一疾病而起訴醫(yī)生。如果某事(或其賠償)不能讓法院強制執(zhí)行,則其不作為義務(wù)存在[24]。這意味著,在得克薩斯州,準父母沒有權(quán)利讓醫(yī)生識別胎兒是否患病。我們將對疾病的識別形式化為[醫(yī)生](K醫(yī)生患病∨K醫(yī)生¬患病),即醫(yī)生讓自己知道胎兒是否患病。而問題在于,這一識別行為如何與這種(最可能的)義務(wù)相聯(lián)系:如果醫(yī)生知道胎兒患病,那么他應(yīng)當告訴準父母。而告訴準父母胎兒是否患病可以被形式化為[醫(yī)生](K患者患病∨K患者¬患病)。在理論上,這兩個命題似乎是相互獨立的,因為醫(yī)生不必須識別,而如果他識別了則必須告知。但在實際操作中,如正被廣泛討論的,在得克薩斯州和法律界,這似乎給了醫(yī)生選擇的可能性:我們不知道醫(yī)生是否識別出疾病,或者醫(yī)生已識別但他因為擔心準父母可能不要這個胎兒而決定不告訴他們。由于我們似乎難以得知他人所知所想,我們難以區(qū)分上面闡述的那兩種情況:如果醫(yī)生知道了這一疾病但并未讓其他任何人知道,那么我們可能永遠不可能知道醫(yī)生是否知道。這意味著識別疾病這一行為不可能被起訴,更何況如果醫(yī)生知道,他就應(yīng)當告知準父母。但如果醫(yī)生沒有告知準父母的義務(wù)(因為它不能被強制執(zhí)行),那么識別問題成了告知問題,從實踐角度來講,這也意味著準父母沒有關(guān)于其胎兒是否健康的知情權(quán)。
社會現(xiàn)實中的推理通常不像模態(tài)邏輯那樣演繹有效,而是不確定的,需要解決沖突。不確定的社會推理是普遍存在的。如果患者患重病,那么醫(yī)生有義務(wù)為其治療:患病→O醫(yī)生治療。如果醫(yī)生不知道患者的醫(yī)療記錄,那么他不應(yīng)該去治療:¬O醫(yī)生¬治療→K醫(yī)生患病。到目前為止,一切還好。但如果換成是患者得病但其隱私權(quán)阻止醫(yī)生得知患者的醫(yī)療記錄的情景,即這個假設(shè)為集合{患病,¬K醫(yī)生患病},那么我們會得出O醫(yī)生治療和O醫(yī)生¬治療這樣的結(jié)論,即醫(yī)生有義務(wù)醫(yī)治患者,同時他也有義務(wù)不治療。哪一個結(jié)論才應(yīng)最終被接受呢?這樣的不確定性給出了一組規(guī)范沖突[43-44],而人工智能邏輯正是要解決這一問題(8)參見van der Torre L., ″Reasoning about Obligations: Defeasibility in Preference-Based Deontic Logic,″ PhD Thesis, Erasmus University Rotterdam, 1997。[45]。
智能的關(guān)鍵特征在于,當例外的新證據(jù)出現(xiàn)時,它能對社會推理的結(jié)論的不確定性進行處理[3,45-46]。一般采用“可廢止性”去處理這一問題,后面將對這個概念進行解釋。
利用邏輯解決沖突的基本思路是很直接的。在經(jīng)典邏輯中,沖突就是不一致。如果假設(shè)中既存在結(jié)論為“門開著”的論證,也存在結(jié)論為“門關(guān)著”的論證,那么在經(jīng)典邏輯中就會從這一假設(shè)推出任意結(jié)論。而在人工智能邏輯中,僅有部分論證的邏輯有效并最終被接受。因此,人工智能邏輯就像一個篩子那樣對所有可能的論證進行篩選[43]。
這兩種處理沖突的方法的微妙差別在于,形式論辯系統(tǒng)并不假設(shè)所有的沖突都可以得到解決。有時候我們并沒有足夠的信息去解決沖突,或者存在兩種互不相容的方案。在這種情況下,形式論辯理論仍然具有重要作用,因為它能夠明確表明分歧所在。正如其目標所示:贊同不同之處。
形式論辯系統(tǒng)的特殊性在于,它并不事先假定論證在對話中的作用,與之相反,它假設(shè)所有論證都得到展示,然后決定哪些論證會被接受、哪些被拒絕。這種方法與法律運作的方式相似:所有證據(jù)都會呈遞給法官,然后由法官來做出決定。而呈遞、發(fā)現(xiàn)證據(jù)的順序被認為與判決無關(guān)。
形式論辯系統(tǒng)和其他人工智能邏輯的重要特征是,一旦有更多可用信息,就可以舍棄原有結(jié)論[3,45]。這使得缺省推理是可行的。例如,在我們知道Tweety是企鵝之前,我們可以假定Tweety會飛。在這種意義上,人工智能邏輯是非單調(diào)邏輯[43]。
通過系統(tǒng)地對論證的(可)廢止性進行比較,論辯理論提供一種方法去澄清社會推理的非單調(diào)原因。一般來講,論辯理論通過可廢止知識或可廢止推理規(guī)則來定義論證,從而定義三種攻擊論證的方法:攻擊作為前提的可廢止知識、攻擊可廢止規(guī)則的結(jié)論、攻擊這些可廢止規(guī)則的使用。這樣也解釋了可廢止規(guī)則的前提是推定地而非演繹地支持其結(jié)論[47]。關(guān)于墮胎的例子表明了在論辯或爭論的不同階段其可廢止性是如何成為可能的。
我們區(qū)分兩類知識和推理規(guī)則(參見圖3),以刻畫可廢止規(guī)則和可廢止論證。一類不是可廢止的而是嚴格的。在圖3中,可廢止的用虛線表示。嚴格規(guī)則記為,圖中用實線表示,用以刻畫演繹有效的推理,其中前提的真保證了結(jié)論的真。而可廢止規(guī)則記為,圖中用虛線表示,表示推定性推理,其中前提很可能支持結(jié)論,但它可以由相反證據(jù)來推翻。每個論證可以通過知識作用于推理規(guī)則來遞歸地定義。一個論證是可廢止的,當它所使用的規(guī)則是可廢止的,否則是嚴格的。一個論證是穩(wěn)固的,當前提中的所有知識都是嚴格的,否則是可能的。在圖3中,帶*號的方塊表示知識,而沒有*號的表示那些通過推理規(guī)則構(gòu)造的論證的結(jié)論。以“墮胎不可接受”為結(jié)論的論證C2是可廢止的,因為它所使用的規(guī)則是可廢止的;而“生命始于出生”的論證D本身就是嚴格知識,因而它是穩(wěn)固的。在圖3中,每一個方塊代表了一個論點,它們也是論證的結(jié)論。論證C2是可廢止的而論證D是嚴格的。圖3中所有論證除了B4和B5都是穩(wěn)固的。
我們首先介紹基于規(guī)則的偏好[18]來給論證劃分優(yōu)先級?;谝?guī)則的偏好總是偏好嚴格論證甚于可廢止論證。因而在圖1中,它(嚴格)優(yōu)于論證B3甚于論證A4。此外,還有其他比較論證的方法,其中一種叫作全稱偏好,另一種叫作基于前提的偏好[18,47]。全稱偏好對每一個論證的偏好都是一樣的,因而全稱偏好是作用于所有論證的等價關(guān)系。我們也可以通過前提的性質(zhì)來對論證進行分類?;谇疤岬钠谜J為穩(wěn)固的論證比可能的論證更優(yōu)。
將帶有不同論點的論證放在一起會導(dǎo)致不一致,我們可以通過擊敗這個概念來比較它們。我們遵循已有文獻所定義的三種擊敗關(guān)系:反駁、切斷、削弱[47]。關(guān)于墮胎的爭論很好地說明了這種區(qū)分。第一種擊敗關(guān)系是最廣為人知的反駁關(guān)系,它基于論證規(guī)則的結(jié)論去探討可廢止性。在這個爭論中,嚴格論證A4的結(jié)論“醫(yī)生應(yīng)當告訴準父母其胎兒是否患病”與可廢止論證B4的結(jié)論相反。因為在基于規(guī)則的偏好中A4比B4更優(yōu),所以A4反駁了B4。第二個概念切斷關(guān)系是基于論證前提來考察可廢止性。穩(wěn)固論證A2的前提“準父母有權(quán)決定他們是否要孩子”與穩(wěn)固論證C2的結(jié)論相反,而在基于前提的偏好中A2不比C2更優(yōu),因而我們說A2被C2切斷。最后一個概念削弱關(guān)系指出一個論證是如何通過攻擊另一個論證的規(guī)則使用來擊敗后者的。在基于規(guī)則的偏好下,嚴格論證D的結(jié)論“生命始于出生”與結(jié)論為“墮胎不可接受”的可廢止論證C2所使用的推理規(guī)則相矛盾,因此論證D削弱了論證C2。
如何從一集合存在沖突的論證中挑選出得到辯護的、無沖突的論證?1995年Dung[48]提出一個叫作“穩(wěn)定外延”的概念來處理沖突。在Dung看來,稱一集合的論證為穩(wěn)定外延,當前僅當被這個外延里的論證所擊敗的那些論證都不包含在這個集合里。也就是說,首先集合內(nèi)的論證不會相互攻擊,其次所有外部論證會被這個外延中的某個論證所擊敗。每個穩(wěn)定外延所包含的論證相互接受。因而,穩(wěn)定外延為我們提供了另一種一致性,用以解釋在何時一集合的論證不存在沖突。在例2中,支持論點“醫(yī)生應(yīng)當告訴準父母其胎兒是否患病”的那些論證形成了一個穩(wěn)定外延,也就是論證A1、A2、A3、A4、B1、D之間相互接受。
如第二節(jié)第三小節(jié)所闡釋的,如果我告訴你可以喝綠茶或喝紅茶,那么我是在建議你可以自由選擇喝綠茶或喝紅茶。因此,你可以喝紅茶,也可以喝綠茶。這被稱為自由選擇允許[16,36]?;陉P(guān)于知識和行動的人工智能邏輯這一背景,本節(jié)來探討自由選擇允許。例如,假設(shè)你被允許知道客戶住址或電話號碼,這是否意味著你被允許知道客戶住址及電話號碼?如果你被允許步行或坐公交車,是否意味著你被允許步行及坐公交?
本節(jié)將描述基于論辯的人工智能邏輯是怎樣使用形式論辯理論去應(yīng)對關(guān)于自由選擇允許的挑戰(zhàn)的。我們必須謹慎對待自由選擇允許這一概念。例如,自由選擇悖論[16]闡釋了倫理沖突的核心之一在于不恰當?shù)貙⒘x務(wù)、允許、可能行動放在一起考慮。這一點可以通過道義邏輯[34]的兩個基本原則FCP和OWP來解釋。
如第二節(jié)的第三小節(jié)所述,F(xiàn)CP描述了自由、自由行事的直觀,刻畫了自由選擇允許[16]和強允許[35]。FCP可以用來表示產(chǎn)品購買情景下的允許知悉。為了提供在線購買服務(wù),電商公司被允許知道顧客所提供的信息或顧客使用情況的信息。這會得出電商公司具有知道這兩類信息的許可。電商公司這種知情的自由可被視為提供在線服務(wù)的必要條件,而這是寫在其隱私聲明中的。
而OWP這一公理表達了所有允許都受限于義務(wù)。在在線購買這一例子里,電商公司對不同類型私人信息的獲悉允許被隱私聲明、它所參與的隱私保護框架、數(shù)據(jù)保護法中的義務(wù)和責任所限制。FCP和OWP這兩個原則在不同類型的社會推理中常常被用到,例如自然語言推理[49]、博弈[17,35]、法律推理[27]等。
以上提及的兩個原則是相互一致的,但與某些例外假設(shè)放在一起時可能會產(chǎn)生不一致的情況??紤]圖4中的例子如下:
(1)允許知道用戶個人信息。(B)
(2)禁止將用戶個人信息用于其他目的。(A)
采用“義務(wù)為最弱允許”原則OWP,我們會得到如下結(jié)論:
(3)知道用戶個人信息(通常)不會導(dǎo)致濫用。(C′)
然而,我們同時有作為例外的前提“知道用戶個人信息后也可能將其用于其他目的”(C),而這一前提與前面的陳述C′相矛盾。而較C′而言,我們更偏好陳述C這一可能的新信息,因為它以社會事實作為證據(jù);與此相比,舊陳述C′是可廢止的。如此,我們便不再認為知道用戶個人信息(通常)是在在線購買服務(wù)的目標范圍內(nèi)的(C)。此外,我們不會推論說濫用信息是允許的(B′),因為它是一個在已有的得知用戶個人信息許可的基礎(chǔ)上通過使用可廢止規(guī)則FCP推出的結(jié)論。在社會情景下,比起用可廢止規(guī)則刻畫自由選擇允許,我們認為將允許置于義務(wù)范圍內(nèi)是更合理和更可取的。因此,規(guī)則OWP壓倒規(guī)則FCP。不過,依據(jù)社會思維,我們?nèi)匀幌M玫街T如電商公司被允許知道用戶個人信息以接收和處理訂單的論證(B″),因為這里不存在比之更優(yōu)的相反論證(圖4)。
圖4 知道用戶個人信息的示例
高性能計算和其他計算技術(shù)使得計算機的計算能力不斷增強,推動人工智能的驚人發(fā)展。目前,應(yīng)用于機器學(xué)習(xí)中的技術(shù)其實已經(jīng)存在了幾十年,卻在現(xiàn)今計算技術(shù)的幫助下才得到廣泛應(yīng)用。普遍認為,在人工智能的其他領(lǐng)域,如表示和推理,也將有類似的革命到來。尤其是,盡管數(shù)據(jù)科學(xué)和機器學(xué)習(xí)已經(jīng)催生出被稱為動物智能的技術(shù),但人們期待信息與知識技術(shù)的發(fā)展會帶來人工智能,雖然關(guān)于什么是人工智能依然沒有達成共識。
對于社會人工智能的發(fā)展,我們需要理解知識表示與推理所面臨的挑戰(zhàn)。我們可以從20世紀80年代系統(tǒng)的研究中吸取一些教訓(xùn):以往的人工智能工作承諾了很多,但缺少我們今天所擁有的計算能力。本節(jié)將基于對本文所提出的四個研究問題的討論,提出一個面向基于論辯的社會人工智能未來發(fā)展的研究方案。
本研究方案始于20多年前所編寫的《人工智能邏輯和邏輯編程設(shè)計手冊》[50]。其中人工智能邏輯包括五個主題:邏輯基礎(chǔ)、演繹方法、非單調(diào)推理和不確定推理、認知與時態(tài)推理、邏輯編程。在過去的20多年中,這些領(lǐng)域有了一些發(fā)展:(1)一階邏輯的片段已經(jīng)得到更為具體的研究和發(fā)展,尤其是用于表示和推理本體的描述邏輯(9)描述邏輯可參見Gabbay D.M., Hogger C.J. & Robinson J.A. (eds.), Handbook of Logic in Artificial Intelligence and Logic Programming, Volume 1: Logic Foundations, Oxford: Clarendon Press, 1994。。(2)已有的演繹方法已在新的計算技術(shù)中得到采用,而像Isabelle那樣的交互式定理證明器對用戶已經(jīng)變得更為友好[51]。(3)形式論辯理論是處理非單調(diào)推理和不確定性的主流方法,這可參見COMMA系列會議(10)The Conference on Computational Model of Arguments (COMMA系列會議)的歷年信息可在http://comma.csc.liv.ac.uk查閱。。形式論辯理論系列手冊的第一卷于2019年出版,而第二卷正在準備中。(4)認知與時態(tài)推理已經(jīng)拓展至主體推理,其中包括行動、偏好、意圖等概念,這些概念在AAMAS系列會議中得到討論(11)International Foundation for Autonomous Agents and Multiagent Systems (AMMAS系列會議)的歷年會議論文集可在http://www.ifaamas.org/proceedings.html查閱。。(5)邏輯編程已經(jīng)發(fā)展至回答集編程[50]。
此外,如前所述,當前人工智能的挑戰(zhàn)在于如何將人工智能邏輯應(yīng)用于社會推理。
本文方法論的第一步是將形式論辯系統(tǒng)和形式邏輯一起考慮,從而建立基于論辯的邏輯。這里并不區(qū)分理論推理和實踐推理。
本文假設(shè)形式論辯理論是形如ASPIC+這樣的基于規(guī)則的論辯理論。它采用兩個基本邏輯,一個作為下限邏輯,一個作為上限邏輯,使一個刻畫嚴格規(guī)則而另一個刻畫可廢止規(guī)則[47]。這種定義論證的方法被稱為粗略方法。大致來說,選出兩個模態(tài)邏輯,嚴格規(guī)則可由下限邏輯的推演來定義,而可廢止規(guī)則可由上限邏輯的推演來定義[18]。這種方法如Modgil和Prakken[47]所論述的,是基于某種認知或理性標準。這種方法通常用于定義論辯理論,并進一步通過關(guān)于社會推理的系統(tǒng)性論辯理論表示不同的非單調(diào)人工智能邏輯。
然后,我們通過對知識分類來區(qū)分不同的論證[47]。我們將知識區(qū)分為可錯的和可靠的。在這種情況下,一個論證的可錯性不僅可以存在于前提中,還可以存在于從前提到結(jié)論的推理過程中[47]。這種分類定義了一個新的偏好,即基于前提的偏好,通過比較不同類型的擊敗關(guān)系來解決倫理沖突。人工智能邏輯的構(gòu)建也會反映這樣的區(qū)分:通過不同的前提來區(qū)分不同的推演。
我們在以往工作[18]中提出如何在穩(wěn)定外延、兩個單調(diào)邏輯和基于規(guī)則偏好的基礎(chǔ)上通過一種統(tǒng)一的方法建立人工智能邏輯。這一逐步構(gòu)建的方法與模態(tài)邏輯中的Lindenbaum引理證明[52]類似。其基本思想是先基于下限邏輯再基于上限邏輯去構(gòu)建一個一致的論證集合,在平衡嚴格規(guī)則和可廢止規(guī)則所對應(yīng)的論證的同時保持論證集的極大一致性。
基于這種兩步構(gòu)造法一步步地構(gòu)建穩(wěn)定外延,從而給出我們的人工智能邏輯的定義[18]。所有邏輯推演來自下限邏輯或上限邏輯。這里有三步:首先構(gòu)建基于論辯的邏輯,其次構(gòu)建基于論辯的人工智能邏輯,最后構(gòu)建基于論辯的社會人工智能邏輯。
在第二步中,我們將聚焦實踐推理在人工智能邏輯中的特殊性。由于理論和可觀察現(xiàn)實之間的對應(yīng),傳統(tǒng)上認為理論推理比實踐推理簡單。但是,隨著量子力學(xué)等現(xiàn)代物理學(xué)的興起,實驗檢測理論的推進也變得越來越困難。然而,一般來說,由于實踐推理所內(nèi)含的模糊性以及缺乏實驗數(shù)據(jù),對實踐推理的形式化要比對理論推理的形式化困難。據(jù)此,本文的示例提示了三點注意事項:
(1)復(fù)雜性:正如本文示例所展示,形式化是困難的,每一個給出的自然語言句子都有多種不同的形式化,而每一種形式化都有其優(yōu)缺點(12)在例1中,存在三種對穩(wěn)固知識“醫(yī)生應(yīng)當治療患者”的形式化方式。圖1中給出的O醫(yī)生〈醫(yī)生〉治療是其中一種,而另外兩種是O醫(yī)生[醫(yī)生]治療和生病→O醫(yī)生[醫(yī)生]治療。。
(2)多樣性:最優(yōu)的形式化往往是不存在的,而通常是在表征或模型之間做出權(quán)衡。
(3)論證提取:人們可能會在不同程度上錯誤地表征論證,我們需要一種方法去調(diào)整其論證。
當前的數(shù)據(jù)驅(qū)動方法,如自然語言處理、論證挖掘、機器學(xué)習(xí)等,將幫助我們完成上述的論證提取任務(wù),幫助我們設(shè)計更好的社會人工智能邏輯。
在架構(gòu)社會人工智能邏輯時,不僅對示例的表征必須足夠靈活,而且所給出的一種好的語言、一些好的公理和一種好的語義也是必須經(jīng)過經(jīng)驗檢驗的。這解釋了為何本文題目采用了“面向”一詞。
例如,我們來考察使用強允許對表征多主體交互中的信任所起到的作用。信任反映了多種在社會交互下的依賴,它賦予可信賴的個體以行動的自由。而另一方面,可信賴的機構(gòu)的大多數(shù)活動需要帶來正面影響。因此,要得到其他人的信任從而可自由行動,被信任的主體需要針對其行為有一個好的決策規(guī)劃。這些社會現(xiàn)象的形式模型需要處理信任、允許、決策行為之間的進一步聯(lián)系。
許多來自人工智能邏輯和社會推理的概念已經(jīng)得到了研究,雖然本文尚未對它們進行討論。人工智能邏輯和社會推理的總體領(lǐng)域是很廣闊的[53],表1中列出了其中的一部分。本文將必要的概念限制在知情權(quán)和隱私的范圍之內(nèi),因此沒有明確地討論信任、聲譽、責任、職責等概念。不過,通過形式擴展,我們的人工智能邏輯也可以處理這些概念。例如,可在我們的人工智能邏輯語言中增加多主體認知模態(tài)算子,從而刻畫多主體之間關(guān)于公平與偏見的社會認知。
表1 關(guān)于個體和集體推理的概念
社會推理考慮一個主體如何受其他主體行為的影響,并明確展示出主體間的社會依賴性[13,53]。此外,社會依賴與主體間的信任相關(guān)[54-55]。一方面,信任是一種挑戰(zhàn),因為信任的破壞會對個體規(guī)劃造成負面影響[56];另一方面,通過對其他主體的依賴能夠比單個個體實現(xiàn)更多的目標[57]。從這個角度來講,社會依賴和社會信任是這個社會的黏合劑。在認知邏輯中,它們由社會網(wǎng)絡(luò)中的信念和信任所表征[58-60]。在規(guī)范推理中,社會網(wǎng)絡(luò)由主體之間的權(quán)利來表示。
在法律語境下,部分社會規(guī)范是被制度化的[19,25-26,61-63]。同樣,法律可以看作一種限制主體的方式,或是一種賦予主體權(quán)利的機制[19, 26,62]。隱私規(guī)范可以限制每一主體對其他主體的知情,同時幫助每個主體保護自己的數(shù)據(jù)和隱私[64]。
按照這樣的做法,主體的其他認知態(tài)度也可以用相同方式來建模,包括主體的愿望、目標、意圖[13,65-66]。此外,還可以對行動及其變化進行形式化[67]以表達因果性。雖然本文并沒有考察這些概念的形式化,不過,下面給出了與之相關(guān)的三類工作。與它們相比,本文所提出的用于刻畫社會推理的人工智能邏輯是一個道義認知行動邏輯。
1.關(guān)于義務(wù)與主體的邏輯。STIT邏輯是一個得到廣泛應(yīng)用的關(guān)于義務(wù)與主體的邏輯[13]?;贐ratman關(guān)于實踐推理的哲學(xué)觀點,STIT邏輯給出了一個刻畫主體義務(wù)的BDI框架[68]。STIT邏輯的語義是一個細化了主體選擇的分支時態(tài)模型:主體的每一個選擇都依賴它所處的時刻和歷史。主體的行為通過其行為結(jié)果來隱含地表達。STIT模態(tài)的基本思想為:主體a導(dǎo)致狀態(tài)φ,即[a:STIT]φ,當且僅當主體的選擇保證了狀態(tài)φ的成立。因此對主體來說,STIT邏輯所刻畫的并非“應(yīng)當做”而是“應(yīng)當是”:對主體來說應(yīng)當是的行為就是與之相關(guān)的主體的理想選擇都能實現(xiàn)。事實上STIT邏輯不僅很好地刻畫了個體行動,也很好地刻畫了集體行動[69]。所以,STIT邏輯廣泛應(yīng)用于對社會影響[70]、決策博弈[71]、法律推理[19,24]等方面的分析。近年來,關(guān)于義務(wù)和知識的STIT邏輯也得到了研究[12,14]。關(guān)于STIT邏輯,《多主體規(guī)范系統(tǒng)手冊》相關(guān)章節(jié)有更多討論[72]。
2.關(guān)于條件規(guī)范邏輯。條件規(guī)范通常用來表達道義分離陳述,如“當ψ時φ是應(yīng)當?shù)摹?。也就是說,給出一個條件規(guī)范及其前件,可以推出這個條件陳述的道義后承。道義邏輯學(xué)家給出不同的形式系統(tǒng)去探索條件規(guī)范的普遍特征,其中,輸入/輸出邏輯[73]與基于偏好的道義邏輯[74]及其動態(tài)邏輯[66]是刻畫道義分離的兩個主流方法。在實際應(yīng)用中,條件規(guī)范邏輯可以討論法理學(xué)中的構(gòu)成性規(guī)范[63]。
3.關(guān)于權(quán)利與允許的邏輯。在社會推理中,要通過模擬主體之間的規(guī)范行為來充分考察主體間互動,那么允許是一個重要但尚未被充分研究的概念(13)關(guān)于允許這一道義概念的最新研究,請參見Dong H., ″Permission in Non-monotonic Normative Reasoning,″ PhD Thesis, University of Bayreuth, 2017。[16]。在社會現(xiàn)實中允許是很常見的:“本雜志是開放獲取的,每個人都可以免費閱讀并下載其中的文章”;“在激活了月票后,你可以在一個月之內(nèi)乘搭盧森堡任意公共交通工具”;“在簽署房屋購買合同后,你可以自由地裝修自己的房子”。這里的允許涉及幾乎所有社會生活中的自由、隱私、賦權(quán)等概念。給定一個允許,要理解這個概念的含義,我們需要一種合適的方法對這個允許與義務(wù)、知識及主體所能實施的行為等相關(guān)概念之間的關(guān)系進行推理。
在哲學(xué)、語言學(xué)、計算機科學(xué)、法律等領(lǐng)域,許多研究人員已經(jīng)指出允許這一概念的多面性。例如,允許可被看作作為義務(wù)對偶的弱允許[30]、刻畫自由行動的強允許[36,49,75]、具有動態(tài)特征的允許[76]、作為已有規(guī)范的例外的可廢止允許[77-78]等等,它們涵蓋了許多在多主體互動中使用到的重要理性原則。
在這里,我們依據(jù)馮·賴特的思想來比較弱允許和強允許兩個概念[36]:如果一個行動不被禁止,那么它在弱意義上被稱為是可允許的;如果它不被禁止并服從規(guī)范,那么它就是在強意義上可允許的。被強允許的行動因而是被弱允許的,但反過來不必然成立。這兩種允許可以通過它們與知識的交互來區(qū)分。假如你有一張月票,那么你被允許使用任意公共交通工具。但如果它是一個弱允許,又假如你不知道在搭乘交通工具前并不禁止不打卡,那么你就不知道在進入交通工具前是否可以不打卡。這樣給出的弱允許并不能指導(dǎo)主體的行動。而如果將車票看作一個強允許,而你知道不打卡是使用這一車票搭乘公共交通工具的其中一個行為,那么你知道在搭乘交通工具前允許不打卡。此外,在多主體交互語境下,同伴的信任賦予你在其房屋中逗留并使用房屋設(shè)施的自由,而無須明確指出什么是不被禁止的。
本文給出了一個社會人工智能邏輯研究計劃,它是在數(shù)據(jù)科學(xué)和機器學(xué)習(xí)技術(shù)等人工智能技術(shù)上的擴展。人工智能邏輯對智能主體的推理進行形式化。社會人工智能邏輯在人工智能邏輯的基礎(chǔ)上增加與社會推理相關(guān)的機制。本文展示了關(guān)于行動、知識、權(quán)利、義務(wù)和允許的人工智能論辯邏輯如何形式化社會推理的各個重要方面。除了對個體知識和行動進行推理外,社會人工智能邏輯也對主體間的社會依賴性進行推理。
首先,我們指出權(quán)利如何分析主體的義務(wù)和允許之間的關(guān)系。例如,將自由看作允許的一種,那么,一個主體有知道某信息的自由就是他人沒有知道該信息的主張權(quán)。當一個主體對他人有對數(shù)據(jù)知情的主張權(quán),這意味著他人有義務(wù)去讓這個主體知道這些數(shù)據(jù)。在社會實踐中,這種義務(wù)和允許之間的互動涉及主體之間的依賴。
其次,我們解釋了主體間的沖突是如何得到識別的且可以通過對比關(guān)于允許和禁止的邏輯論證來解決沖突。使用形式邏輯或者形式論辯理論工具可以達到這一目的。邏輯的不一致概念可以用來識別爭論中的沖突,而要解決沖突,我們就要用到論辯理論。通過被擊敗的論證可以展示沖突。在論辯理論中解決沖突的方法是采用穩(wěn)定外延來選出所有被相互接受的論證。
再次,我們用兩個例子來闡明如何探討知情權(quán)。這與近年關(guān)于隱私和倫理討論的中心問題密切相關(guān)。第一,與其他社會推理類似,關(guān)于知情權(quán)推理具有非單調(diào)性。我們的例子考慮了兩類知情權(quán)的非單調(diào)性。一方面,醫(yī)生對病人健康數(shù)據(jù)的知情不應(yīng)導(dǎo)致不良結(jié)果的產(chǎn)生,如病人數(shù)據(jù)的濫用;另一方面,準父母是否對其胎兒是否患病有知情權(quán),這在倫理、法律的元理論層面依然存在爭論。第二,我們要回答如何通過邏輯對主體知情權(quán)進行建模。知情權(quán)不僅與允許、義務(wù)等規(guī)范概念相關(guān),也和主體的認知和行動緊密聯(lián)系。這一方面要求我們嘗試對知情權(quán)給出不同的形式表征,另一方面則要求我們積極探索知情權(quán)與其他主體概念之間的多層次關(guān)聯(lián)。例如,知情權(quán)存在的前提在于主體的知識,如何通過人工智能邏輯來表示知情權(quán)所涉及的爭論,依然值得我們進一步探討。
最后,我們在形式論辯的框架下討論了自由選擇允許所帶來的挑戰(zhàn)。在這里,我們并沒有簡單地斷言自由選擇允許是否為一個理性概念,而是給出關(guān)于個人信息的知情權(quán)這一實例,指出自由選擇允許所涉及的問題是如何在義務(wù)、允許、行動的互動之下得到重新解釋的。使用用戶個人信息的自由是受法律所約束的。如果不考慮自由選擇允許與其他道義概念之間互動,則很難說我們所擁有的自由是理性的、合理的。