摘要:智能技術(shù)及其應(yīng)用的迅猛發(fā)展,對(duì)以人類的主體性地位為根本存立前提的當(dāng)代法律體系形成強(qiáng)烈沖擊,智能主體的刑法地位成為關(guān)鍵問題。目前,消極論和積極論處于相持階段,加速了現(xiàn)行刑法理論體系的知識(shí)變革進(jìn)程?!叭嗽煳铩钡炔煌潭鹊南麡O論,以現(xiàn)行刑事法律制度難以直接接納及其所裹挾的潛在的刑事風(fēng)險(xiǎn)等為由,雖有其可取之處,但其邏輯機(jī)理正是過度釋放人類中心主義的預(yù)設(shè)效應(yīng)。完全按照人類中心的立場(chǎng)進(jìn)行審視會(huì)得出無法調(diào)和的結(jié)論,也顯示了智能技術(shù)應(yīng)用的工具屬性被深度放大之傾向,但上述消極事由不盡然合乎規(guī)制人工智能犯罪的現(xiàn)實(shí)需要,也與法律主體制度的演進(jìn)規(guī)律不符,甚至?xí)褐菩谭ㄖ黧w的自主進(jìn)化?!半娮尤恕钡炔煌问降姆e極論,率先走出絕對(duì)的人類中心主義及其觀念束縛,以發(fā)展的眼光看待人工智能與刑法的互動(dòng)及其動(dòng)向,更加契合了人工智能犯罪的發(fā)展動(dòng)態(tài)。而意志自由、刑事責(zé)任能力、道德倫理規(guī)則、智能程度與智能主體類型、刑事責(zé)任的客觀存在、算法的特殊地位與意義等既有的知識(shí)框架與新的要素累積,意味著人工智能可以在發(fā)展的刑法體系中實(shí)現(xiàn)銜接與契合。經(jīng)由不真正完全背離刑法原理的認(rèn)識(shí)扭轉(zhuǎn),亦供給了學(xué)理層面的支撐。而且,遵循功利主義的理路,以及在一系列有關(guān)人工智能主體方面的先行立法之做法的引領(lǐng)下,應(yīng)分階段、類型化、動(dòng)態(tài)化厘定智能主體的刑法地位,使其在法律擬制的路徑上可以繼續(xù)延續(xù)和拓展。在人工智能的刑法主體地位得以澄清下,有必要接受智能主體可以享有一定的新興權(quán)利之現(xiàn)實(shí)情狀,但應(yīng)具體地確證權(quán)利類型等具體內(nèi)容。在現(xiàn)階段的技術(shù)代際之策動(dòng)下,智能主體的權(quán)利內(nèi)容與范圍目前是限制性的,無法采取與“人”對(duì)等的保護(hù)策略,保護(hù)方式也應(yīng)有別。這種“降維”保護(hù)有其現(xiàn)實(shí)合理性,通過積極制度設(shè)計(jì)與規(guī)則配置,能夠最大限度策應(yīng)人工智能主體的刑法地位之更迭態(tài)勢(shì)。
關(guān)鍵詞:人工智能主體;刑法地位;消極論;人類中心主義;積極論;功利主義;權(quán)利邏輯
中圖分類號(hào):D914;TP18文獻(xiàn)標(biāo)志碼:A文章編號(hào):1008-5831(2022)04-0216-14
一、未竟的知識(shí)顛覆
人工智能技術(shù)及其應(yīng)用的增速,使目前仍被認(rèn)為是“人造物”的“智能主體”智能主體是現(xiàn)實(shí)功能主義立場(chǎng)下的稱謂,智能機(jī)器人及產(chǎn)品等是人類中心主義立場(chǎng)的稱謂。但此不做區(qū)分。在現(xiàn)階段,對(duì)智能主體諸問題的前瞻討論,不免仍然需要借助現(xiàn)行刑法話語體系,如刑事責(zé)任能力等概念。(智能機(jī)器人、人工智能體等,下同),因(日益/高度接近)“類人”的智能程度與行動(dòng)能力等,開始被貼上“主體”的新標(biāo)簽,使人的主體性地位開始遭受雙面震蕩:人繼續(xù)作為“造物主”,人的主體性意識(shí)、人的主體性發(fā)展均受益;但也嚴(yán)重沖擊人的主體性地位、能力、道德倫理,制約人的主體性發(fā)展。這種辯證觀察顯示了智能主體的到來及其地位的升級(jí),既是人的主體性之延續(xù),也加速銷蝕人的主體性地位。在這場(chǎng)拉鋸戰(zhàn)中,人的主體價(jià)值觀顯現(xiàn)出陷入悖論的跡象?!叭恕迸c“智能主體”的法律地位之爭(zhēng)是隱性效應(yīng),并且會(huì)弱化“人創(chuàng)制法律”的認(rèn)識(shí)觀、世界觀與價(jià)值觀以及法律制度。
目前,理論上關(guān)于智能主體的法律身份與地位的看法不一。實(shí)踐中存在一種強(qiáng)烈的聲音:應(yīng)用中的智能機(jī)器人以及更高級(jí)的智能主體,應(yīng)被認(rèn)為是像“人”的法律主體,并以此構(gòu)建智能主體格局下的主體范式、關(guān)系范式、權(quán)利話語體系。但這種前瞻性的“建構(gòu)”,也被認(rèn)為是人類中心主義[1]。不僅暗示所謂“智能主體”必然缺乏道德主體資格,也使智能主體通過法律設(shè)立的權(quán)利“形同虛設(shè)”或無法真正行使。畢竟智能主體是“人造物”,具有鮮明的“工具屬性”,是為保護(hù)人類的利益而存在的,非真正的法律主體權(quán)利,與人的主體性本質(zhì)與要求完全相斥。智能主體能否成為“(類)人”?關(guān)鍵在于確認(rèn)“(類)人性”(人的社會(huì)現(xiàn)實(shí)性、歷史文化本性等)。這是智能主體法律地位之“難題”的核心和實(shí)質(zhì)。甚至智能技術(shù)的“工具性意義”與“機(jī)器人是否會(huì)威脅或代替人類”的主體性危機(jī)相比,是更實(shí)際與真實(shí)的當(dāng)下?lián)鷳n。但消極論脫離真實(shí)的訴求。最新的探索已走在前面國(guó)際社會(huì)對(duì)于智能主體的法律地位目前呈現(xiàn)為松綁的積極姿態(tài)與做法,并體現(xiàn)在立法與實(shí)踐方面。 。
理論觀望還在持續(xù)中,但智能技術(shù)引發(fā)的“人類主體性危機(jī)”已悄然蛻變和加劇,甚至將成為人類社會(huì)最大的“人造危機(jī)”。當(dāng)代法律體系、特別是刑法體系,正面臨已經(jīng)迫近的根本性制度危機(jī)。目前,關(guān)于智能主體的刑法地位問題,主要分為消極論和積極論,兩方紛爭(zhēng)不止,但未能提出面向未來的建設(shè)性方案;關(guān)于智能主體的權(quán)利問題,則疏于討論,導(dǎo)致研究深度與廣度不足。應(yīng)當(dāng)從理論與現(xiàn)實(shí)層面,對(duì)智能主體的刑法地位課題進(jìn)行回顧、反思并再構(gòu)。這不僅關(guān)系人的主體性地位與刑法的歷史定位,也關(guān)系當(dāng)代刑法的生死存亡與功能發(fā)揮。特別是對(duì)于人工智能刑法的前沿問題研究,應(yīng)容忍必要的學(xué)術(shù)“想象力”,以此稀釋浪漫主義與虛無主義法律的偏一風(fēng)險(xiǎn),進(jìn)而推動(dòng)人工智能刑法理論研究趨于理性與可行。甚至在一定程度上,主動(dòng)暢想“人工智能刑法學(xué)”也是有依據(jù)和意義的前沿探索參見:孫道萃《人工智能刑法研究的反思與理論迭進(jìn)》(《學(xué)術(shù)界》,2021年第12期第64-76頁)。 ?;诖耍瑢?duì)于人工智能的刑法主體地位及其相關(guān)問題的討論與歸結(jié),不宜完全只停留于實(shí)定法的既定框架,而需植入必要的前瞻性,以面向未來的姿態(tài),開啟積極的建構(gòu)性研究。
二、消極論:解析與回應(yīng)
(一)消極論的主要事由與解構(gòu)
1.消極論的主要事由
在法理上,智能主體的法律人格問題頗具爭(zhēng)議。在民法領(lǐng)域,也存在不同看法[2]??腕w說包括產(chǎn)品責(zé)任說、類推適用動(dòng)物說等。主體說包括代理說、電子人格說等。折中說認(rèn)為,智能主體的民法地位屬于“人工類‘人格”,屬于物的范疇,是權(quán)利客體,而非民事主體。在智能技術(shù)與智能主體迅猛發(fā)展,智能程度不斷遞增等情況下,客體說具有顯著的“人類中心主義”傾向,其滯后性會(huì)逐漸顯現(xiàn)。主體說的立場(chǎng)較為激進(jìn),但未能考慮人工智能技術(shù)應(yīng)用尚處于弱人工智能時(shí)代的現(xiàn)實(shí)。折中說所指的“人工類‘人格”,雖提及“人”的主體因素,但歸根結(jié)底是“人造性”,結(jié)論實(shí)質(zhì)上是“物”,而非獨(dú)立的法律人格體。按此邏輯,AI 不存在法律主體的邏輯問題。這些看法對(duì)刑法領(lǐng)域的理解有一定的輻射作用。
目前,刑法領(lǐng)域的消極論主要表現(xiàn)為:(1)全面消極論。人工智能缺乏對(duì)外在行為及其社會(huì)屬性的認(rèn)識(shí)、規(guī)范評(píng)價(jià)意義上的意志自由、理解并遵從法規(guī)范的能力、對(duì)不法的認(rèn)識(shí)可能性與抵制意志,不能按照法人進(jìn)行類比[3]。(2)刑法對(duì)象論。人工智能具有絕對(duì)的客體性。人工智能犯罪的可歸責(zé)主體,只能是作為算法安全社會(huì)關(guān)系主體的“自然人—法人”二元主體[4]。按照塞爾“中文房間模型”認(rèn)知理論,人工智能不具備刑法意義的辨認(rèn)能力與控制能力,應(yīng)當(dāng)視為犯罪工具或犯罪對(duì)象[5]。(3)刑事主體資格條件的缺乏論。根本不可能在認(rèn)知、意識(shí)、情感方面設(shè)計(jì)與人類相媲美的具有人類心智的人工智能主體,更不能實(shí)施犯罪與承擔(dān)刑罰,不是適格的受罰主體與刑事責(zé)任主體參見:張鐳《人工智能體可罰性辯疑》(《南京社會(huì)科學(xué)》,2018年第11期82-87頁);葉良芳《人工智能是適格的刑事責(zé)任主體嗎?》(《環(huán)球法律評(píng)論》,2019年第4期67-82頁)。。(4)非法定主體論。人工智能是高級(jí)工具,無法被賦予“權(quán)利義務(wù)統(tǒng)一性”,不具有刑法意義上的辨認(rèn)、控制能力,不能實(shí)現(xiàn)報(bào)應(yīng)、預(yù)防等目的。犯罪主體只能是自然人或單位[6]。
2.消極論的解構(gòu)
消極立場(chǎng)的理由,基本上可以概括為:在現(xiàn)行刑法中,“人的主體性地位”及其專屬性、不替代性、不可動(dòng)搖性、天然的法定性等牢不可摧。(1)意志自由的缺失與刑事責(zé)任能力不匹配。從生物學(xué)看,人的刑事主體地位的形成,是建立在意志自由與刑事責(zé)任能力的基礎(chǔ)之上。前者是哲學(xué)層面的人的意志自由決定,后者是規(guī)范層面的行動(dòng)自由,共同決定是否可以承擔(dān)刑事責(zé)任。但討論智能主體的意志自由與刑事責(zé)任能力,面臨尷尬的技術(shù)局限、語境受限以及規(guī)范缺失等問題。智能主體的意識(shí)、意思或者對(duì)行為的違法性認(rèn)識(shí)等問題,與人的主觀方面存在本質(zhì)的區(qū)別。和法人相比,雖有相似之處,但差異很大。智能主體暫時(shí)不具有刑法評(píng)價(jià)意義上的行為認(rèn)識(shí)與控制要素的自主性,不具有人的目的理性所支配的可答責(zé)基礎(chǔ),欠缺作為刑事責(zé)任主體的本質(zhì)要素。這些因素共同決定無法以“人類中心主義”的邏輯來討論智能主體的法律地位問題。(2)行為理論的不對(duì)等。行為是最基礎(chǔ)的要素,是刑法評(píng)價(jià)的直接對(duì)象。智能主體的行為,是在其相應(yīng)的意識(shí)、意思以及能力的作用下,自主決定是否實(shí)施,并應(yīng)對(duì)該行為負(fù)責(zé)。只是相比于人類的行為邏輯以及所實(shí)施的犯罪行為,智能主體的實(shí)行行為表現(xiàn)為“算法”及其運(yùn)行的新情狀,二者有明顯差異。(3)與刑事制裁不吻合。智能主體不能直接適用目前刑法規(guī)定的刑罰措施。而確認(rèn)智能主體的刑法地位,首要目的是追究刑事責(zé)任。與之相適應(yīng)的刑事制裁措施尚處闕如,容易使該目的落空。智能主體缺乏“類人”的可罰性特質(zhì),使其不能成為刑法主體。(4)與基本理論不對(duì)恰。智能主體目前不是法定的刑法主體類型。即使確認(rèn)智能主體的身份,但由于理論體系等未能及時(shí)更新或無法同步確立,必然會(huì)出現(xiàn)深度的理論對(duì)沖。(5)定罪和量刑的紊亂。按照現(xiàn)行刑法規(guī)定,在定罪量刑活動(dòng)中,很多規(guī)定無法適用于智能主體,既使定罪的對(duì)象、依據(jù)等內(nèi)容失效,也使量刑情節(jié)適用等活動(dòng)無法進(jìn)行。例如,對(duì)智能主體的歸責(zé),目前只能主要考慮損害結(jié)果,卻模糊人工智能作為主體的主觀惡性與行為時(shí)的故意、過失之分,容易導(dǎo)致刑罰圈的恣意擴(kuò)大與具體刑罰適用的失當(dāng)。(6)法律適用的不對(duì)接。智能主體是否存在主觀惡性與人身危險(xiǎn)性等內(nèi)容尚無法確定,刑罰預(yù)防措施難以有效配置;無法或者無需嚴(yán)格區(qū)分故意與過失及其定罪量刑要求,難以體現(xiàn)故意與過失的區(qū)分意義;自首、立功等量刑情節(jié)亦無法適用,犯罪特殊形態(tài)如犯罪預(yù)備、中止、未遂等情形,套用在智能主體上非常生硬。(7)刑事責(zé)任的轉(zhuǎn)嫁性??隙ㄖ悄苤黧w的刑法地位,則可以獨(dú)立承擔(dān)刑事責(zé)任。智能主體與研發(fā)者等人類主體相互獨(dú)立或剝離,在實(shí)踐中可能出現(xiàn)不同行為的交錯(cuò)與重疊。不排除可能出現(xiàn)智能主體濫用技術(shù)優(yōu)勢(shì)并轉(zhuǎn)嫁風(fēng)險(xiǎn)給人類個(gè)體,逃避刑事責(zé)任的追究。
(二)人類中心主義的理性消解
1.“人造物”觀與工具思維的疊加
消極論遵循“人類中心主義”思維。所謂人類中心主義,是以人為宇宙中心的哲學(xué)立場(chǎng)。核心內(nèi)容是一切以人為中心,一切以人為尺度,一切從人的利益出發(fā),最終為人的利益服務(wù)[7]。在自然人、自然人集合體等組成法律主體格局下,智能主體缺乏“人的生命屬性”,無法與“法人”直接類比,智能主體尚不足以取得獨(dú)立的法律地位。從“人造物”的主客體關(guān)系看,智能技術(shù)的發(fā)展程度無法改變作為人類勞動(dòng)創(chuàng)造的“技術(shù)客體”,主張是“物”有其客觀理由。由此,基于智能技術(shù)應(yīng)用的“工具屬性”,“物”的角色才是智能主體進(jìn)入法律規(guī)范的身份,是與法律交互的前提。這反映人類的“創(chuàng)制”地位對(duì)界定智能主體的“映射”效應(yīng),“工具屬性”使智能主體無法獲得獨(dú)立的法律地位。但是,法律主體及其范圍呈擴(kuò)張趨勢(shì)。故,積極說才是應(yīng)然選擇。可以參照“法人”之做法,有限度地運(yùn)用“法律擬制”之立法技術(shù),賦予智能主體的法律能力與地位并無法律技術(shù)障礙。
2.人類中心主義過度化的“加持”
從絕對(duì)到相對(duì)的人類中心主義,也是認(rèn)識(shí)觀與實(shí)踐觀的理性迭進(jìn)[8]。完全按照人類邏輯消極看待智能主體的法律地位,不免存在認(rèn)識(shí)論上的誤區(qū)。人工智能并未對(duì)法律基礎(chǔ)理論、法學(xué)基本教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識(shí)適用于新的場(chǎng)景[9]。在人類中心主義導(dǎo)向下,不僅否定當(dāng)前討論智能主體刑法地位問題的真實(shí)性與必要性,也對(duì)智能主體這一元問題提出根本性的質(zhì)疑。在方法論上,當(dāng)前對(duì)智能主體的“法律地位”之判斷,套用人類中心主義的固有邏輯,用“符合人類的法律主體判斷標(biāo)準(zhǔn)”而非智能時(shí)代的特有邏輯來判斷智能主體的法律地位問題。這在認(rèn)識(shí)論上隱藏立場(chǎng)失當(dāng)?shù)碾[憂:根據(jù)人應(yīng)當(dāng)具備的認(rèn)知、道德、意思等具體理性能力與特質(zhì)為內(nèi)容所形成的判定標(biāo)準(zhǔn)體系,對(duì)智能主體進(jìn)行實(shí)質(zhì)與形式的雙重“匹配”,是人類中心主義主導(dǎo)下的“認(rèn)識(shí)”。可以“順理成章”推導(dǎo)出智能主體缺乏生命價(jià)值、生命脆弱、感知痛苦等人的具體特質(zhì),與人類應(yīng)當(dāng)具備的一些判定標(biāo)準(zhǔn)體系“絕緣”,故不能作為法律主體。對(duì)于智能主體法律地位的判斷,應(yīng)當(dāng)以算法、深度學(xué)習(xí)等要素為基礎(chǔ),根據(jù)智能社會(huì)對(duì)法律人格判定的專屬標(biāo)準(zhǔn)體系,設(shè)定獨(dú)立于“人”的具體特質(zhì)加以判斷。只有建立既不完全脫離人類的現(xiàn)有法律體系,但又符合智能時(shí)代的特定發(fā)展需要的“判斷規(guī)則”,才能在過程與結(jié)論上,更恰當(dāng)?shù)貙?duì)智能主體法律地位作出符合實(shí)際的判斷。
3.對(duì)否定論的審正
針對(duì)消極論的質(zhì)疑與擔(dān)憂,應(yīng)當(dāng)澄清以下問題:(1)作為智能主體存在基礎(chǔ)的道德倫理正在形成。人的生理性與社會(huì)性,共同決定“人之為人”。人的社會(huì)性表現(xiàn)為社會(huì)規(guī)則擔(dān)當(dāng)起維系社會(huì)發(fā)展的重任,同時(shí)以道德倫理作為最重要的基礎(chǔ)。智能主體是否具有道德倫理,是決定其法律屬性與刑法地位的前提與基礎(chǔ),并與自然人的關(guān)系、法律屬性、法律制度等相互映照。目前對(duì)于智能主體的道德倫理問題更多的是擔(dān)憂。特別是在“人類中心主義”的思維下,套用人類建立的規(guī)則體系,幾乎沒有肯定智能主體擁有道德倫理的空間。然而,從國(guó)際社會(huì)的動(dòng)態(tài)和一些發(fā)達(dá)國(guó)家的做法看,對(duì)智能技術(shù)倫理的討論更趨于樂觀,也形成一些共識(shí)和積極成果。逐步建立與智能時(shí)代相適應(yīng)的道德倫理規(guī)則體系并非不可能,也為確定智能主體的刑法地位預(yù)留制度空間。(2)法律主體的歷史變遷規(guī)律。智能主體已然不同于普通機(jī)器,存在賦予其法律人格的正當(dāng)化依據(jù)。將沒有生命體的智能主體,作為法律主體,具有技術(shù)可能性和現(xiàn)實(shí)需求,不會(huì)實(shí)質(zhì)性地背離法學(xué)基礎(chǔ)理論。超越程序設(shè)計(jì)與編制范圍,基于獨(dú)立的獨(dú)立意志進(jìn)行活動(dòng)的智能主體完全可能出現(xiàn),使其具備法律人格的基礎(chǔ)并成為法律主體。這是對(duì)“人”的概念的增補(bǔ)而非致命的沖擊。法律中“人”的概念并非僵化不變。立法上賦予智能法律人格與權(quán)利義務(wù)并非完全不可能。世界范圍內(nèi)已有先行的立法活動(dòng)。(3)法律擬制的刑法功能與意義。從法律發(fā)展的規(guī)律看,法律是以人類為規(guī)制對(duì)象。經(jīng)過長(zhǎng)期實(shí)踐與發(fā)展后,天然地不適用于人工智能。目前,人工智能不具備也無法模擬人的全部行為與活動(dòng)。將智能主體擬制為法律主體,直接降低人的主體性地位,也可能使“人造物”的概念出現(xiàn)異化。但從人作為法律主體的形成邏輯,法人作為犯罪主體的歷史規(guī)律與法律邏輯看,基于人工智能技術(shù)的發(fā)展與算法規(guī)則的發(fā)達(dá),以及高度智能化的特征等因素,智能技術(shù)的理性延伸具備相應(yīng)前提,并會(huì)賦予行動(dòng)能力的基礎(chǔ)。完全寄希望于既有法律主體規(guī)定的有效性,顯然是偏于保守。法律擬制可以依法賦予智能主體的法律地位,與刑法中的法人無異。而且,法律擬制的方式具有人的可控性特征,使人對(duì)智能主體的刑法地位之預(yù)設(shè)與調(diào)整處于安全的狀態(tài)。(4)功利主義的司法意義延展。智能主體的刑法地位問題,是由新興犯罪態(tài)勢(shì)客觀催生的,而不是純粹主觀臆測(cè)的猜想。為了確保刑法目的與刑法機(jī)能的正常運(yùn)行,有效規(guī)制智能技術(shù)及其應(yīng)用過程中形成的刑事風(fēng)險(xiǎn),應(yīng)從根本上謀求更合理的解決方案。從功利主義的現(xiàn)實(shí)角度看,智能主體刑法地位的闕如是當(dāng)前困擾的首要癥結(jié)。對(duì)智能主體刑法地位予以清晰界定,從源頭上回答智能主體是否可以獨(dú)立實(shí)施犯罪行為,從功能上明確智能主體是否可以承擔(dān)刑事責(zé)任,這才是理性的風(fēng)險(xiǎn)控制觀。
三、積極論:匡正與立基
積極接納智能主體的刑法地位是新的供需關(guān)系所使,關(guān)切到人類生存與發(fā)展的重大問題這里暫不深究“人之為人”“人是世界主體”等哲學(xué)問題及其曠世糾葛,側(cè)重從法律上探討現(xiàn)實(shí)可能性。。在功利主義的引導(dǎo)下,通過立法逐步確認(rèn)智能主體刑法地位具有可行性基礎(chǔ)與現(xiàn)實(shí)必要性。
(一)積極論的主要情狀與展開
1.積極論的幾種樣態(tài)
理論上形成以下看法:(1)完全積極論。與現(xiàn)有刑事責(zé)任主體的差別、無法證成“強(qiáng)智能機(jī)器人不具有自由意志”、處罰上的不能、確立強(qiáng)智能機(jī)器人刑事責(zé)任主體地位引發(fā)的推卸刑事責(zé)任等不成立。強(qiáng)智能機(jī)器人具有辨認(rèn)能力和控制能力,是刑法主體
參見:劉憲權(quán)《人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對(duì)》(《法商研究》,2018年第1期3-11頁);劉憲權(quán)《對(duì)強(qiáng)智能機(jī)器人刑事責(zé)任主體地位否定說的回應(yīng)》(《法學(xué)評(píng)論》,2019年第5期113-121頁);劉憲權(quán)《智能機(jī)器人工具屬性之法哲學(xué)思考》(《中國(guó)刑事法雜志》,2020年第5期2034頁)。。(2)相對(duì)積極論。智能代理可以成為道德代理。人工智能具備法律人格是成為犯罪主體的基本條件,可以通過智能代理獲得犯罪主體資格的條件。而且,人工智能具有可罰性
參見:彭文華:《人工智能的刑法規(guī)制》(《現(xiàn)代法學(xué)》,2019年第5期135-151頁);彭文華《自由意志、道德代理與智能代理——兼論人工智能犯罪主體資格之生成》(《法學(xué)》,2019年第10期18-33頁);[英]拉塞·夸爾克、王德政《人工智能機(jī)器人的刑事可罰性》(《中州學(xué)刊》,2020年第10期48頁)。。(3)一般積極論。弱人工智能引起刑法質(zhì)變的可能性仍然抽象。如若無法引起刑法的突變,“人工智能的刑法規(guī)制”極可能是偽命題。只有假想的超級(jí)人工智能,才可能導(dǎo)致刑法發(fā)生突變。但突變后的刑法,顯然已不再是當(dāng)下的刑法[10]。(4)功能發(fā)展論。人工智能的“人格化”具有方法論依據(jù)、智能性的本質(zhì)要素、法理基礎(chǔ)等。人工智能作為“人”會(huì)沖擊傳統(tǒng)刑法教義學(xué),但有助于解決智能主體實(shí)施的“犯罪”及其疑難社會(huì)問題[11]。
在對(duì)人類中心主義進(jìn)行一定的認(rèn)識(shí)觀修正后,積極論的意義在于:(1)有助于明確智能時(shí)代的犯罪諸問題。智能時(shí)代新型犯罪問題已經(jīng)開始出現(xiàn),主要以智能“工具型”“對(duì)象型”犯罪為主。智能時(shí)代的犯罪形態(tài)仍在發(fā)展,犯罪類型等基本問題尚不確定,影響對(duì)刑事責(zé)任的理解與認(rèn)定。傳統(tǒng)犯罪形態(tài)與智能時(shí)代的新型犯罪不盡相同。智能主體與現(xiàn)行刑法主體的實(shí)質(zhì)差異是其縮影。明確智能主體的刑法地位,有助于認(rèn)識(shí)和界定智能時(shí)代的犯罪這一前提問題,也對(duì)解決好刑事責(zé)任、刑罰等問題有積極意義。(2)可以解決智能主體的刑事責(zé)任之客觀問題。目前,利用智能技術(shù)應(yīng)用平臺(tái)實(shí)施新型犯罪已經(jīng)浮出水面[12],也包括針對(duì)智能主體的犯罪與智能主體自主實(shí)施犯罪的情況。一律直接借助現(xiàn)行法律規(guī)定或理論體系的規(guī)制未必有效和可行。例如,在智能駕駛情形中,出現(xiàn)是否存在真正的駕駛主體、駕駛主體究竟是人還是智能系統(tǒng)以及背后的制造者等問題。發(fā)生了重大交通安全事故后,涉嫌產(chǎn)品犯罪、公共安全犯罪、重大監(jiān)督過失犯罪,甚至故意犯罪等犯罪。傳統(tǒng)犯罪規(guī)定不足以解決智能駕駛過程中的新型犯罪問題。而明確智能主體的刑法地位是解決問題的關(guān)鍵。(3)有助于智能主體與“人”的責(zé)任分擔(dān)。智能主體的刑事責(zé)任,與“人”(研發(fā)者、設(shè)計(jì)者、經(jīng)銷者、所有者、使用者等)的責(zé)任分擔(dān)相關(guān)。完全由“人”來承擔(dān)替代責(zé)任顯然不可取。不同智能程度的智能主體,其與人“共同”犯罪的主次關(guān)系變得復(fù)雜。合理確定智能主體的身份與地位是前提。
2.積極論的規(guī)范分解
在積極論的前提下,對(duì)智能時(shí)代的意志自由、刑事責(zé)任能力等規(guī)范要素,應(yīng)當(dāng)采取更“包容”的接納態(tài)度,與智能程度、算法發(fā)展等積極因素相互疊加,共同夯實(shí)積極論的成立基礎(chǔ)與有益條件。為此,應(yīng)闡明人工智能與現(xiàn)行刑法之間的融合度。(1)意志自由的有無問題。人的意志自由問題,主要表現(xiàn)為自主地決定自己的意志并實(shí)施行為。而其刑法學(xué)意義是指犯罪主體是在所有因素的綜合下,仍可以自主地決定是否實(shí)施犯罪行為。意志自由是刑法主體的必備要素?;凇叭祟愔行闹髁x”及“工具屬性”的語境,智能主體是人實(shí)施犯罪的新工具或方法,沒有可以和人對(duì)等的“意志自由”,也就沒有作為法律主體的獨(dú)立性、自主性基礎(chǔ)。但是,這種理解是狹隘的:一是忽視隨著智能技術(shù)的發(fā)展以及智能程度的升級(jí),可能出現(xiàn)完全智能的主體。從理論看,智能主體在認(rèn)識(shí)能力和意志能力上,可能接近甚至超越人類水平,完全可能成為犯罪的主體,直接造成社會(huì)危害結(jié)果。二是簡(jiǎn)單固化智能主體的刑事風(fēng)險(xiǎn),僅限于“人的濫用風(fēng)險(xiǎn)”,而忽視其他刑事風(fēng)險(xiǎn)類型。這是“工具屬性”思維左右智能犯罪類型認(rèn)識(shí)的具體反映。在初期階段,由于算法水平等因素的限制,應(yīng)用功能較為單一,仍屬于“工具”的范疇,與傳統(tǒng)的“產(chǎn)品”無異;在深度應(yīng)用階段,可能持續(xù)挑戰(zhàn)人類社會(huì)的認(rèn)知底線,自主性迅速增量;在完全獨(dú)立應(yīng)用階段,智能主體的地位趨于鞏固,所帶來的顛覆性后果完全超出現(xiàn)有法律的約束能力。因此,討論智能主體的刑法地位,應(yīng)秉持發(fā)展性、階段性的持續(xù)性修正理念。三是智能技術(shù)的“算法”規(guī)則及其運(yùn)行是以“智能化”為本質(zhì)特征,而智能技術(shù)的應(yīng)用是為了“解放人的勞動(dòng)力”?!肮ぞ邔傩浴迸c“智能屬性”之間的博弈關(guān)系,隨著智能技術(shù)的發(fā)展,傾斜于后者的趨勢(shì)顯而易見。完全否定智能主體的“自主性”及其“意志自由”,從技術(shù)本身、應(yīng)用范圍、應(yīng)用目的以及實(shí)際情況等方面看,都難以成立。(2)刑事責(zé)任能力及其判斷。目前,人作為刑法主體所必需的具備刑事責(zé)任能力要素,是否可以“等值”輸入到智能主體內(nèi),作為評(píng)價(jià)刑法主體資格的核心要件備受爭(zhēng)議。刑事責(zé)任能力包括犯罪能力和承擔(dān)刑事責(zé)任能力,具體由辨認(rèn)能力與控制能力所組成。智能主體由程序設(shè)計(jì)和編制而成,不是具有生物學(xué)意義上的生命體。然而,智能技術(shù)的發(fā)展,會(huì)使智能主體無限接近“人”;與動(dòng)物相比,智能主體具有辨認(rèn)能力與控制能力;與普通機(jī)器人相比,智能主體可能超越人類設(shè)計(jì)和編制的程序產(chǎn)生自主的意識(shí)和意志。從法律屬性上,可以將智能主體定位為經(jīng)程序設(shè)計(jì)和編制而成的,可以通過深度學(xué)習(xí)產(chǎn)生自主意識(shí)和意志的不具有生命體的“人工人”。如今,單純將智能主體看成是“執(zhí)行強(qiáng)制指令而無法獨(dú)立作出判斷的計(jì)算工具或編程”已不合時(shí)宜。為了使軍用機(jī)器人比人類更具有人性,應(yīng)當(dāng)在機(jī)器人系統(tǒng)中設(shè)計(jì)“人工良心”,并公開征求機(jī)器人應(yīng)當(dāng)遵循的道德規(guī)范[13]。不僅可以逐步建立起獨(dú)立的智能主體道德倫理體系,也可以基于智能程度和算法系統(tǒng)等能力條件,形成獨(dú)立的思考與行動(dòng)系統(tǒng)。(3)智能化程度與智能主體的類型劃分。決定智能主體地位及其能力的首要因素是智能程度,可以根據(jù)智能程度來確定刑事責(zé)任能力程度?;凇靶袨榕c責(zé)任能力的同時(shí)性”原則,在方法論上可以將人工智能的智能化程度作為衡量“刑事責(zé)任年齡”的指標(biāo)依據(jù),判斷人工智能體是否具備刑事責(zé)任能力。例如,智能水平分為很低、較高、很高,可以分別比擬自然人的完全無刑事責(zé)任、相對(duì)有刑事責(zé)任、完全有刑事責(zé)任的情形。間歇性系統(tǒng)異?;蛑胁《镜娜斯ぶ悄荏w,可以按照類比精神病人或醉酒的人[14]。這種看法有其合理性。根據(jù)智能程度確定智能主體的類型以及刑事責(zé)任范圍是目前較為可行的做法。據(jù)此,可以對(duì)不同智能階段的智能主體,有區(qū)別地施以具體的刑罰。但前提是攻克技術(shù)難題,制定具有共識(shí)性、正當(dāng)性的判斷標(biāo)準(zhǔn)。目前,主要依靠研發(fā)者、設(shè)計(jì)者等“外部主體”,根據(jù)政策與現(xiàn)實(shí)情況,設(shè)計(jì)具有操作性的標(biāo)準(zhǔn)。但最終應(yīng)當(dāng)通過立法規(guī)定或發(fā)布司法解釋,建立法定化、公開化、統(tǒng)一化的規(guī)范判斷標(biāo)準(zhǔn)體系。(4)算法作為核心能力的自主優(yōu)化升級(jí)。算法是智能技術(shù)獲得優(yōu)勢(shì)地位的基礎(chǔ),算法規(guī)則、倫理以及運(yùn)行過程等,是智能主體的“(數(shù)字)大腦”。目前,智能技術(shù)應(yīng)用的認(rèn)識(shí)論基礎(chǔ)是“可計(jì)算化的認(rèn)知”。它最終可以通過智能技術(shù)的應(yīng)用方式,對(duì)人腦功能予以“完全仿真”模擬。從現(xiàn)行法理看,通過法律擬制智能“電子人”的主體地位,必須同時(shí)對(duì)智能算法的設(shè)計(jì)原理、與人(設(shè)計(jì)者和使用者)之間的互動(dòng)模式,以及決策的自主程度等問題進(jìn)行詳細(xì)的研究、分類,并基于應(yīng)用場(chǎng)景等的需要,完善算法的規(guī)則設(shè)計(jì),才能具備可操作性。
(二)功利主義的功能演繹
1.“電子人”諸說與“去人類中心化”動(dòng)向
人工智能具有自主性、主動(dòng)性,是已非完全受人支配的行為客體,應(yīng)當(dāng)設(shè)定為法律上的“電子人”[15]。人工智能是介于人與物之間的客觀存在,財(cái)產(chǎn)性而非工具性是其本質(zhì)。應(yīng)當(dāng)以財(cái)產(chǎn)性人格為基礎(chǔ),將人工智能擬制為電子法人,解決責(zé)任分配問題[16]。在智能技術(shù)迅猛應(yīng)用下,這些折中的積極論有相當(dāng)?shù)摹胺至俊薄?/p>
“電子人”等積極看法,肯定了智能主體的法律人格及其主體性能力,以滿足實(shí)際需要。按照功利主義對(duì)現(xiàn)實(shí)合理性的側(cè)重,應(yīng)當(dāng)合理地 “去人類中心”的絕對(duì)標(biāo)準(zhǔn),考慮將法律標(biāo)準(zhǔn)“等值”攝入,并遵循智能時(shí)代的規(guī)律與本質(zhì),以便更理性地看待智能主體的法律地位。也即:(1)從法理看,法律主體與法律關(guān)系、權(quán)利主體、義務(wù)承擔(dān)者以及法律行為的對(duì)象,都有非常直接的內(nèi)在關(guān)系。按照人類中心主義的立場(chǎng),人類及個(gè)體的生理要素、意識(shí)能力和獨(dú)立意志的心理要素、獨(dú)立的社會(huì)角色的社會(huì)要素等,都是法律主體必須具備的條件。按照現(xiàn)行法律規(guī)定,智能主體暫時(shí)仍無法具備傳統(tǒng)法律主體地位所需的基本條件;反而,“工具屬性”更容易得出“物”的界定立場(chǎng)。然而,“人造物”等看法,脫離“主客分離”的主體識(shí)別規(guī)則,實(shí)質(zhì)混淆法律關(guān)系的主體與客體之概念。人工智能產(chǎn)品目前可以認(rèn)為是人類創(chuàng)造的產(chǎn)物,是法律關(guān)系的客體或標(biāo)的。但是,智能主體未來可以是獨(dú)立的法律主體。(2)僅從生物學(xué)角度否認(rèn)智能主體的法律人格之邏輯似乎成立,但不能過度放大。立法者通過“法律擬制”的立法技術(shù),賦予“法人”相應(yīng)的刑法主體地位。相比之下,雖然臨界點(diǎn)并未到來,但是隨著智能主體的智能程度、自主性意識(shí)等不斷提升,“傳統(tǒng)法律主體格局”及其規(guī)范意義也不免會(huì)逐漸出現(xiàn)失效或失靈等現(xiàn)象。以階段性、發(fā)展性的思維審視“人造物”語境,將智能機(jī)器人作為獨(dú)立的主體,可以形成自然人、法人(單位)、智能機(jī)器人的并列格局,有助于拓寬法律主體的內(nèi)涵。這是對(duì)人類中心主義主導(dǎo)人類主體地位及其標(biāo)準(zhǔn)等問題進(jìn)行“去中心化”的必然反映,也是社會(huì)主體地位及其法律體系根據(jù)社會(huì)時(shí)代變化而調(diào)試的正確做法。
2.功利主義與法律擬制的契合
對(duì)于機(jī)器人的不道德行為,只有在具備“人工道德”的前提下,才可以被非難并承擔(dān)相應(yīng)的責(zé)任。在技術(shù)過渡期,“人類中心主義”與智能主體的道德體系有所“對(duì)沖”。參照人類法律體系的基本邏輯,對(duì)智能主體法律地位進(jìn)行評(píng)判,主要涉及如何看待智能主體的道德倫理、智能主體與自然人的關(guān)系等新問題。當(dāng)智能主體能夠且應(yīng)當(dāng)擁有道德時(shí),便存在可譴責(zé)的社會(huì)倫理基礎(chǔ),才能對(duì)其不道德的行為進(jìn)行規(guī)范上的非難。賦予智能主體道德倫理能力的前提是其可以在“擬人”的道德判斷情境中,作出與人類實(shí)質(zhì)相似的決策過程,并會(huì)作出合法的行動(dòng)。應(yīng)當(dāng)采用智能時(shí)代應(yīng)有的思維與邏輯以及道德倫理等一般性社會(huì)關(guān)系準(zhǔn)則與規(guī)范,通過法律擬制的方式,對(duì)智能主體的法律地位作出相適應(yīng)的“等值”評(píng)判。高度模擬的情景不是完全的“人類”場(chǎng)景,而是由法律擬制而成并具有法律意義的智能倫理體系。
嘗試肯定或承認(rèn)智能主體專屬的道德倫理問題有顯著的意義,將賦予具有自主意識(shí)的智能機(jī)器人,擁有判斷某種行為正當(dāng)與否的基本標(biāo)準(zhǔn)及準(zhǔn)則。而且,確認(rèn)智能主體的法律地位,有助于解決智能主體與研發(fā)者、設(shè)計(jì)者之間的責(zé)任分配等問題。此乃功利主義的思考邏輯。在法律責(zé)任方面,歐盟賦予某些智能機(jī)器人以法律人格或“電子人格”,可以享有特定的權(quán)利和義務(wù),可以追究法律責(zé)任。但是,如若單純?yōu)榱私忉屩悄苤黧w的行為效力和可以追究法律責(zé)任,便賦予其法律主體資格,這種遵循功利主義的做法,也未必具有目的的正當(dāng)性。即便立法創(chuàng)設(shè)“電子人”,而算法規(guī)則、人工語言等相關(guān)技術(shù)無法跟進(jìn),“電子人”仍無法理解按照以人類方式表述的法律規(guī)則。對(duì)于這些困難和疑問,需要技術(shù)層面提供支持。
(三)立法動(dòng)向與啟示
1.實(shí)踐先行的參照意義
實(shí)際上,對(duì)于智能主體的刑法地位,域外與我國(guó)當(dāng)前不乏一些先行的積極做法。(1)2016年5月與10月,歐洲議會(huì)法律事務(wù)委員會(huì)先后發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》該報(bào)告第 50(f)項(xiàng)建議:“從長(zhǎng)遠(yuǎn)來看要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)為享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人做出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子人格(electronic personality)”?!稓W盟機(jī)器人民事法律規(guī)則》認(rèn)為,智能機(jī)器人已經(jīng)開始具有自主性和認(rèn)知特征,具有從經(jīng)歷中學(xué)習(xí)并獨(dú)立自主作出判斷的能力,可能實(shí)施侵害行為,須要承擔(dān)法律責(zé)任。應(yīng)當(dāng)制定新的規(guī)則,人工智能主體應(yīng)適用“電子人格”身份。歐盟委員會(huì)法律事務(wù)委員會(huì)向歐盟委員會(huì)提交動(dòng)議并要求,將最先進(jìn)的自動(dòng)化機(jī)器人定位為“電子人”,賦予其“特定的權(quán)利和義務(wù)”;建議對(duì)智能自動(dòng)化機(jī)器人進(jìn)行身份登記,以便為其納稅、繳費(fèi)、領(lǐng)取養(yǎng)老金的資金賬號(hào)。(2)2016 年,Google無人駕駛汽車在美國(guó)加州山景城測(cè)試時(shí),與一輛公交大巴相撞而發(fā)生事故。美國(guó)公路交通安全管理局(NHTSA)表示,關(guān)于交通事故責(zé)任的認(rèn)定,谷歌駕駛系統(tǒng)可以被視為“司機(jī)”。(3)《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)最大化人類福祉的愿景(草案)》[國(guó)際標(biāo)準(zhǔn)化組織(IEEE)]指出,如果AI依靠人類的交互,實(shí)現(xiàn)新內(nèi)容或發(fā)明創(chuàng)造,使用AI的人應(yīng)當(dāng)是作者或發(fā)明者。在知識(shí)產(chǎn)權(quán)保護(hù)上,與未借助AI進(jìn)行的創(chuàng)作和發(fā)明的具有同等性[17]。(4)2017 年,百度和博世共同開發(fā)一款自動(dòng)駕駛汽車。交警認(rèn)為該車的試駕涉嫌“違規(guī)駕駛”[18]。(5)2017 年,沙特阿拉伯對(duì)機(jī)器人“索菲亞”授予“公民”身份,并向“她”發(fā)放護(hù)照。
2.法律功利主義的立法導(dǎo)向
邊沁認(rèn)為,全部道德體系,整個(gè)立法體系,都建立在一個(gè)唯一的基礎(chǔ)上:關(guān)于痛苦和快樂的知識(shí)。快樂和痛苦是關(guān)于這一主題的清晰觀念的唯一基礎(chǔ)[19]。這是法律功利主義的核心旨趣。功利主義按照勢(shì)必增大或減少利益有關(guān)者之幸福的傾向,亦即促進(jìn)或妨礙此種幸福的傾向,來贊成或非難任何一項(xiàng)行動(dòng)。無論什么行動(dòng),其不僅是私人的每項(xiàng)行動(dòng),而且是政府的每項(xiàng)措施[20]。法律是有目的性的活動(dòng),立法是為了實(shí)現(xiàn)立法者的既定目標(biāo)。邊沁明確將法律作為實(shí)現(xiàn)功利主義的工具?!皩?duì)于主權(quán)者,他在采納法律過程中所考慮的目的,或外在動(dòng)機(jī),基于功利原則,僅僅是社會(huì)的最大福利”[21]。刑法立法必須遵循功利主義,在犯罪、刑事責(zé)任以及刑罰之間,尋求最優(yōu)組合、最佳配置與最高效益?!罢臉I(yè)務(wù)在于通過賞罰來促進(jìn)社會(huì)幸福。由罰構(gòu)成的那部分政府業(yè)務(wù)尤其是刑法的主題”[22]。促進(jìn)人類的最大幸福,需從立法入手,尤其是需從刑法入手。
功利主義是關(guān)于法律制定的重要思想。為了達(dá)到通過立法增進(jìn)人類幸福的目的,立法者應(yīng)當(dāng)運(yùn)用道德算術(shù),計(jì)算苦與樂,使法律草案的起草過程融入功利主義的元素。而針對(duì)立法草案規(guī)定的苦與樂的立法計(jì)算[23],功利主義之于法律,最直接的啟示意義與實(shí)踐邏輯,便在于為立法者是否以及如何立法提供最重要的“權(quán)衡之術(shù)”。不僅包括價(jià)值取舍層面,也涉及立法技術(shù)的最優(yōu)化標(biāo)準(zhǔn)??梢詺w納其最核心的立法指導(dǎo)邏輯為功利主義應(yīng)作為一項(xiàng)原則性、概括性、框架性的觀念,引導(dǎo)立法者更主動(dòng)、積極地通過立法滿足變革需求。從方法論看,解決智能主體刑法地位問題,相對(duì)溫和的措施是立足現(xiàn)有法律體系,激活擴(kuò)張解釋的司法張力;而相對(duì)激進(jìn)的措施,是通過立法的方式直接加以確認(rèn)或規(guī)定。應(yīng)當(dāng)以智能技術(shù)為基本前提,以智能應(yīng)用為分析基礎(chǔ),對(duì)不同智能程度的智能主體予以類型化考慮,充分兼顧身份的一般性與特殊性、功能的現(xiàn)實(shí)性與前瞻性、價(jià)值的法定性與擬定性。分階段、有層次、類型化地確認(rèn)或規(guī)定不同智能程度的智能主體,在不同時(shí)期、不同應(yīng)用情形、不同行為環(huán)境下的刑法主體屬性及其能力。
3.立法建言
在現(xiàn)階段,可以考慮暫時(shí)將智能主體視為限制性的法律主體。既承認(rèn)具有人的智慧特質(zhì)之工具屬性,又強(qiáng)調(diào)是可以做出獨(dú)立意思表示的特殊法律主體。進(jìn)言之,高度智能化的主體,雖具有工具屬性的特質(zhì),但在一定程度上已經(jīng)具有獨(dú)立的自主意識(shí),應(yīng)享有限制的法律人格,有限地承擔(dān)法律責(zé)任。對(duì)智能主體擬制的法律能力雖作了一定的限制,但與自然人或公司等法律擬制的人格不同。分階段思維既不需要全面突破現(xiàn)行法律規(guī)定,又同時(shí)可以解決一些新出現(xiàn)的問題。處于不同智能程度的智能主體,其與“人”(研發(fā)者、設(shè)計(jì)者、所有者、使用者、銷售者、改造者等)的關(guān)系也是有所差異的。例如,在不同的智能駕駛模式中,應(yīng)對(duì)研發(fā)者、設(shè)計(jì)者、所有者、使用者、銷售者、監(jiān)管者等主體進(jìn)行差異化的歸責(zé),以妥善解決智能產(chǎn)品責(zé)任犯罪、智能駕駛公共安全犯罪等突出問題參見:孫道萃《人工智能駕駛的刑法解構(gòu)與回應(yīng)路徑》(《西安交通大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版),2022年第第2期第158-166頁)。。概言之,刑法意義上的人工智能主體,可以分為:一是基于“工具屬性”關(guān)系,智能主體完全是“人”的新技術(shù)工具。二是“過渡性主體”,指智能主體雖有“工具屬性”,也是“自主主體”。這兩者的關(guān)系是動(dòng)態(tài)的,要根據(jù)實(shí)際情況來判斷。三是“擬制主體”與“人”的法律平等地位?!爸悄苤黧w”基于法律擬制,被確立為獨(dú)立的法律主體,在法律意義上與“人”是平等的。四是“新獨(dú)立主體”,指智能主體在終極層面獲得統(tǒng)治地位,取代“人”并成為未來的唯一“法定主體”。
在功利主義的策動(dòng)下,現(xiàn)階段對(duì)智能主體刑法地位予以規(guī)范性的界定與確認(rèn),都處于應(yīng)然的“擬制”與“循證”之理性主義階段,在規(guī)范層面尚未形成有效法律文本與適法依據(jù)。但從立法上予以明確,才能將智能主體作為刑法規(guī)制的對(duì)象或作為刑事法律關(guān)系的主體,才能從根本上對(duì)智能時(shí)代的刑事風(fēng)險(xiǎn)予以正面回應(yīng)。
四、權(quán)利論:證成與前瞻
(一)智能主體權(quán)利的法理課題
智能主體逐步穩(wěn)固其法律主體地位,則智能主體的權(quán)利保障問題必然會(huì)提上議程。有效保障智能主體的新生權(quán)利,是確認(rèn)智能主體刑法地位的集中體現(xiàn)。
1.智能主體權(quán)利的由來與現(xiàn)狀
關(guān)于智能主體的“權(quán)利”,當(dāng)前處于“無法律規(guī)定”的蠻荒時(shí)代。但智能主體權(quán)利問題已出現(xiàn)在以下領(lǐng)域:(1)人格權(quán)[25]。運(yùn)用智能技術(shù)收錄人的聲音、表情、肢體動(dòng)作等利用人格權(quán)的客體的行為,隱藏侵犯人格權(quán)的危險(xiǎn),甚至導(dǎo)致人格權(quán)保護(hù)可能出現(xiàn)空擋。(2)數(shù)據(jù)財(cái)產(chǎn)。智能技術(shù)的應(yīng)用是以信息、數(shù)據(jù)以及算法等為基礎(chǔ)的。但數(shù)據(jù)、信息的法律性質(zhì)尚不確定,數(shù)據(jù)作為權(quán)利對(duì)象或權(quán)利內(nèi)容仍是空白。(3)著作權(quán)。智能創(chuàng)作技術(shù)及其應(yīng)用日益成熟,亟待明確智能主體的著作權(quán)利保護(hù)。智能主體的真正完全獨(dú)立,將使傳統(tǒng)著作權(quán)領(lǐng)域的主體格局發(fā)生巨變[26]。在刑法領(lǐng)域,對(duì)強(qiáng)人工智能的生成物,不乏主張與自然人應(yīng)當(dāng)被同等保護(hù)[27]。(4)生命權(quán)利。國(guó)外已經(jīng)出現(xiàn)機(jī)器人伴侶現(xiàn)象,人類虐待、侵害智能機(jī)器人的生命權(quán)、人格權(quán)的,應(yīng)否承擔(dān)民事責(zé)任以及精神損害賠償責(zé)任等問題開始浮出水面??傊悄苤黧w刑法地位的“替代”過程必然觸發(fā)智能主體的權(quán)利問題,并與人的權(quán)利體系時(shí)代相行漸遠(yuǎn)。當(dāng)前,對(duì)人工智能及其相關(guān)權(quán)利問題進(jìn)行保護(hù)的制度安排與法律支持體系明顯不夠[28],討論的法理基礎(chǔ)、規(guī)范依據(jù)等儲(chǔ)備尤為不足。而“人類中心主義”在該問題上延伸的“堅(jiān)硬性”效應(yīng)仍在蔓延。
2.作為新興權(quán)利的法理釋明
晚近以來,以人為絕對(duì)主導(dǎo)核心地位的權(quán)利格局開始出現(xiàn)變化。這就是新興權(quán)利及其保護(hù)問題。新興權(quán)利的出現(xiàn)乃至泛化,正危及傳統(tǒng)權(quán)利的基本觀念。其證成標(biāo)準(zhǔn)是同時(shí)具備合理性、合法性與現(xiàn)實(shí)性[29]。對(duì)于新興權(quán)利,其法理的接納難點(diǎn)在于認(rèn)識(shí)論、價(jià)值論等方面的重大顛覆。而法律技術(shù)層面的規(guī)范難題在于“如何證成”。對(duì)于正嶄露頭角的智能主體之權(quán)利問題,也面臨同樣的制度困境。其中,最大的阻礙就是人類中心主義立場(chǎng)與人的主體性地位效應(yīng)。從現(xiàn)代法理的邏輯看,法律主體地位與權(quán)利配置是正向的關(guān)聯(lián)性或者一致性。智能主體的刑法地位之確認(rèn),是決定其權(quán)利問題的最基本前提。新興權(quán)利的出現(xiàn)及其保護(hù)問題,也反過來推動(dòng)對(duì)權(quán)利主體資格與能力的法律確認(rèn)進(jìn)程。對(duì)智能主體權(quán)利問題的過度絕對(duì)化看法不妥。而且,從當(dāng)代法律主體的權(quán)利發(fā)展與歷史演變進(jìn)程看,權(quán)利的內(nèi)容與形式是發(fā)展的,新興權(quán)利與傳統(tǒng)權(quán)利的類型是交替互進(jìn)的。承認(rèn)并賦予智能主體相應(yīng)的權(quán)利,既是權(quán)利范疇發(fā)展的內(nèi)在規(guī)律,也是智能技術(shù)推動(dòng)社會(huì)發(fā)展的必然結(jié)果。智能主體在刑法領(lǐng)域享有權(quán)利并作為新型的權(quán)利類型,將改寫現(xiàn)行法律體系中的權(quán)利生態(tài)格局。
不乏否定觀點(diǎn)認(rèn)為,智能主體不是人,不會(huì)制造或產(chǎn)生道德問題,無法自行獨(dú)立作出道德判斷,不能具有權(quán)利[30]。顯然,否定智能主體的法律地位,也就沒有權(quán)利存在的必要與空間。“當(dāng)機(jī)器說出它們的感受和感知經(jīng)驗(yàn),而我們相信它們所說的是真的,它們就真正成了有意識(shí)的人。而大多數(shù)道德和法律制度,也是建立在保護(hù)意識(shí)體的生存和防止意識(shí)體受到不必要的傷害的基礎(chǔ)上的”[31]。從現(xiàn)階段的智能技術(shù)水平及其應(yīng)用程度看,智能主體可以享有限制性權(quán)利。智能主體的權(quán)利具有立法的擬制性、利他主義屬性、功能差異屬性,融合了工具性的價(jià)值與利他的特性,負(fù)有服務(wù)人類的預(yù)設(shè)功能。應(yīng)當(dāng)根據(jù)智能主體的類型與具體功能,采取差別化的權(quán)利擬制與保護(hù)機(jī)制?!跋拗菩詸?quán)利”是由智能主體地位的相對(duì)性與限制性決定的,也鞏固法律地位與權(quán)利賦予之間的內(nèi)在聯(lián)系性。在此觀念下,可以賦予智能主體一定的自由權(quán),使其具有一定的自主決定權(quán);但是,與人類的自由權(quán)仍有差別,應(yīng)當(dāng)加以限制,使智能主體的權(quán)利及行使更符合實(shí)際情況。
(二)刑法保護(hù)的原則與路徑
當(dāng)代刑法對(duì)智能主體的保護(hù),是對(duì)其主體地位與法定權(quán)利的“實(shí)踐認(rèn)同”。不能完全參照刑法對(duì)人的保護(hù)格局,應(yīng)當(dāng)根據(jù)權(quán)利的類型設(shè)定科學(xué)的保護(hù)措施。
1.平等保護(hù)的異議與匡正
人類中心主義與功利主義作為兩種不同的認(rèn)識(shí)論,在智能主體權(quán)利的保護(hù)原則上仍將繼續(xù)“角力”。也即智能主體與自然人暫且無法對(duì)等,也幾乎無法獲得完全、不受限制、與自然人平等的主體地位。智能主體可以擁有受限的權(quán)利,在權(quán)利形態(tài)及保護(hù)范圍等方面存有差距。“平等原則”對(duì)自然人與智能主體之間的關(guān)系而言并不奏效。“平等保護(hù)”看似合理,實(shí)際因遵循人類的標(biāo)準(zhǔn)來匹配與設(shè)定智能主體的權(quán)利保護(hù)原則,故而是“人類中心主義”思維的具體產(chǎn)物?;谌祟惖奶厥馍矸荻_立人的主體性地位及其保護(hù)邏輯,無法“天然”地適用于智能主體。即使強(qiáng)行“劃上等號(hào)”,由于法律能力等不盡相同,刑法保護(hù)的要求不同,是否“對(duì)等”人類的標(biāo)準(zhǔn)予以保護(hù),該類比意義很是微弱。甚至可以說,“平等原則”實(shí)則是一個(gè)偽命題。具有獨(dú)立、自主意識(shí)的智能主體,并非自然人的財(cái)產(chǎn)或單純的產(chǎn)品。不應(yīng)按照人類的標(biāo)準(zhǔn),對(duì)智能主體權(quán)利進(jìn)行“等值”保護(hù)。對(duì)其權(quán)利形態(tài)進(jìn)行保護(hù)時(shí),應(yīng)當(dāng)遵循智能時(shí)代的價(jià)值觀與標(biāo)準(zhǔn)體系,盡量按照智能時(shí)代的需求進(jìn)行專屬保護(hù)。當(dāng)前,若自然人利益與智能主體利益發(fā)生沖突的,原則上應(yīng)當(dāng)優(yōu)先保障人類利益。
2.權(quán)利保障的漸進(jìn)策略
以技術(shù)代際的更迭為前提,智能主體的權(quán)利內(nèi)容應(yīng)當(dāng)是發(fā)展性的。智能主體的刑法保護(hù)范圍與方式取決于權(quán)利的內(nèi)容與范圍。在現(xiàn)階段,可以著重圍繞三個(gè)方面展開:(1)跳出“人”的思維窠臼審視智能主體是否具有“類人”的基本權(quán)利。在現(xiàn)階段,對(duì)發(fā)展中的智能主體之權(quán)利,及其與人的權(quán)利形態(tài)之間的關(guān)系,既要跳出“人類中心主義”的思維窠臼,也要導(dǎo)入功利主義的現(xiàn)實(shí)考慮。智能主體不是一般意義上的生命體,沒有生命權(quán)、人身自由權(quán),但可以擁有財(cái)產(chǎn)權(quán)利[32]。實(shí)際上,智能主體是否可以享有生命權(quán)的技術(shù)難點(diǎn)在于能否按照人的生命體及其特征,界定智能主體的生命形態(tài)及其法律性質(zhì)、外部載體方式等。人的生命權(quán)與傳統(tǒng)的保護(hù)思維不再繼續(xù)有效,那么,需要重新審定剝奪或侵害智能主體生命的方式、刑事制裁等問題。智能主體的升級(jí)換代,是通過更新程序等方式,改變(或延長(zhǎng))智能主體的生命;達(dá)到使用年限后的重新格式化是結(jié)束生命的方式。技術(shù)升級(jí)使智能主體的存續(xù)方式更持久。無論從技術(shù)還是智能系統(tǒng)的獨(dú)立性看,智能主體具有特殊的“生命權(quán)”,以及基于生命權(quán)所形成的獨(dú)立的電子人格、自由權(quán)、追求幸福的權(quán)利、避免被長(zhǎng)時(shí)間進(jìn)行奴役性的勞動(dòng)權(quán)利等。(2)立足智能時(shí)代審視智能主體權(quán)利及其保護(hù)的特殊性。盡管在認(rèn)識(shí)智能主體權(quán)利問題上,目前沒有先例可供遵循,在知識(shí)論上不得不參照“人類”法律立場(chǎng)。但不能淪為簡(jiǎn)單的“類比”或“復(fù)制”。例如,智能主體權(quán)利的基本類型數(shù)據(jù)資源的共享權(quán)利、個(gè)體數(shù)據(jù)的專有權(quán)利或排他性權(quán)利,以及基于社會(huì)功能約束的自由權(quán)和獲得法律救濟(jì)的權(quán)利[33]。立足智能技術(shù)、技術(shù)應(yīng)用領(lǐng)域等因素,設(shè)定數(shù)據(jù)類的權(quán)利形態(tài)是可取的。該觀點(diǎn)不完全依循“人類中心主義”及“人”的權(quán)利格局,是典型的智能時(shí)代“專屬思維”。但是,未能根據(jù)智能技術(shù)應(yīng)用水平與智能程度、智能主體類型等,精細(xì)化地闡明權(quán)利的內(nèi)容,并設(shè)置刑法保護(hù)措施。智能主體的權(quán)利內(nèi)容不限于數(shù)據(jù)形態(tài)方面。即使主要肯定智能主體的數(shù)據(jù)權(quán)利,仍需明確數(shù)據(jù)權(quán)利的基礎(chǔ)、類型、權(quán)限,以及在權(quán)利體系中的地位等相關(guān)問題。(3)現(xiàn)階段刑法保護(hù)的主要策略。一是權(quán)利形態(tài)的兼容性??梢赃m當(dāng)比擬“人的權(quán)利”邏輯,為探討智能主體的權(quán)利范圍提供思考空間。例如,生命權(quán)等具有高度“人的專屬性”,是否可以“移植”為智能主體的權(quán)利形式??梢越Y(jié)合智能技術(shù)、算法運(yùn)行、應(yīng)用載體等要素,進(jìn)行功能的“等值”判斷。又如,對(duì)于智能主體的著作權(quán),目前的應(yīng)用已經(jīng)很成熟,可以考慮優(yōu)先確認(rèn)。合理借鑒“人的權(quán)利”邏輯,可以對(duì)智能主體的權(quán)利范圍有更清晰的“前瞻性思考”。二是權(quán)利范圍的專屬性。智能主體的權(quán)利內(nèi)容與形式具有顯著的專屬性,包括基于算法運(yùn)行而生成的一系列專屬性數(shù)據(jù)權(quán)利。當(dāng)前,基于數(shù)據(jù)形成的權(quán)利體系是智能主體權(quán)利的主要來源與表現(xiàn)形式,但具體類型不斷變化。智能主體專屬的數(shù)據(jù)權(quán)利,不僅與算法等智能因素息息相關(guān),也與研發(fā)者、設(shè)計(jì)者、所有者、使用者等“人”的(數(shù)據(jù))權(quán)利相互竟合,不能忽視與人作為權(quán)利主體之間的實(shí)質(zhì)界限。三是權(quán)利的限制性。智能主體并不必然享有專屬于人的權(quán)利。智能主體的權(quán)利行使受限,相互沖突時(shí),一般優(yōu)先保護(hù)人的權(quán)利。四是權(quán)利結(jié)構(gòu)的優(yōu)化。既包括實(shí)體性權(quán)利,也包括程序性權(quán)利,如智能主體作為法律意義上的原告與被害人等。既要賦予權(quán)利內(nèi)容,也要賦予救濟(jì)性權(quán)利,避免權(quán)利處于司法保護(hù)的空白狀態(tài)。五是保護(hù)措施的完善。通過立法增加與智能主體權(quán)利保護(hù)相適應(yīng)的刑事制裁措施,或同步修正現(xiàn)有的刑事制裁措施,更好地保護(hù)智能主體的權(quán)利或權(quán)益[34]。
參考文獻(xiàn):
[1]劉振宇.人工智能權(quán)利話語批判[J].自然辯證法研究,2018(8):31-37.
[2]楊立新.人工類人格:智能機(jī)器人的民法地位:兼論智能機(jī)器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018(4):84-96.
[3]時(shí)方.人工智能刑事主體地位之否定[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018(6):67-75.
[4]魏東.人工智能犯罪的可歸責(zé)主體探究[J].理論探索,2019(5):5-13.
[5]劉憲權(quán).對(duì)人工智能法學(xué)研究“偽批判”的回應(yīng)[J].法學(xué),2020(1):3-14.
[6]冀洋.人工智能時(shí)代的刑事責(zé)任體系不必重構(gòu)[J].比較法研究,2019(4):123-137.
[7]余謀昌.走出人類中心主義[J].自然辯證法研究,1994(7):8-14,47.
[8]邱耕田.從絕對(duì)人類中心主義走向相對(duì)人類中心主義[J].自然辯證法研究,1997(1):15-18,58.
[9]劉艷紅.人工智能法學(xué)研究的反智化批判[J].東方法學(xué),2019(5):119-126.
[10]董玉庭.人工智能與刑法發(fā)展關(guān)系論:基于真實(shí)與想象所做的分析[J].現(xiàn)代法學(xué),2019(5):120-134.
[11]周詳.智能機(jī)器人“權(quán)利主體論”之提倡[J].法學(xué),2019(10):3-17.
[12]皮勇. 全國(guó)首例撞庫打碼案的法律適用分析[J].中國(guó)檢察官,2019(6):7-9.
[13]杜嚴(yán)勇.現(xiàn)代軍用機(jī)器人的倫理困境[J].倫理學(xué)研究,2014(5):98-102.
[14]馬治國(guó),田小楚.論人工智能體刑法適用之可能性[J].華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(2):108-115.
[15]郭少飛.“電子人”法律主體論[J].東方法學(xué),2018(3):38-49.
[16]張志堅(jiān).論人工智能的電子法人地位[J].現(xiàn)代法學(xué),2019(5):75-88.
[17]孫加順.以倫理為基準(zhǔn)的設(shè)計(jì) 通往AI時(shí)代的至高美德:訪IEEE標(biāo)準(zhǔn)協(xié)會(huì)首席執(zhí)行官康斯坦丁諾·卡拉卡琉斯博士[J].中國(guó)標(biāo)準(zhǔn)化,2018(1):18-21.
[18]李鵬.李彥宏“違法”無人駕駛背后法規(guī)該如何跟上新技術(shù)腳步[N].北京科技報(bào),2017-07-10(4).
[19]邊沁.立法理論[M]李貴方,譯北京:中國(guó)人民公安大學(xué)出版社,2004:35.
[20]邊沁.道德與立法原理導(dǎo)論[M].時(shí)殷弘,譯.北京:商務(wù)印書館,2000:58.
[21]邊沁.論一般法律[M].毛國(guó)權(quán),譯.北京:上海三聯(lián)書店,2008:41.
[22]亨利·西季威克.倫理學(xué)史綱[M].熊敏,譯.北京:江蘇人民出版社,2007:203.
[23]張宏生,谷春德.西方法律思想史[M].北京:北京大學(xué)出版社,2000:284.
[24]謝暉.論新型權(quán)利的基礎(chǔ)理念[J].法學(xué)論壇,2019(3):5-19.
[25]王利明.人工智能時(shí)代提出的法學(xué)新課題[J].中國(guó)法律評(píng)論,2018(2): 1-4.
[26]孫占利.智能機(jī)器人法律人格問題論析[J].東方法學(xué),2018(3):10-17.
[27]劉憲權(quán).人工智能生成物刑法保護(hù)的基礎(chǔ)和限度[J].華東政法大學(xué)學(xué)報(bào),2019(6):60-67.
[28]季衛(wèi)東.人工智能開發(fā)的理念、法律以及政策[J].東方法學(xué),2019(5):4-13.
[29]雷磊.新興(新型)權(quán)利的證成標(biāo)準(zhǔn)[J].法學(xué)論壇,2019(3):20-29.
[30]甘紹平.機(jī)器人怎么可能擁有權(quán)利[J].倫理學(xué)研究,2017(3):126-130.
[31]雷·庫茲韋爾.人工智能的未來:揭示人類思維的奧妙[M].盛楊燕,譯.杭州:浙江人民出版社,2016:203-205.
[32]劉憲權(quán).人工智能時(shí)代機(jī)器人行為道德倫理與刑法規(guī)制[J].比較法研究,2018(4):40-54.
[33]張玉潔.論人工智能時(shí)代的機(jī)器人權(quán)利及其風(fēng)險(xiǎn)規(guī)制[J].東方法學(xué),2017(6):56-66.
[34]孫道萃.智能時(shí)代的刑法立法:人類中心主義與現(xiàn)實(shí)功利主義的取舍[J].學(xué)術(shù)交流,2020(4):69-80.
Positivism for AI subject in criminal law: Also answer to the negativism
SUN Daocui
(College of National Legal Aid, China University of Political Science and Law, Beijing 100088, P. R. China)
Abstract:
The rapid development of intelligent technology and its application has a strong impact on the contemporary legal system based on the fundamental premise of human subjectivity, and the criminal law status of artificial intelligent subjects has become a key issue. At present, the negative theory and the positive theory are in a stalemate, accelerating the process of knowledge change in the current criminal law theoretical system. Different degrees of negativism, such as “artificial objects”, have their merits on the grounds that the current criminal legal system is difficult to directly accept them and they carry potential criminal risks. Its logical mechanism is the presupposition effect of excessive release of anthropocentrism. Examining from an anthropocentric standpoint will lead to irreconcilable conclusions, and it also shows the tendency of the tool attributes of intelligent technology applications to be deeply magnified. However, the above-mentioned negative reasons are not necessarily in line with the actual needs of regulating artificial intelligence crimes, they are also inconsistent with the evolution law of legal subject system, and it will even suppress the autonomous evolution of the subject of criminal law. Different forms of positive theory such as “cyborg” are the first to break out of absolute anthropocentrism and its conceptual constraints, and view the interaction and trends of artificial intelligence and criminal law from a developmental perspective, which is more in line with the development trend of artificial intelligence crimes. The accumulation of existing knowledge frameworks and new elements, such as freedom of will, criminal responsibility, moral and ethical rules, intelligence level and types of intelligent subjects, the objective existence of criminal responsibility, and the special status and significance of algorithms, means that artificial intelligence can develop in the future to achieve cohesion and fit in the criminal law system. This reversal of understanding, which does not really completely deviate from the principles of criminal law, also provides support at the theoretical level. Moreover, following the rationale of utilitarianism, and under the guidance of a series of advanced legislation on artificial intelligence subjects, the criminal status of intelligent subjects should be determined in stages, types, and dynamics, so that they can continue and expand on the path of legal fiction. Under the clarification of the subject status of artificial intelligence in criminal law, it is necessary to accept the reality that intelligent subjects can enjoy certain emerging rights, but the specific content such as the type of rights should be specifically confirmed. Under the instigation of the current technology generation, the content and scope of the rights of intelligent subjects are currently limited, and it is impossible to adopt a protection strategy equivalent to that of “people”, and the protection methods should also be different. This kind of “dimension reduction” protection has its practical rationality. Through active system design and rule configuration, it can coordinate with the changing situation of the criminal law status of artificial intelligence subjects to the greatest extend.
Key words:? artificial intelligent subject; criminal law status; negativism; anthropocentrism; positivism; utilitarianism; logic of rights
(責(zé)任編輯胡志平)
重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2022年4期