蔡婷婷
內(nèi)容摘要:人工智能時代的到來對現(xiàn)行刑法的適用提出了挑戰(zhàn),包括智能機器人的刑事責(zé)任主體認(rèn)定及無人駕駛汽車交通肇事的刑事責(zé)任承擔(dān)等問題在內(nèi)?;诖?,我國刑法應(yīng)在未來賦予具有自主意志的人工智能產(chǎn)品以刑事責(zé)任主體地位,并考慮設(shè)置包括報廢、回收改造、罰金在內(nèi)的特殊刑罰措施;將故意利用智能機器人實施犯罪的行為人作為直接正犯予以認(rèn)定;在增設(shè)單位作為交通肇事罪行為主體的基礎(chǔ)上,對無人駕駛汽車的智能芯片研發(fā)和制造者及汽車制造公司適用該罪進行處罰,并考慮引入重大人工智能事故罪對相關(guān)責(zé)任主體進行專門規(guī)制。
關(guān)鍵詞:人工智能;智能機器人;無人駕駛汽車挑戰(zhàn)刑法應(yīng)對
一、問題的提出
人工智能的概念于1956年在達特茅斯會議上被首次提出, 并在之后一度成為全社會關(guān)注的熱點問題。人工智能作為一項對模擬、延伸和擴展人類智能的相關(guān)理論、方法及應(yīng)用系統(tǒng)加以研究開發(fā)的技術(shù),越來越多地在人類的社會經(jīng)濟生活領(lǐng)域被加以運用?,F(xiàn)階段,全球正處于從互聯(lián)網(wǎng)時代向人工智能時代的轉(zhuǎn)型期,可以想象,在不久的將來,人類將完全置身于人工智能時代并享受由其帶來的便利。從IBM研發(fā)的僅“出診”十秒便為癌癥患者開出一張詳細(xì)的西醫(yī)診療方案單的機器人醫(yī)生沃森, 到在烏鎮(zhèn)圍棋峰會上戰(zhàn)勝世界圍棋冠軍柯潔的AlphaGo,到無人駕駛汽車輔助系統(tǒng)百度無人駕駛平臺Apollo2.0的正式開放, 人工智能正從不同領(lǐng)域不斷介入人類的社會經(jīng)濟生活,并逐步完成由弱人工智能向強人工智能的轉(zhuǎn)變。然而,科技的進步總會伴隨風(fēng)險的產(chǎn)生,人工智能也不例外。人工智能所呈現(xiàn)出的深度學(xué)習(xí)、人機協(xié)作、自主操縱等新特征,使其區(qū)別于傳統(tǒng)的智能工具而存在,并對傳統(tǒng)的社會倫理及現(xiàn)有的法律規(guī)定造成了極大的沖擊。對此,國務(wù)院于2017年7月出臺的《新一代人工智能發(fā)展規(guī)劃》中明確指出,應(yīng)對人工智能的保障措施在于,加強人工智能相關(guān)法律問題研究,建立保障人工智能健康發(fā)展的法律法規(guī),開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)問題研究,及明確人工智能法律主體、相關(guān)權(quán)利義務(wù)和責(zé)任等。對此,學(xué)界已有較多學(xué)者對人工智能所可能涉及的知識產(chǎn)權(quán)侵權(quán)及民事責(zé)任方面的問題加以研究,但專門針對其中所可能涉及的刑事責(zé)任問題展開研究的學(xué)者卻為少數(shù)。因此,筆者擬從智能機器人及無人駕駛汽車這兩項人工智能產(chǎn)品出發(fā),厘清現(xiàn)行刑法在規(guī)制人工智能造成的違法行為時所面臨的挑戰(zhàn),并對未來我國刑法應(yīng)如何合理有效地應(yīng)對人工智能時代所帶來的刑法挑戰(zhàn)展開分析,以期將人工智能所帶來的刑法風(fēng)險降至最低,并保障科技進步與社會秩序穩(wěn)定的雙向平衡。
二、人工智能對現(xiàn)行刑法的挑戰(zhàn)
傳統(tǒng)的刑法學(xué)理論將犯罪構(gòu)成分為四個部分,即主體、主觀方面、客體及客觀方面。人工智能涉及的違法行為與傳統(tǒng)意義上的自然人和法人所實施的違法行為在客體及客觀方面并不存在差異,關(guān)鍵在于犯罪主體及主觀方面的差異導(dǎo)致現(xiàn)行刑法在人工智能領(lǐng)域的適用分歧。筆者擬從智能機器人及無人駕駛汽車這兩類人工智能產(chǎn)品具體分析人工智能對現(xiàn)行刑法的挑戰(zhàn)。
(一)智能機器人
智能機器人作為人工智能的代表產(chǎn)品,逐步參與到人類生活的各個行業(yè)、各個領(lǐng)域。從餐廳里擺放的智能點菜機器人,到前文提到的機器人醫(yī)生沃森,到被沙特阿拉伯授予公民身份的索菲亞機器人,都是智能機器人參與人類生活的剪影。未來,智能機器人還會深入滲透到工業(yè)、農(nóng)業(yè),甚至是各個家庭內(nèi)部,以充分發(fā)揮其對人類生活水平的促進作用。目前,大部分的智能機器人仍屬于初級階段,其僅能依據(jù)人類為其設(shè)計和編制的程序?qū)嵤┬袨?,屬于人類意志的實施者,而不具有自主的意思能力。此時,智能機器人就相當(dāng)于傳統(tǒng)意義上的工具,當(dāng)其涉及違法行為時,應(yīng)由智能機器的制造者或使用者作為實施違法行為的直接正犯受到刑事處罰,因而不影響現(xiàn)行刑法的適用。然而,隨著科技水平的進步,未來大部分智能機器人都將會從原先的初級階段邁入更深層次的高級階段。這一階段,智能機器人能夠通過深入學(xué)習(xí)而產(chǎn)生自主的意思能力,并通過該自由意志實施人類為其設(shè)計和編制的程序外的行為??苹米骷野_克·阿西莫夫在《我,機器人》一書中提到“機器人三原則”,即機器人不得傷害人類或目睹人類將遭受危險而袖手旁觀,機器人必須服從人類給予它的不與第一定律沖突的命令及機器人在不違反前兩條定律的情況下必須保護自己。但即使是該原則指導(dǎo)下制造的智能機器人,也難以避免其依據(jù)自由意志作出傷害人類的行為。此時,若該行為侵犯了社會公共法益或者公民私人法益而成為刑法意義上的犯罪行為,現(xiàn)行刑法便難以對該違法行為加以規(guī)制。原因在于,高級階段的智能機器人能夠脫離于人類的程序控制而行動,而具備了與人類相同的辨認(rèn)能力及控制能力,若其在該項自由意志支配下實施了違法行為,則無法再將其作為一項工具而存在,而應(yīng)將其作為一個具有獨立承擔(dān)刑事責(zé)任能力的主體認(rèn)定。而現(xiàn)行刑法所規(guī)定的犯罪主體僅限于自然人及單位,因此無法對上述智能機器人所實施的違法行為加以規(guī)制。
同時,若在未來刑法中將智能機器人作為一個犯罪主體而存在,隨之而來的便是刑事處罰的設(shè)置問題。由于智能機器人不同于自然人及單位,生命刑、自由刑和財產(chǎn)刑無法施加于智能機器人之上,因此現(xiàn)行刑法的刑罰種類設(shè)置在人工智能的大環(huán)境下同樣存在缺陷。
(二)無人駕駛汽車
無人駕駛汽車是指能夠通過計算機智能車載傳感系統(tǒng)感知道路環(huán)境,自動規(guī)劃行車路線并控制車輛達到預(yù)定目標(biāo)的智能汽車。 其獨立于傳統(tǒng)汽車駕駛?cè)说目刂?,并實現(xiàn)了行駛的自主性、路線選擇的自主性及停車的自主性,這也是無人駕駛汽車區(qū)別于普通汽車的重要標(biāo)志。國家發(fā)改委于今年1月發(fā)布的《智能汽車創(chuàng)新發(fā)展戰(zhàn)略》(征求意見稿)中提到了美國汽車工程師學(xué)會對智能汽車所劃分的五個等級。其中,4級對應(yīng)的高度自動駕駛汽車及5級對應(yīng)的完全自動駕駛汽車便是本文所述的無人駕駛汽車。雖然無人駕駛汽車作為一項技術(shù)產(chǎn)品能夠較之于人類駕駛員更好地感知及判斷風(fēng)險的產(chǎn)生并在可實現(xiàn)的短時間內(nèi)避免危險的發(fā)生,但由于各種內(nèi)外在因素的影響,無人駕駛汽車難免會發(fā)生交通事故。就好比近期在美國亞利桑那州發(fā)生的Uber自動駕駛測試車撞上在人行道之外橫穿馬路的女子,并致其死亡的事件,令無人駕駛汽車的安全性問題再次被推上輿論的風(fēng)口浪尖。同時,不得不注意到的是此類事件導(dǎo)致的有關(guān)交通肇事罪的責(zé)任承擔(dān)問題。無人駕駛汽車所造成的交通事故區(qū)別于傳統(tǒng)的交通事故,雖然二者在客觀行為及所侵害的客體方面并無二致,但在無人駕駛的狀態(tài)下,車輛上所乘坐的自然人未實質(zhì)參與駕駛行為,傳統(tǒng)意義上作為刑事責(zé)任承擔(dān)主體的機動車駕駛?cè)艘巡粡?fù)存在。在整個車輛運行過程中,乘車的自然人僅僅是實施了啟動無人駕駛狀態(tài)的初始行為,與最終造成的損害結(jié)果之間并無因果關(guān)系。同時,在主觀方面,構(gòu)成交通肇事罪的主觀罪過在于過失,這里既包括疏忽大意的過失也包括過于自信的過失。然而,無人駕駛狀態(tài)下乘車的自然人基于相信安全、可靠的無人駕駛技術(shù)的緣故,完全不可能也沒有義務(wù)預(yù)見到車輛會發(fā)生交通事故,因此并不存在主觀過錯??梢?,在無人駕駛狀態(tài)下盲目地對車上的自然人課以交通肇事罪的處罰不符合罪刑法定的原則。因此,在現(xiàn)行刑法的適用體系下,無人駕駛汽車導(dǎo)致的交通肇事行為的刑事責(zé)任主體的認(rèn)定顯得尤為困難。無人駕駛汽車具有商品的固有屬性,既然屬于商品,在由于其自身所具有的質(zhì)量問題導(dǎo)致交通事故發(fā)生時,相關(guān)責(zé)任主體必應(yīng)承擔(dān)相應(yīng)的刑事責(zé)任。由于無人駕駛汽車的制造和流通環(huán)節(jié)涉及包括智能芯片研發(fā)和制造者、汽車制造公司及汽車銷售商在內(nèi)的多個主體,如何將這些主體作為新的責(zé)任主體適用刑法相關(guān)規(guī)定同樣是亟待解決的問題,需保證在合理懲罰犯罪行為,保障被害人權(quán)益的同時,不阻礙新興科技的發(fā)展。同時,在無人駕駛技術(shù)的背景下,交通事故發(fā)生后的原因認(rèn)定也不像傳統(tǒng)的交通肇事那樣簡單明了。傳統(tǒng)的交通事故完全可以依賴于訴訟雙方的舉證質(zhì)證及現(xiàn)場的監(jiān)控還原事故的發(fā)生過程,從而認(rèn)定各自的責(zé)任,但在無人駕駛的技術(shù)背景下,人工智能系統(tǒng)成為一個“黑箱”,所有決策都存在于這個“黑箱”中,機器學(xué)習(xí)模型的內(nèi)部決策邏輯并不總是可以被理解,即使是設(shè)計者也可能無從知曉系統(tǒng)是如何進行決策的。 因此,無人駕駛汽車所涉及的技術(shù)原因認(rèn)定難的問題同樣是實踐中阻礙對相關(guān)責(zé)任人適用刑法加以規(guī)制的因素之一。
三、人工智能環(huán)境下的刑法應(yīng)對
根據(jù)前文對人工智能環(huán)境下現(xiàn)行刑法適用風(fēng)險的分析,可以看出面對人工智能的高速發(fā)展,我國現(xiàn)行刑法顯得力有未逮,具體表現(xiàn)在,無法將人工智能產(chǎn)品作為單獨的刑事責(zé)任主體加以規(guī)制,并對其處以特定種類的刑罰措施及無法對人工智能犯罪所涉及的其他相關(guān)責(zé)任主體進行有效地刑事處罰。若不及時對現(xiàn)行刑法加以調(diào)整,人工智能所可能帶來的對社會秩序穩(wěn)定的不良影響將會愈演愈烈。因此,筆者認(rèn)為有必要通過以下方式對現(xiàn)行刑法加以完善及適用,以應(yīng)對人工智能環(huán)境對現(xiàn)行刑法發(fā)出的挑戰(zhàn)。
(一)人工智能的刑事責(zé)任主體地位及相關(guān)刑罰設(shè)置
基于前文的分析,未來人工智能將由初級階段向高級階段邁進,大部分人工智能產(chǎn)品將擁有自主意志,并能夠根據(jù)其自由意志實施人類為其設(shè)計和編制的程序外的行為。因此,筆者認(rèn)為,未來在必要的時候于刑法中賦予具有自主意志的人工智能產(chǎn)品以刑事責(zé)任主體地位不失為一項解決人工智能刑事法律風(fēng)險的有效措施。主要基于以下兩點理由:
其一,類似于刑法中將單位擬制為刑事責(zé)任主體,將具有獨立意志的人工智能產(chǎn)品做同樣的擬制又何嘗不可?單位不同于自然人,之所以能夠?qū)⑵鋽M制為刑事責(zé)任主體,是由于單位具有自己的獨立意志,即單位內(nèi)部決策層所作出的集體意志。而具有獨立意志的人工智能產(chǎn)品擁有比單位更強的意志自由,因為其是模擬人類的思維體系制造而成的,相比于單位更類似于人。因此刑法據(jù)此進行法律擬制,賦予其刑事責(zé)任主體地位具有合理性。
其二,賦予具有獨立意志的人工智能產(chǎn)品以權(quán)利是未來發(fā)展的必然趨勢,而作為與權(quán)利相對應(yīng)的義務(wù)體系,也必然是此類人工智能產(chǎn)品所必須承擔(dān)的。對此類人工智能產(chǎn)品賦予刑事責(zé)任主體地位并要求其承擔(dān)作為義務(wù)體系其中一項分支的刑事責(zé)任是未來發(fā)展之必然。此類人工智能產(chǎn)品所具有的自主意志作為權(quán)利賦予之基礎(chǔ)要件,本文不再過多贅述,此處主要從社會影響力角度論述為何須賦予其權(quán)利。權(quán)利之賦予之所以是未來發(fā)展的必然趨勢,理論依據(jù)在于約翰·厄姆拜克提出的“實力界定權(quán)利”一說,即在原有權(quán)利遭遇新興事物沖擊的情況下,不同群體的實力博弈將重新構(gòu)筑權(quán)利體系,強調(diào)的是群體性優(yōu)勢對于社會的影響力。 實踐中也不乏相應(yīng)的例子對這一理論加以驗證,比較典型的例子便是婦女選舉權(quán)的取得。在19世紀(jì)40年代之前的美國社會,選舉權(quán)被認(rèn)為是僅屬于男性的政治權(quán)利,而后,隨著美國全國婦女選舉權(quán)協(xié)會的成立及婦女地位的逐步提升,1919年初,眾議院以304:90的票數(shù)比例通過關(guān)于婦女選舉權(quán)的修正案,至此,女性擁有了與男性平等的選舉權(quán)。未來,當(dāng)具有獨立意志的人工智能產(chǎn)品所具有的功能及產(chǎn)生的效益不斷地擴大從而全面地影響人類的發(fā)展進程時,此類人工智能產(chǎn)品在人類社會中占有的優(yōu)勢是無法取代的,未來社會也必然會根據(jù)此利益關(guān)系的變化對已有的法定權(quán)利結(jié)構(gòu)加以改變,屬于此類人工智能產(chǎn)品的權(quán)利也將會因此應(yīng)運而生。2017年10月,沙特阿拉伯授予由美國漢森機器人公司生產(chǎn)的索菲亞機器人以公民身份便是人類社會在賦予人工智能產(chǎn)品以權(quán)利方面邁出的第一步。歐盟議會法律事務(wù)委員會在其向歐盟委員會提出的立法建議中同樣提出,考慮賦予復(fù)雜的自主機器人法律地位(即在法律上承認(rèn)其為“電子人”)的可能性,并明確其權(quán)利和義務(wù)。 可見,未來權(quán)利的賦予已成為大勢所趨。當(dāng)然,任何權(quán)利的享受必定伴隨著義務(wù)的承擔(dān),具有獨立意志的人工智能產(chǎn)品在享受特定權(quán)利的同時也必定需承擔(dān)相應(yīng)的義務(wù)。因此,理應(yīng)賦予該類人工智能產(chǎn)品刑事責(zé)任主體的地位以使其承擔(dān)其所應(yīng)承擔(dān)的刑事責(zé)任。法人刑事責(zé)任主體地位的獲得便是一個很好的例證,由于其在現(xiàn)代社會生活中所發(fā)揮的影響力越來越大,成為了一項重要的組織形態(tài),改變了原先的權(quán)利結(jié)構(gòu)而獲得了權(quán)利主體資格,因而刑法賦予了其刑事責(zé)任主體地位以使其承擔(dān)相應(yīng)的刑事責(zé)任。
因此,在未來賦予具有獨立意志的人工智能產(chǎn)品以刑事責(zé)任主體地位之后,智能機器人及自動駕駛汽車均能對由于其自身意志導(dǎo)致的犯罪行為獨立承擔(dān)刑事責(zé)任,并受到相應(yīng)的刑罰處罰。同時,值得關(guān)注的是,對具有獨立意志的人工智能產(chǎn)品賦予刑事責(zé)任主體地位后,其所可能實施的犯罪形式及相關(guān)的責(zé)任認(rèn)定。具體包括:一是單獨犯罪,即人工智能產(chǎn)品在獨立的思想支配下實施的犯罪行為;二是共同犯罪,即當(dāng)人類與人工智能產(chǎn)品共謀實施了某項具有社會危害性的行為,應(yīng)將二者作為共犯加以規(guī)制;三是間接正犯,即人工智能產(chǎn)品雖然基于自主意識在客觀上實施了某項犯罪行為,但是該項行為是人類利用其“無知”,即無犯罪意識而實施的,此時應(yīng)將人類認(rèn)定為此犯罪行為的間接正犯,而人工智能產(chǎn)品則不成立犯罪。
此外,若在未來的刑法中賦予人工智能產(chǎn)品刑事責(zé)任主體地位,與之相適應(yīng)的刑罰措施也須在刑法中加以規(guī)定。由于人工智能產(chǎn)品所具有的特殊性,筆者建議可以采取以下方式對其進行刑事制裁:一是徹底報廢實施嚴(yán)重犯罪行為的人工智能產(chǎn)品。這是對人工智能產(chǎn)品最根本、最嚴(yán)厲的處罰措施,因此僅涉及嚴(yán)重的違法犯罪行為時,才考慮此種刑罰措施的適用。二是對人工智能產(chǎn)品加以回收改造??紤]到人工智能產(chǎn)品研發(fā)及制造過程所耗費的人力財力物力,當(dāng)人工智能產(chǎn)品實施了犯罪行為之后,更多地情況下是將其回收,中斷其智能程序,并設(shè)置專門的技術(shù)人員對其所存在的系統(tǒng)缺陷加以研究,并在改造、試驗之后重新投入使用。三是設(shè)置罰金刑。對于所涉犯罪情節(jié)輕微的人工智能產(chǎn)品,可以考慮對其設(shè)置罰金刑。至于罰金的來源,可以在每個人工智能產(chǎn)品建成之初,便為其設(shè)立專門的資金賬戶,由相關(guān)的研發(fā)制造者及使用者按比例進行繳納,以此作為機器人承擔(dān)民事賠償責(zé)任及刑事罰金責(zé)任的基礎(chǔ)。同時,為了便于區(qū)分各個人工智能產(chǎn)品,以便刑事責(zé)任的追究不會出錯,我國應(yīng)當(dāng)建立人工智能產(chǎn)品強制登記制度,即為各個產(chǎn)品設(shè)置不同的編號并記錄在案,以期為人工智能產(chǎn)品的責(zé)任追溯提供必要保證。
(二)人工智能外相關(guān)責(zé)任主體的歸責(zé)路徑
現(xiàn)階段,大部分人工智能產(chǎn)品仍屬于初級階段,尚不能脫離于人類的控制產(chǎn)生自主意志,也尚不能賦予其刑事責(zé)任主體的地位。對此,就必須從人工智能外的其他相關(guān)責(zé)任主體入手,運用刑法手段追究其刑事責(zé)任,使得涉人工智能犯罪行為得到妥善處置,保障被害人的合法權(quán)益。
以處于初級階段的智能機器人為例,若行為人故意利用智能機器人實施犯罪行為,此時智能機器人在其所設(shè)定的程序范圍內(nèi)實施了相應(yīng)的行為,相當(dāng)于傳統(tǒng)意義上的工具,此時的刑事責(zé)任應(yīng)由利用智能機器人的行為人承擔(dān)。當(dāng)然,現(xiàn)實生活會產(chǎn)生很多不同的變數(shù),故意利用智能機器人實施的犯罪行為也會由于各種認(rèn)識錯誤而產(chǎn)生不同的刑事責(zé)任認(rèn)定結(jié)果。但不論犯罪情形如何改變,需要始終明確把握的原則就是此時的智能機器人僅屬于行為人實施犯罪的工具,而不具有任何獨立意志,從而能夠使很多刑事責(zé)任的認(rèn)定問題迎刃而解。舉個例子,假設(shè)行為人利用“智能殺手”去殺甲,并且針對該“智能殺手”所設(shè)計和編制的所有程序都是為殺害甲服務(wù)的。但在具體的實施過程中,“智能殺手”出現(xiàn)故障誤將乙作為甲而殺害。筆者認(rèn)為,本例屬于打擊錯誤而不屬于對象錯誤,對象錯誤是基于行為人主觀上將乙誤認(rèn)為甲而發(fā)生的認(rèn)識錯誤,但本例中是由于“智能殺手”自身發(fā)生的意外導(dǎo)致了打擊對象發(fā)生偏差,類似于行為人舉著重型槍射擊甲,但由于重型槍的后座力太大,導(dǎo)致子彈射偏,擊中了甲旁邊的乙,均屬于工具自身的打擊錯誤,而不涉及行為人主觀的認(rèn)識偏差。對此,應(yīng)適用法定符合說加以認(rèn)定。法定符合說主張,行為人所認(rèn)識的事實與實際發(fā)生的事實,只要在犯罪構(gòu)成范圍內(nèi)是一致的,就成立故意的既遂犯。 據(jù)此,本例中的行為人應(yīng)以故意殺人罪既遂認(rèn)定。
至于無人駕駛汽車發(fā)生的交通事故,筆者認(rèn)為,若其尚不具備獨立承擔(dān)刑事責(zé)任的能力,并且對同乘的自然人追究刑事責(zé)任明顯不符合罪刑法定原則時,需結(jié)合無人駕駛汽車自身的特殊性,在合理程度上追究與其研發(fā)制造相關(guān)的智能芯片研發(fā)和制造者及汽車制造公司的刑事責(zé)任,即將最終的損害結(jié)果延長追究至事故發(fā)生前相關(guān)主體的研發(fā)制造行為。在交通事故發(fā)生后,若通過相應(yīng)的技術(shù)手段檢測出事故的發(fā)生原因在于無人駕駛汽車的質(zhì)量存在缺陷,即相關(guān)零件或者裝配方式不符合行業(yè)標(biāo)準(zhǔn)而存在制造缺陷,則可以交通肇事罪這一過失犯罪追究智能芯片研發(fā)和制造者及汽車制造公司的刑事責(zé)任。值得注意的是,相關(guān)行業(yè)標(biāo)準(zhǔn)的制定必須以研發(fā)制造當(dāng)時的人工智能技術(shù)發(fā)展水平為依據(jù),以防止不合理的追究研發(fā)制造階段相關(guān)主體的刑事責(zé)任,阻礙人工智能技術(shù)在我國的進步。此外,之所以能通過交通肇事罪加以追究,主要原因在于當(dāng)存在制造缺陷時,智能芯片研發(fā)和制造者及汽車制造公司在主觀上或是存在疏忽大意的過失,或是存在過于自信的過失。即研發(fā)和制造過程中,上述主體由于沒有全面檢測等原因忽視了本應(yīng)察覺的無人駕駛汽車所存在的缺陷,或是已經(jīng)檢測出所存在的缺陷,但認(rèn)為這種缺陷導(dǎo)致的交通事故發(fā)生概率低,輕信可以避免,因而最終導(dǎo)致了危害結(jié)果的發(fā)生。在此種情形下,刑法運用交通肇事罪這一過失犯罪追究上述二主體的刑事責(zé)任具有合理性。至于汽車銷售商,筆者認(rèn)為對其以交通肇事罪加以規(guī)制過于苛刻。由于實踐中汽車銷售方并無對其所銷售的無人駕駛汽車進行實質(zhì)檢測的義務(wù),而更多的是進行形式上的檢查和注意,因此,將無人駕駛汽車的內(nèi)部質(zhì)量缺陷歸咎于本無實質(zhì)檢測義務(wù)的主體顯然不合適。同時,由于現(xiàn)行刑法所規(guī)定的交通肇事罪的行為主體僅限于自然人,而上述所涉的智能芯片研發(fā)和制造者及汽車制造公司以單位居多,因此,應(yīng)在現(xiàn)行刑法中增設(shè)單位作為交通肇事罪行為主體的規(guī)定。
針對前述提到的事故原因的認(rèn)定,由于無人駕駛汽車所涉及的技術(shù)的復(fù)雜性,在事故的原因認(rèn)定方面較之于傳統(tǒng)的交通肇事行為存在更大的認(rèn)定困難。筆者認(rèn)為,可以在每輛投入市場流通的無人駕駛汽車上安裝“黑匣子”,以期完整記錄事故的發(fā)生過程,并在最大程度上明確事故的責(zé)任主體。同時,由于“黑匣子”對譯碼分析技術(shù)的要求高,建議在各省建立譯碼分析中心,專門負(fù)責(zé)對本省無人駕駛汽車的“黑匣子”數(shù)據(jù)進行分析,以強化技術(shù)保障,保證分析結(jié)果的科學(xué)性。
同時,在以現(xiàn)有罪名對研發(fā)制造環(huán)節(jié)相關(guān)責(zé)任主體的違法行為加以刑法規(guī)制之外,可以考慮增設(shè)新的罪名以專門規(guī)制相關(guān)責(zé)任主體未盡到相應(yīng)義務(wù)而導(dǎo)致嚴(yán)重后果的行為??紤]到無人駕駛汽車的特殊地位及其在將來廣泛運用將會對社會生活帶來的影響,對無人駕駛汽車研發(fā)制造和流通環(huán)節(jié)涉及的相關(guān)主體提出更高的法律要求是符合情理的。對此,筆者認(rèn)為可以參照《刑法》第一百三十五條規(guī)定的“重大勞動安全事故罪”、“大型群眾性活動重大安全事故罪”,第四百零八條規(guī)定的“環(huán)境監(jiān)管失職罪”及第四百零九條規(guī)定的“傳染病防治失職罪”的規(guī)定,為無人駕駛汽車涉及的智能芯片研發(fā)和制造者、汽車制造公司設(shè)定嚴(yán)格責(zé)任,即只有當(dāng)存在足夠的證據(jù)證明相關(guān)責(zé)任主體已履行了應(yīng)盡的義務(wù)時,才能夠免除其刑事責(zé)任。 具體而言,是考慮在刑法中專門增設(shè)“重大人工智能事故罪”,以規(guī)范無人駕駛汽車的研發(fā)制造環(huán)節(jié)。汽車銷售商在明知其所銷售的無人駕駛汽車存在缺陷的情況下,仍將其對外銷售,并最終造成危害后果的,也可以本罪論處。但需要注意的是,該罪的設(shè)置必須以前置法律法規(guī)中已對相關(guān)責(zé)任主體的義務(wù)加以明確規(guī)定為前提,因此刑法對于該罪的設(shè)立應(yīng)與前置法律法規(guī)的完善同步進行。
四、結(jié)語
誠然,在人工智能高速發(fā)展的背景下,刑法理應(yīng)在法律規(guī)范及法律適用兩方面作出相應(yīng)的調(diào)整以適應(yīng)社會發(fā)展的需要。筆者在前文所提出的應(yīng)對路徑也并非蓋棺之言,而是希望能夠引起人們的關(guān)注,共同探討并論證恰當(dāng)?shù)倪m用規(guī)則。但刑法作為調(diào)整社會秩序的最后手段,不應(yīng)過多地介入人工智能領(lǐng)域,而阻礙新技術(shù)的發(fā)展,優(yōu)先以民法、行政法等前置性法律法規(guī)對其加以調(diào)整才是最佳路徑。