齊思雨
(集美大學(xué)誠(chéng)毅學(xué)院人文科學(xué)系,福建 廈門(mén) 361021)
人工智能與現(xiàn)實(shí)社會(huì)的聯(lián)系日益緊密,已經(jīng)成為法律無(wú)法回避的領(lǐng)域,互聯(lián)網(wǎng)時(shí)代的發(fā)展推動(dòng)了人工智能時(shí)代的到來(lái),互聯(lián)網(wǎng)技術(shù)中的信息與數(shù)據(jù)是孕育人工智能的土壤。當(dāng)今社會(huì),人工智能技術(shù)已經(jīng)滲透到生活的各個(gè)方面,我們的醫(yī)療、軍事、交通、城市建設(shè)等方面,處處都有人工智能的身影。當(dāng)我們享受著先進(jìn)技術(shù)帶來(lái)的好處時(shí),也不能忽略其潛在的法律風(fēng)險(xiǎn)。因?yàn)檫@樣緊密的聯(lián)系就決定了人工智能會(huì)高頻率地參與人類(lèi)社會(huì)的活動(dòng),那么當(dāng)其參與的行為涉及刑法時(shí),就需要立法來(lái)規(guī)制。
不可否認(rèn),法律具有滯后性,新技術(shù)帶來(lái)的犯罪無(wú)法被現(xiàn)行的刑法及時(shí)規(guī)制,甚至?xí)a(chǎn)生沖擊。只有通過(guò)立法及時(shí)修補(bǔ)法律的空白之處,解決刑法對(duì)于人工智能類(lèi)犯罪的適用等問(wèn)題,才可以保證這一技術(shù)的健康發(fā)展和合理使用。[1]
在我國(guó)現(xiàn)行刑法中可以規(guī)制的人工智能類(lèi)犯罪極其有限,僅限于行為人直接將人工智能當(dāng)作工具進(jìn)行生產(chǎn)、利用的情形,換言之,人工智能此時(shí)執(zhí)行的一切操作僅為犯罪者的意志和行為的延伸,這種情形下的刑事責(zé)任主體為利用人。例如,紹興市破獲的全國(guó)首例利用人工智能侵犯公民個(gè)人信息案,犯罪團(tuán)伙利用人工智能技術(shù)盜取數(shù)據(jù),識(shí)別圖片,進(jìn)行詐騙,竊取公民個(gè)人信息進(jìn)行犯罪。在這個(gè)案件中,人工智能被當(dāng)作工具直接被犯罪分子支配利用,可以根據(jù)刑法第二百五十三條之一侵犯公民個(gè)人信息罪對(duì)犯罪分子進(jìn)行定罪。當(dāng)然,即便如此,這樣的定罪依然存在瑕疵,后文第(二)節(jié)將從另一角度闡述。
然而,真正棘手的問(wèn)題是,當(dāng)人工智能在無(wú)自然人利用、操縱時(shí),或者違背利用者的初衷,自行發(fā)生了犯罪行為(如無(wú)人駕駛汽車(chē)涉及交通事故罪,手術(shù)機(jī)器人涉及醫(yī)療事故罪等),其刑事責(zé)任主體又該如何確定,是人工智能本身,還是其用戶(hù),又或者是發(fā)明者,由于現(xiàn)行刑法刑事責(zé)任主體認(rèn)定的局限性,這種情形下刑事責(zé)任主體的確定存在爭(zhēng)議。
不可否認(rèn),人工智能時(shí)代的到來(lái)產(chǎn)生了許多前所未有的行為方式,所以,針對(duì)以下三種情形,即便行為主體符合我國(guó)現(xiàn)行刑法對(duì)于刑事責(zé)任主體的認(rèn)定(自然人、單位),因?yàn)槿狈εc之相對(duì)應(yīng)的罪名,也無(wú)法直接且有效的規(guī)制:
首先,是犯罪主體濫用人工智能學(xué)習(xí)技術(shù)訓(xùn)練其進(jìn)行犯罪的情形。正如前文所述的,紹興市破獲的全國(guó)首例利用人工智能侵犯公民個(gè)人信息案,我們可以按照侵犯公民個(gè)人信息罪對(duì)犯罪分子進(jìn)行定罪,但是其非法濫用人工智能技術(shù)的行為是無(wú)法規(guī)制的。
其次,是由于人工智能的生產(chǎn)者、發(fā)明者在程序編寫(xiě)等技術(shù)方面的問(wèn)題,導(dǎo)致人工智能運(yùn)行時(shí)發(fā)生危害社會(huì)安全的犯罪行為的情形。比如,2018年3月發(fā)生在亞利桑那州坦佩市的Uber無(wú)人駕駛汽車(chē)意外撞死一名行人的案例,[2]經(jīng)后續(xù)調(diào)查給出的技術(shù)解釋是,由于技術(shù)限制,其識(shí)別系統(tǒng)會(huì)在惡劣環(huán)境下發(fā)生識(shí)別有誤,甚至無(wú)法識(shí)別的情況,Uber公司對(duì)其人工智能的某一算法設(shè)置上存在紕漏,但最終的審判結(jié)果卻是Uber公司不負(fù)刑事責(zé)任。這雖然是國(guó)外的案例,但也對(duì)我國(guó)刑事立法提供了思考的方向,或許有觀點(diǎn)認(rèn)為,在我國(guó)發(fā)生類(lèi)似案例,可以直接按照刑法第一百四十六條的相關(guān)規(guī)定按照生產(chǎn)、銷(xiāo)售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪來(lái)定罪。但筆者認(rèn)為,人工智能本就屬于新興技術(shù),其發(fā)展必然存在不成熟的因素,但也不能忽視其進(jìn)步性,所以,在一定限度內(nèi),我們應(yīng)該對(duì)人工智能產(chǎn)品所帶來(lái)的風(fēng)險(xiǎn)有一定程度上的容許,如此才有利于行業(yè)的發(fā)展,而這就需要設(shè)立新的罪名來(lái)解決。
針對(duì)上文提出的,人工智能在無(wú)自然人利用、操縱時(shí),或者違背利用者的初衷,自行發(fā)生的犯罪行為的責(zé)任主體認(rèn)定問(wèn)題,我們可以分為兩類(lèi)討論:
首先,是弱人工智能發(fā)生的犯罪行為。
所謂“弱人工智能”是指沒(méi)有自主意識(shí),缺乏創(chuàng)造性、遵循機(jī)械規(guī)律的人工智能。此類(lèi)人工智能在無(wú)自然人利用、操縱時(shí),或者違背利用者的初衷,自行發(fā)生的犯罪行為,多半是程序等技術(shù)的瑕疵造成的。此時(shí),此類(lèi)人工智能無(wú)法滿(mǎn)足犯罪主客觀一致的要求,不具有承擔(dān)刑事責(zé)任的能力,所以應(yīng)該認(rèn)定其發(fā)明者為刑事責(zé)任主體,因?yàn)榘l(fā)明者在發(fā)明此類(lèi)弱人工智能時(shí),可以且應(yīng)當(dāng)預(yù)見(jiàn)到人工智能的行為和潛在的風(fēng)險(xiǎn),發(fā)明者此時(shí)具有確保其發(fā)明物不會(huì)危及公共安全和人身安全的義務(wù)。當(dāng)然,也有例外情況,如果是由于他人(黑客等)惡意入侵的行為造成的犯罪,應(yīng)當(dāng)認(rèn)定該介入因素切斷了原先的因果關(guān)系,應(yīng)該認(rèn)定入侵者為刑事責(zé)任主體。
其次,是強(qiáng)人工智能發(fā)生的犯罪行為。
所謂“強(qiáng)人工智能”是指具有獨(dú)立意識(shí),有思考能力,通過(guò)學(xué)習(xí)可建立對(duì)于周?chē)h(huán)境的認(rèn)識(shí)、判斷的自主運(yùn)行的人工智能。這類(lèi)人工智能的犯罪能夠符合客觀方面(危害行為、危害結(jié)果、因果關(guān)系、犯罪的時(shí)間、地點(diǎn)、方法)的要求,也能夠符合主觀方面(如意識(shí)因素、意志因素)的要求,應(yīng)當(dāng)認(rèn)定其為刑事責(zé)任主體,獨(dú)立承擔(dān)刑事責(zé)任。首先,這類(lèi)人工智能具有更強(qiáng)的學(xué)習(xí)能力,思考能力,它們可以通過(guò)學(xué)習(xí)和思考產(chǎn)生自主意志和是非判斷能力,已經(jīng)不再是使用者意志和行為的延伸;其次,強(qiáng)人工智能在自主意識(shí)和判斷力的基礎(chǔ)上,完全有能力獲取其研發(fā)人未編入其程序的知識(shí),而這些知識(shí)極有可能具有人身危害性,但這些內(nèi)容是很難被及時(shí)預(yù)見(jiàn)并立刻刪除的;最后,基于前兩點(diǎn)的內(nèi)容,我們完全有理由認(rèn)為,強(qiáng)人工智能是具有可罰性的,此時(shí)的人工智能已經(jīng)具有了自然人的倫理屬性,可以被當(dāng)作“機(jī)械犯罪人”。我們可以對(duì)其執(zhí)行刪除數(shù)據(jù)并且將該人工智能銷(xiāo)毀的刑罰。故針對(duì)強(qiáng)人工智能的犯罪,我們不必設(shè)立新的罪名,但需要出臺(tái)相關(guān)的司法解釋來(lái)調(diào)整、明確刑事責(zé)任主體的認(rèn)定。比如,針對(duì)現(xiàn)行刑法的某些犯罪(如公共安全類(lèi)犯罪、除強(qiáng)奸外侵犯人身權(quán)利的犯罪、侵犯財(cái)產(chǎn)類(lèi)型的犯罪等等)出臺(tái)司法解釋?zhuān)黾訌?qiáng)人工智能本體為刑事責(zé)任主體,并補(bǔ)充強(qiáng)人工智能的刑罰執(zhí)行制度,只有完善了司法解釋?zhuān)挪粫?huì)使上述策略成為空中樓閣。
1.設(shè)立濫用人工智能技術(shù)罪
隨著技術(shù)的發(fā)展,人類(lèi)對(duì)于人工智能技術(shù)的依賴(lài)性會(huì)越來(lái)越大,這已是大勢(shì)所趨,但這勢(shì)必會(huì)引起該技術(shù)濫用的行為。就如全國(guó)首例利用人工智能侵犯公民個(gè)人信息案,犯罪分子利用人工智能,可以使傳統(tǒng)的犯罪行為更加快速,更加低成本,低風(fēng)險(xiǎn)。所以我們有必要設(shè)立濫用人工智能技術(shù)罪,在規(guī)制犯罪分子基本犯罪行為的基礎(chǔ)上,[3]該罪名應(yīng)該納入刑法分則第六章妨害社會(huì)管理秩序罪中進(jìn)行明確規(guī)定。
2.設(shè)立人工智能重大責(zé)任事故罪
針對(duì)人工智能的生產(chǎn)者、發(fā)明者在程序編寫(xiě)等技術(shù)方面的問(wèn)題(主要針對(duì)弱人工智能),導(dǎo)致人工智能自行運(yùn)行時(shí)發(fā)生危害社會(huì)安全的犯罪行為的情形,應(yīng)該成立人工智能重大責(zé)任事故罪,規(guī)制發(fā)明者、生產(chǎn)者在發(fā)明、設(shè)計(jì)、生產(chǎn)環(huán)節(jié)中未完全按照行業(yè)標(biāo)準(zhǔn)和國(guó)家標(biāo)準(zhǔn)履行義務(wù)的行為。但是,結(jié)合前文所述對(duì)于新興技術(shù)發(fā)展的支持態(tài)度,應(yīng)該對(duì)其中的生產(chǎn)方采取嚴(yán)格責(zé)任制,即如果生產(chǎn)商有足夠證據(jù)證明自己的生產(chǎn)過(guò)程是嚴(yán)格遵守現(xiàn)有的相關(guān)標(biāo)準(zhǔn)的,則可以免于承擔(dān)刑事責(zé)任。該罪名應(yīng)該納入刑法第二章危害公共安全罪中進(jìn)行明確規(guī)定。
人工智能時(shí)代的到來(lái)既給我們以便利,同時(shí)也會(huì)給我們帶來(lái)法律的困擾,甚至對(duì)傳統(tǒng)的刑法帶來(lái)沖擊,相關(guān)的刑事立法可能會(huì)改變長(zhǎng)久以來(lái)的傳統(tǒng)的刑事責(zé)任定義,這正是新興技術(shù)的發(fā)展對(duì)于刑事立法的挑戰(zhàn),所以我們既要制裁人工智能類(lèi)的犯罪,又不能阻礙該行業(yè)的發(fā)展,只有這樣,才是成功應(yīng)對(duì)我國(guó)當(dāng)下人工智能犯罪的刑法困境。