王嬌嬌 胡思寧
人工智能是利用數(shù)字計算機或者數(shù)字計算機控制的機器模擬、延伸和擴展人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術(shù)及其應(yīng)用系統(tǒng)[1]。
科技的發(fā)展進步促進時代的變遷,人工智能技術(shù)的發(fā)展開啟了人工智能時代的大門,對于解放勞動力、推進經(jīng)濟飛速發(fā)展具有重要意義。但是,技術(shù)具有兩面性,人工智能技術(shù)在推動社會發(fā)展進步的同時對法律和倫理等方面產(chǎn)生了新的威脅。
第一,利用人工智能技術(shù)實施傳統(tǒng)犯罪會使得傳統(tǒng)犯罪的社會危害性成倍增加。在傳統(tǒng)的犯罪模式中,由于犯罪主體依靠主要個人或者幾個人的力量,因而其所造成的社會危害的范圍和強度是有限的。人工智能技術(shù)的發(fā)展極大地解放了人們的雙手,提高了處理事務(wù)的效率,如果將其合理地應(yīng)用于生產(chǎn)生活,將會給社會帶來前所未有的便捷和舒適感。反之,如果人工智能技術(shù)被犯罪分子不法利用,那么它給社會帶來的危害將會成倍增加,造成更加嚴(yán)重和不可控的后果。
第二,人工智能的具體應(yīng)用過程將有可能面臨侵犯公民個人信息和隱私權(quán)的風(fēng)險。人工智能技術(shù)的產(chǎn)生發(fā)展主要依靠智能算法對海量數(shù)據(jù)的分析與計算。因此,在收集分析數(shù)據(jù)的過程中,很有可能侵犯公民個人信息及隱私權(quán)。
第三,不法利用人工智能進行犯罪活動,很可能會催生新的犯罪形式。
人工智能時代的變革影響社會生活的方方面面,提供給社會便利的同時也沖擊了法律和社會倫理。我們在鼓勵和發(fā)展人工智能技術(shù)的同時,對人工智能技術(shù)帶來的風(fēng)險也要予以高度重視。在刑法方面,無論是人工智能造成的哪一種刑事風(fēng)險,損害了刑法所保護的法益就會涉及刑事責(zé)任的認定和分配問題,這也使得人工智能技術(shù)成為近年來理論界熱烈討論的話題之一。
目前,對于能否賦予人工智能產(chǎn)品刑事主體資格,應(yīng)否讓其承擔(dān)刑事責(zé)任的問題,各學(xué)者看法不一,主要形成了三種觀點。
(1)有學(xué)者認為智能機器人不存在自我意識和感知力,在實施社會危害行為時,人工智能產(chǎn)品只是產(chǎn)品研發(fā)者和使用者的犯罪工具,是他們智力和體力的延伸,因而不是刑事責(zé)任主體,不能承擔(dān)刑事責(zé)任。
(2)有學(xué)者根據(jù)人工智能產(chǎn)品自我意識的強弱對人工智能產(chǎn)品的刑法規(guī)制進行了具體的分析和判斷:“在程序設(shè)計和編制范圍內(nèi)智能機器人實施犯罪行為是按照人類的意識和意志,應(yīng)當(dāng)將智能機器人看作人類實施犯罪行為的‘工具’,而發(fā)展到一定階段的智能機器人可能超越程序的設(shè)計和編制范圍,按照自主的意識和意志實施犯罪行為,因而完全可能成為行為主體而承擔(dān)刑事責(zé)任?!盵2]
(3)有的學(xué)者將人工智能產(chǎn)品分為專用人工智能、通用人工智能和超級人工智能[3],并根據(jù)人工智能產(chǎn)品的分類對人工智能產(chǎn)品的刑法規(guī)制進行了具體的分析判斷,但與第二種觀點不同的是,該種觀點認為:“就當(dāng)前的技術(shù)水平而言,通用人工智能仍是一種較為遙遠的設(shè)想,在法律上賦予其刑事主體的資格將會面臨價值觀念、具體認定等方面的較大困難,刑法對此應(yīng)持謹慎、理性的態(tài)度?!盵4]
不同于第一種學(xué)說“一刀切”的觀點,第二種學(xué)說和第三種學(xué)說都是根據(jù)人工智能的分類作的具體判斷。第二種觀點認為發(fā)展到一定階段的智能機器人擁有按照自主意識實施犯罪的能力而讓其成為行為主體并承擔(dān)刑事責(zé)任,而第三種觀點則認為,就當(dāng)前通用人工智能技術(shù)發(fā)展水平而言,在是否賦予通用人工智能刑事主體資格并讓其承擔(dān)刑事責(zé)任的問題上應(yīng)持理性、謹慎的態(tài)度。
第一種學(xué)說很理性地對人和人工智能產(chǎn)品作了本質(zhì)區(qū)分,但卻難以做到具體問題具體分析。對于社會向前發(fā)展進步產(chǎn)生的新的復(fù)雜的問題,有僵化和保守主義傾向,不利于理論和實務(wù)的發(fā)展。第二種學(xué)說做到了具體問題具體分析,但太過超前,雖然通過新穎的方式從理論上架構(gòu)了一種解決方法,但卻忽視了社會實際問題,不僅很難為社會倫理觀念所接受,而且在具體應(yīng)用過程中也會產(chǎn)生一系列問題。
因此,筆者認同第三種學(xué)說,在對人工智能產(chǎn)品實施的社會危害行為進行刑法評價時,我們應(yīng)該持謹慎理性的態(tài)度,不能貿(mào)然賦予人工智能產(chǎn)品刑事主體資格并讓其承擔(dān)刑事責(zé)任。我們不得不考慮賦予人工智能刑事主體資格在刑事責(zé)任的具體認定過程中將面臨很多難以解決的現(xiàn)實問題。
首先,如果認為發(fā)展到一定階段的智能機器人擁有按照自主意識實施犯罪的能力而讓其成為行為主體并承擔(dān)刑事責(zé)任,那么在司法實踐中該如何具體判斷人工智能在實施社會危害行為的過程中是否超越程序的設(shè)計和編程范圍?其次,賦予人工智能行為主體的資格并讓其承擔(dān)刑事責(zé)任就間接地承認了人工智能追求自在價值的自由意志,但現(xiàn)實的技術(shù)發(fā)展情況是,無論通用人工智能有多智能,它還是來源于人類的設(shè)計和編程程序,最終也難以完全擺脫人類的控制。那么,通用人工智能承擔(dān)刑事責(zé)任以后,它的研發(fā)者和設(shè)計者是否還有法律責(zé)任?他們的法律責(zé)任該如何評價?再次,賦予人工智能產(chǎn)品刑事主體資格并讓其承擔(dān)刑事責(zé)任這種將人工智能產(chǎn)品“類人”的處理方法是否符合社會民眾的期待,是否能為社會倫理所接受?最后,進行刑事處罰的最終目的在于防止犯罪行為再次發(fā)生,而事實上,人工智能依據(jù)設(shè)計和編程而產(chǎn)生并不具有道德倫理和情感,對其進行處罰之后它仍然會按照之前的行為模式運行,即使我們將它銷毀也還是會有下一個人工智能出現(xiàn),這樣的刑事處罰對于預(yù)防犯罪是否還有意義?
雖然法律應(yīng)對于社會上出現(xiàn)的新問題新現(xiàn)象予以及時回應(yīng),但是刑法作為最后一道防線應(yīng)當(dāng)保證其謙抑性,不應(yīng)一到社會的變革創(chuàng)新就急于打破現(xiàn)有的法律框架。我們應(yīng)秉持謹慎、理性的研究態(tài)度,在現(xiàn)有的刑法體系之內(nèi)積極尋找解決的辦法。人工智能技術(shù)滲透社會生活的方方面面,當(dāng)前正處于蓬勃發(fā)展的階段,且發(fā)展前景廣闊。但是,不得不承認的是,人工智能技術(shù)不斷發(fā)展創(chuàng)新的過程也是艱難的。就目前而言,作為一項新興技術(shù),人工智能技術(shù)的發(fā)展程度尚不足以打破現(xiàn)有刑法體系。因此,我們可以在原有刑法體系的基礎(chǔ)上對人工智能的刑事風(fēng)險進行防控。
第一,對人工智能從源頭治理進行全方位防控[5]。人工智能技術(shù)的發(fā)展給社會生活的方方面面帶來了日新月異的變化。法律作為上層建筑,應(yīng)當(dāng)對人工智能技術(shù)的發(fā)展進行有效的監(jiān)管,促進人工智能技術(shù)合理使用,保障人工智能技術(shù)健康發(fā)展。為此,要堅持從源頭治理,出臺相關(guān)法律和法規(guī),確保人工智能技術(shù)發(fā)展和使用的各個環(huán)節(jié)都處于法律的有效監(jiān)管之下,規(guī)范人工智能技術(shù)研發(fā)和生產(chǎn)的各個環(huán)節(jié),堅決懲處不法利用人工智能技術(shù)實施的危害社會的行為。
第二,設(shè)置人工智能命令禁區(qū)[6]。雖然人工智能技術(shù)目前處于不斷發(fā)展進步的階段,但是作為一種新興技術(shù),其發(fā)展還是不夠成熟。這就需要法律對可能危及社會、國家乃至人類安全的智能技術(shù)予以禁止,從而保證人工智能技術(shù)健康有序發(fā)展,使其更好地造福于人類。
第三,完善或出臺相關(guān)司法解釋。雖然人工智能技術(shù)的發(fā)展尚不足以打破現(xiàn)有的法律體系,但是人工智能技術(shù)的發(fā)展壯大還是使得有人工智能參與的犯罪活動相較于傳統(tǒng)犯罪而言擁有了一定的特殊性,進而使得在司法實踐過程中出現(xiàn)了一系列難以認定的復(fù)雜問題。這就需要完善或者出臺相關(guān)的司法解釋予以釋明,從而更好地指導(dǎo)司法實務(wù)活動。
第四,建立更為嚴(yán)格的人工智能技術(shù)準(zhǔn)入制度[7]。技術(shù)具有兩面性:一方面,人工智能技術(shù)的應(yīng)用給社會帶來的影響是廣泛而深刻的;另一方面,人工智能技術(shù)的不合理使用甚至是不法使用對社會帶來的危害也是毀滅性的。這樣一種關(guān)乎人類福祉的高新技術(shù)有必要對其設(shè)立嚴(yán)格的技術(shù)準(zhǔn)入制度,進行更加全面有力的監(jiān)管,不僅要嚴(yán)格限制人工智能技術(shù)的研究使用人員,而且對于人工智能技術(shù)的準(zhǔn)入門檻和適用范圍也要進行嚴(yán)格的把控。
第五,鼓勵建立人工智能行業(yè)自律體系。人工智能技術(shù)的蓬勃發(fā)展吸引越來越多的人從事人工智能技術(shù)的研發(fā)與推廣,鼓勵建立人工智能行業(yè)自律體系以促進人工智能技術(shù)健康發(fā)展。此外,在發(fā)展人工智能的同時,要實現(xiàn)人工智能風(fēng)險防范技術(shù)同步發(fā)展,使得人工智能技術(shù)的發(fā)展應(yīng)用處在可控的范圍。