孫浩
關鍵詞:人工智能;犯罪;原因;對策
中圖分類號:DF792.1 文獻標識碼:A 文章編號:1009 — 2234(2019)09 — 0118 — 03
人工智能技術的迅速發(fā)展,特別是人臉識別和語音識別的廣泛應用,將人類社會推向了人工智能的新時代。人類社會的生活和工作方式發(fā)生了翻天覆地的變化,人工智能已經(jīng)成為人類生活和工作中不可或缺的工具。但是,正如埃利澤·尤德考斯基所言:“任何能帶來卓越人類智能的東西(可能采取人工智能、人腦-計算機接口和基于神經(jīng)科學的人類智能提升的形式)都將在改變世界的競賽中處于領先地位。再沒有什么能與此相提并論?!币舱缬纫蚓羰克f的那樣:“工程師的才能被嚴重濫用,將來可能會被濫用。就某些人才而言,既有眼前的負擔,也有潛在的悲劇。人類在道德上對如此巨大的禮物毫無準備。在道德緩慢發(fā)展的過程中,人類還不能適應這份禮物帶來的巨大責任。在人類不知道如何主宰自己的時候,他們被賦予了主宰自然的權力”①。目前,對人工智能技術的濫用已成為受眾人關注的社會現(xiàn)象。
2017年,浙江省紹興市警方成功破獲全國首例利用AI(人工智能)犯罪公安部督“2017.01.03”侵犯公民個人信息案②。首例人工智能犯罪引起了人們對人工智能安全的普遍關注。吳漢東教授指出,人工智能時代存在社會風險,其社會風險體現(xiàn)為風險共生、風險時代和全球風險③。然而,人工智能技術本身的發(fā)展存在倫理、法律、道德和刑事風險。其中,刑事風險中有三種表現(xiàn)形式:首先,它可能會導致一些傳統(tǒng)犯罪的危害性發(fā)生“數(shù)量變化”。第二,它可能導致新形式的犯罪。第三,人工智能產(chǎn)品可能由于各種原因而脫離人類控制,然后獨立進行嚴重危害社會的犯罪行為④。人工智能犯罪顯然是刑事風險的第二種表現(xiàn)形式,是一種新的犯罪形式,從之前所講到的人工智能犯罪案例來看,人工智能犯罪也具有使部分傳統(tǒng)犯罪的危害性發(fā)生“量變”特點??傊?,人工智能犯罪的不可預測性和危害嚴重性是其主要特征,如果不對人工智能犯罪加以理論分析,則會面臨理論與實踐脫節(jié)等問題,陷入極大的被動。因此,對于人工智能犯罪的相關研究顯得尤為必要。
犯罪原因是一個非常復雜的系統(tǒng)。對犯罪原因的研究證明了犯罪規(guī)律,提高了控制犯罪的能力;完善社會機制,彌補社會組織的漏洞;指導國家立法和司法工作等重要意義。人工智能犯罪是指自然人直接或間接利用人工智能技術對數(shù)據(jù)安全、計算機系統(tǒng)、國家、團體和個人造成危害的行為。是一種新型的犯罪,導致人工智能犯罪的原因可分為以下幾種。
經(jīng)濟因素。2016年2月,花旗銀行和牛津大學聯(lián)合發(fā)布了一份情報報告《工作中的技術2.0版》①(《TECHNOLOGY AT WORK v2.0》)。這份報告研究表明, 隨著智能化發(fā)展機器人在全球范圍內(nèi)將不同程度替代人類造成失業(yè)。智能化帶來的失業(yè)是一種結(jié)構性失業(yè),不符合高端人才的需求和中低端人才的供應。在這樣的背景下,犯罪人數(shù)勢必增加。教育因素。許多學校將教育的主要精力投放在升學率上,而升學率并不能體現(xiàn)學生的德育教育、法治教育和心理教育等方面,這種教育模式是片面而非全面的。在這種教育模式下培養(yǎng)出的一部分人法律意識相對淡薄,容易游走于犯罪邊緣,危害社會。法律因素。造成人工智能犯罪和犯罪率上長的原因之一,就是法律的不完善,缺乏懲治人工智能犯罪的法律依據(jù)。人工智能犯罪與傳統(tǒng)犯罪有很大不同,無論是犯罪主體或犯罪客體,以及管轄問題乃至訴訟程序等,都體現(xiàn)出它的新特點。然而對于人工智能犯罪,我國刑法沒有明確規(guī)定,只是規(guī)定了計算機犯罪的相關內(nèi)容②,從刑法規(guī)定中我們不難發(fā)現(xiàn),我國刑法對于人工智能犯罪的法律規(guī)范并不健全,法律制度并不完善。而除了刑法規(guī)定外,我國民法、商法、經(jīng)濟法等法律也未對人工智能犯罪進行明確規(guī)定。總之,我國人工智能犯罪的法律空間的薄弱,將會是我國人工智能犯罪滋生蔓延的關鍵原因。
我們應當從技術角度、社會角度和法律角度三個維度研究人工智能犯罪的相應對策。
(一)技術角度。
首先,從技術角度考慮人工智能犯罪的預防問題,應采取“師夷長技以制夷”的方法,將人工智能技術運用到犯罪預防上。人工智能技術可在監(jiān)控識別、情報挖掘、數(shù)據(jù)分析等方面幫助犯罪預防的實現(xiàn)。監(jiān)控識別上,可利用人工智能技術結(jié)合人臉識別、人像識別及語音識別等優(yōu)勢,與我國“天網(wǎng)”計劃相配合,并依靠其自身強大的識別能力、數(shù)據(jù)挖掘和分析、準確定位等能力,從而實現(xiàn)虛擬空間中對于人工智能犯罪乃至其它犯罪的預防。監(jiān)控對于犯罪有著震懾和記錄作用,監(jiān)控安防是人工智能完美落地的天然場景,而人工智能將會推動超級監(jiān)控的實現(xiàn)。未來人工智能+監(jiān)控將會通過目標的細微表現(xiàn)來判斷其社會危害性,從而實現(xiàn)完美預防,這有利于阻隔人工智能犯罪與現(xiàn)實空間的“連接”。人工智能是網(wǎng)絡安全的福音,人工智能技術效率的倍增和IP定位能力有利于人工智能犯罪在虛擬空間中也無處遁形;情報挖掘上,人工智能技術有利于打破監(jiān)控識別中存在的數(shù)據(jù)孤島并分散的局面。在傳統(tǒng)的安防體系中,各個平臺系統(tǒng)數(shù)據(jù)開放性低,彼此之間共享度低,所以很難開展多維數(shù)據(jù)融合分析。而人工智能技術的數(shù)據(jù)整合能力可以令追蹤行動一追到底,對于同一個目標人物和目標物體,人工智能技術可以鎖定該目標并整合附近監(jiān)控設備尋找目標的行蹤,并及時通知辦案機關,從而令辦案機關發(fā)現(xiàn)、預防、追蹤犯罪,避免犯罪的發(fā)生;數(shù)據(jù)分析上,人工智能技術的應用可以通過分析數(shù)據(jù)得出科學準確的結(jié)論和取得隱蔽的證據(jù)。無論是神證、人證、還是科學物證的時代,證據(jù)是打擊犯罪、預防犯罪的重要一環(huán),往往一個證據(jù)就能決定一人的生死。證據(jù)中心主義要求人工智能技術通過數(shù)據(jù)分析找到人工智能犯罪的證據(jù)蹤跡,從而實現(xiàn)打擊和預防。
(二)社會角度
道德、法制和政府行政是社會宏觀預防的三種重要力量。道德對犯罪的預防表現(xiàn)為道德建設和道德教育,道德建設是對道德倫理體系的構建,構建一套完整的人工智能倫理體系是人工智能犯罪的重要基礎。道德教育是政治信念和道德倫理思想的灌輸,人工智能犯罪的預防需要堅定的人文政治信念和道德倫理思想做支撐,因為人工智能和人類的重要區(qū)別恰恰在于道德的把握。運用道德方式預防犯罪必須注意道德控制作用的有限性和道德控制的適度性,單憑道德是無法完滿地做到預防犯罪的,而是需要道德與法治的結(jié)合,而且還需要一定程度的政治力量的介入。道德控制的適度性表現(xiàn)為道德手段必須不能極端,歷史證明,極端緊張的道德控制和極端松懈的道德控制都是對犯罪不利的。法制對犯罪的預防體現(xiàn)為立法、執(zhí)法和法制宣傳上,立法上,法律應適應時代的發(fā)展,緊跟時代潮流,制定出一套完整的人工智能犯罪的法律、法規(guī)。執(zhí)法上,加強人工智能犯罪執(zhí)法隊伍建設,如有必要可設置人工智能執(zhí)法大隊和人工智能特警。統(tǒng)一執(zhí)法標準,結(jié)合人工智能發(fā)展狀況,制定符合現(xiàn)實需要的執(zhí)法規(guī)定。法制宣傳上,要重視法律的威懾作用,震懾犯罪行為,令人工智能犯罪難以滋生。另外,也需要提高法制信用,監(jiān)督法制的實現(xiàn),人人遵守法,不能出現(xiàn)“刑不上大夫”的情形。政府行政上,政府權力應保持高度的權威性,進行廉政建設,提高犯罪預防打擊部門的工作水平,保持犯罪預防打擊部門的強度。其次應加強行政立法,建立人工智能負面清單,保持行政工作的高效率和精準度。最后應當加強農(nóng)村鄉(xiāng)鎮(zhèn)和城市街道等的基層政權建設,充分發(fā)揮基層政權在發(fā)現(xiàn)人工智能犯罪和預防人工智能犯罪等方面的作用。綜上所述,道德、法制和權力(政府行政)等力量是對犯罪的預防和打擊的重要手段,我們應依法統(tǒng)籌三種力量對人工智能犯罪預防的運用,以確保社會的穩(wěn)定。
社會控制還要從微觀入手,主要包括環(huán)境設計、群體個人參與和心理預防三個方面。環(huán)境設計上,要創(chuàng)造不利于人工智能犯罪的實體空間和虛擬空間。預防人工智能犯罪的實體空間應通過燈光照明或角落監(jiān)控等方式消除犯罪死角,還可以通過組建公公民眾監(jiān)督中心來實行社會監(jiān)督。預防人工智能犯罪的虛擬空間應通過增強網(wǎng)監(jiān)力量或在虛擬網(wǎng)絡空間增設“電子眼”追蹤人工智能代碼異常情況來預防人工智能犯罪;群體個人參與是群體、個人對犯罪預防的參與,是預防犯罪國家行動的重要補充。社區(qū)參與是社會控制的重要組成部分,社區(qū)的參與是我國鼓勵預防犯罪的重要實踐,也是我國預防犯罪的一個成功做法。群眾自治是群眾組織的有組織的自我管理和自我保護活動,也是我國預防犯罪的一個重要實踐。因此,預防人工智能犯罪也可通過人工智能群體自治等手段實現(xiàn)。另外,人工智能技術人員可以通過自我約束和自我防衛(wèi)等手段與人工智能犯罪行為作斗爭,比如可以研制人工智能犯罪的“疫苗”;心理預防主要是指對自然人的相應心理預防、治理行為,因為結(jié)合目前的人工智能技術和當今社會發(fā)展的需要,人工智能犯罪是指自然人直接或間接利用人工智能技術對數(shù)據(jù)安全、計算機系統(tǒng)、國家、團體和個人造成危害的行為。在這里,人工智能犯罪的主體是自然人,只有將人工智能犯罪的主體確定為自然人才有研究的現(xiàn)實意義。綜上所述,社會微觀預防與社會宏觀預防的結(jié)合①是預防人工智能犯罪的重要手段,而對此兩種方式的完美配合和應用則是科學預防的不二法門。
(三)法律角度
人工智能犯罪的犯罪人一定是自然人。這里的自然人是指具有生物意義的純正自然人。人的生物性和倫理性體現(xiàn)了人的主體性本質(zhì),及其對權利的要求。生物意義上的人被確認成法律意義上的"自然人",是法律對人的"主體性"本質(zhì)的尊重,是主體法權要求的確認。從當前人工智能技術的發(fā)展情況來看,機器人目前還無法取代生物人。純正自然人犯罪是指法律規(guī)定的只有自然人才能構成的犯罪。不純正自然人犯罪是指既可以由單位構成也可以由自然人構成的犯罪。故人工智能犯罪的刑罰對象仍限于自然人,不用得到較大調(diào)整。唯一需要調(diào)整的是人工智能產(chǎn)品可適用《侵權責任法》的相關規(guī)定,從而規(guī)制人工智能產(chǎn)品造成的侵權行為。
其次,制訂科技法。遵循科技發(fā)展規(guī)律,制訂嚴格有效的科技法,是規(guī)制人工智能犯罪的有效手段也是長遠之策。這套完整的科技法體系需要科學技術領域的專業(yè)人才共同參與制定,以謀求科技發(fā)展與人類發(fā)展的動態(tài)平衡。在科技法制定出臺之前,假如人工智能脫離人類控制,成為犯罪主體,且人工智能體依據(jù)智能化程度而具有刑事責任能力,那么刑罰就應當做出較大調(diào)整。在這種情況下,對相應犯罪主體的刑罰應擴大范圍,增加種類。比如對人工智能體可進行數(shù)據(jù)刪除、產(chǎn)品報銷等方式的處罰。如果人工智能體擁有國家承認的政治權利,那么剝奪政治權利可成為處罰人工智能體的附加刑。另外,如果超人工智能時代到來,法律對于人工智能體束手無策時,需要及時跳轉(zhuǎn)思維,設立人機共存秩序,以維護社會的穩(wěn)定。
〔責任編輯:張 港〕