沈臻懿
《終結(jié)者》等好萊塢大片中反映出的機器人犯罪畫面,不禁令人為之震驚。但在現(xiàn)實生活中,機器人犯罪事件也時有發(fā)生。從1978年日本發(fā)生的第一起機器人“殺人”事件,到近期德國大眾汽車工廠內(nèi)的機器人“殺人”事件,機器人涉罪問題已受到人們的高度關(guān)注。誠然,當(dāng)前人工智能機器人的智商遠(yuǎn)不能與人類相匹敵,其發(fā)生殺人、傷人等事件的原因多因硬件系統(tǒng)故障、軟件系統(tǒng)故障以及受到電磁波干擾所導(dǎo)致,機器人自身尚難以自主實施犯罪活動。但任何技術(shù)都是一柄雙刃劍,人工智能機器人也不能例外。其是否有可能自主實施犯罪,根源不在機器人,而在人類自身。
好萊塢著名大片《終結(jié)者》中,人類研制出的全球高級計算機控制系統(tǒng)“天網(wǎng)”全面失控,令機器人擁有了獨立意識,并將人類視為其假想敵,隨之對人類進(jìn)行了大屠殺。無論是劇中擁有人類皮膚與肌肉,內(nèi)部充滿著鋼鐵結(jié)構(gòu)的終結(jié)者機器人T-800,抑或更為先進(jìn)的液態(tài)金屬機器人T-1000,均被用來對人類實施犯罪。乍一聽,機器人實施犯罪的情形只可能存在于類似前述電影的劇情中,但在現(xiàn)實生活中,是否也存在著機器人犯罪呢?
機器人,作為20世紀(jì)以來人類在自動化尤其是人工智能(Artificial Intelligence,簡稱AI)領(lǐng)域內(nèi)取得的重大突破,已與當(dāng)前人類社會的生產(chǎn)與生活緊密相連。據(jù)統(tǒng)計,全球范圍內(nèi)現(xiàn)有的機器人數(shù)量已突破1000萬,其中20%為工業(yè)型機器人,而另有80%則為服務(wù)型機器人。從人類設(shè)計機器人的初衷而言,其既可以按照預(yù)先設(shè)定好的程序來運行,亦可以直接“聽從”人類指揮,或者按照人工智能技術(shù)所設(shè)定的原則性綱領(lǐng)來行動。由于在設(shè)計、操作、技術(shù)等層面存在的現(xiàn)實問題,機器人已然引發(fā)了諸多令人詫異的事件,甚至涉及機器人犯罪。
機器人犯罪事件盤點
機器人犯罪事件最早可追溯至20世紀(jì)70年代末期。1978年9月6日,日本廣島一家工廠中的切割機器人在從事鋼板切割工作時突然出現(xiàn)反常情況,將工廠內(nèi)一名值班工人當(dāng)作了鋼板進(jìn)行操作,從而導(dǎo)致了世界上第一起機器人“殺人”事件的產(chǎn)生。
僅僅時隔一年之后,遠(yuǎn)在大洋彼岸的美國也發(fā)生了一起工業(yè)機器人殺人事件。1979年1月25日,在位于密歇根州的美國福特工廠內(nèi),年僅25歲的裝配流水線工人羅伯特·威廉姆斯(Robert Williams)被車間內(nèi)的工業(yè)機器人手臂擊中而死亡。因工業(yè)機器人在生產(chǎn)安全上存在的缺陷,法庭作出裁定令其賠償羅伯特·威廉姆斯親屬一千萬美元補償。
不過,除了工業(yè)型機器人之外,過于智能化的機器人亦會導(dǎo)致命案的發(fā)生。1989年,前蘇聯(lián)國際象棋冠軍尼古拉·古德科夫與一臺M2-21超級電腦機器人對弈。尼古拉·古德科夫以其高超的棋藝連勝機器人三局,并非常得意地宣稱機器人的智力是無法與人類相比擬時,悲劇就此發(fā)生!正當(dāng)尼古拉·古德科夫準(zhǔn)備與機器人開展第四局的鏖戰(zhàn)時,連敗三局的機器人突然向金屬棋盤釋放了高強度電流,恰巧尼古拉·古德科夫此時正將手放在棋盤中。在眾人一片驚詫之下,一代國際象棋大師不幸殞命于機器人之手。
諸如此類機器人殺人的事件,多年來時有發(fā)生。僅日本一國,就已有20余人死于各類機器人之手,致傷致殘的則高達(dá)8000余人。2015年7月2日,德國又發(fā)生了一起機器人殺人事件。該國汽車制造商大眾稱,其位于德國境內(nèi)的一家工廠中,一名年僅22歲的技術(shù)員被一臺機器人意外傷害致死。德國大眾汽車公司發(fā)言人海克·西爾維格稱,該起事故發(fā)生在距法蘭克福大約100公里的包納塔爾工廠。不幸身亡的技術(shù)員是大眾的承包商,事發(fā)當(dāng)時正好與同事一起在安裝機器人。但在這過程中,機器人突然失控抓住被害人的胸部,并將其重重壓向一塊金屬板,從而導(dǎo)致該技術(shù)員因傷重而不治身亡。??恕の鳡柧S格同時也強調(diào),導(dǎo)致被害人身亡的機器人并非流水線上與工人一同工作的機器人,而是處于安全籠之中。其通常只在封閉空間內(nèi)進(jìn)行工作,負(fù)責(zé)汽車零部件的抓取并進(jìn)行相應(yīng)操作。事發(fā)當(dāng)時,這名被害的技術(shù)員正好處于安全籠中對機器人進(jìn)行安裝與調(diào)試。其同事則站在安全籠之外,沒有受傷。在整起事件中,該機器人并未遭到損壞,亦沒有出現(xiàn)技術(shù)故障。事件發(fā)生后,德國檢察機關(guān)已就事故原因介入展開調(diào)查,并考慮是否提出指控。這起機器人“出手”殺人的事件,令人工智能的安全性問題再次引發(fā)了陣陣熱議。
機器人在各行各業(yè)中的滲透
機器人犯罪問題得到人們的日益關(guān)注,其中一大原因即在于機器人在當(dāng)前各行各業(yè)中的滲透與普及。從汽車制造工廠中的機器人、銀行ATM自動取款機,再到谷歌汽車自動駕駛,各類機器人已滲透至社會的方方面面。
很多人堅信,未來社會還將會擁有更多的機器人,以取代傳統(tǒng)需人力所充當(dāng)?shù)慕巧?。過去需要人類參與完成的活動,未來只需通過機器人即可實現(xiàn)。致力于倡導(dǎo)工業(yè)機器人的人們亦表示,未來工業(yè)發(fā)展的方向與福音即是高效、精準(zhǔn)的機器人。為此,美國物理學(xué)家雷哈特·阿爾萊恩專門對“機器人化”一詞進(jìn)行了說明。其認(rèn)為,“機器人化”即是指人類所完成的工作被機器人取代的這一過程。
不過,各行各業(yè)中針對機器人,甚至是機器人犯罪的質(zhì)疑之聲亦一浪高過一浪。不少人發(fā)現(xiàn),自己的工作飯碗正在被機器人所搶走。譬如,當(dāng)前的快餐行業(yè)完全可以由機器人所接手。機器人不僅可以制作漢堡包,煎炸薯條,亦可為顧客點單、送餐,還可清潔店內(nèi)衛(wèi)生。
機器人殺人、傷人事件的頻發(fā),也加劇了人們對于機器人負(fù)面效應(yīng)的憂慮。不少人提出疑問,一旦未來機器人的智力水平超過了人類,其是否還能為人類所控制。美國特斯拉汽車公司首席執(zhí)行官埃隆·馬斯克(Elon Musk)即是對機器人的安全性持懷疑態(tài)度的代表人物之一。馬斯克曾對公眾警告稱,人工智能的不斷發(fā)展,將令未來的機器人自主決定對人類進(jìn)行犯罪與屠殺。為此,馬斯克專門向一家名為生命未來的研究機構(gòu)(Future of Life Institute,簡稱FLI)捐資1000萬美元,以資助其對人工智能的安全性進(jìn)行研究。該研究機構(gòu)成立的目的,即是確保人類對人工智能擁有的絕對控制權(quán),防止機器人對人類造成的毀滅與侵襲。著名科學(xué)家霍金在其發(fā)出的一封公開信中也警告稱,人們必須更多地關(guān)注到人工智能的安全性。
是否會自主犯罪的機器人
人工智能的巨大潛力,令世界各國在規(guī)避其潛在風(fēng)險與隱患的同時,也在探索著其研究與實踐價值。但就核心要素而言,擁有人工智能系統(tǒng)的機器人,必須按照人類的意愿工作,防止機器人“變異”出自主犯罪的能力。
從社會發(fā)展的層面而言,汽車制造業(yè)是當(dāng)前機器人應(yīng)用最為密切的一項產(chǎn)業(yè)。這一特點與機器人的競爭力與性價比緊密聯(lián)系。機器人成本的逐漸降低、功能日趨提升,使得汽車制造業(yè)越來越倚重機器人來提升自動化程度。就德國大眾汽車公司而言,該公司就計劃使用更多的機器人,以應(yīng)對今后幾年的大批工人退休浪潮以及新招員工人手短缺的問題。諸如此類行業(yè)中所使用的機器人,大致可以分為兩類。第一類是輕型協(xié)作化機器人,可以與人類一同在生產(chǎn)線上進(jìn)行工作。此類機器人在設(shè)計時有意識地考慮到了安全性問題,例如在周圍有人經(jīng)過時,機器人會自動停止其工作。第二類則是重型工業(yè)機器人,其通常被限定在某一特定區(qū)域,以避免同人類直接接觸。在工作時,重型工業(yè)機器人會被放置在一個足夠安全的籠內(nèi)進(jìn)行生產(chǎn)部件的制造與加工。
從當(dāng)前科學(xué)技術(shù)發(fā)展的水平而言,擁有人工智能的機器人尚未達(dá)到像人一樣獨立思考的程度。據(jù)研究人員對全球53個搜索引擎這一人工智能的智商進(jìn)行測定、比較的結(jié)果顯示,谷歌搜索引擎的智商最高,達(dá)26.5,百度搜索引擎次之,為23.5,智商最低的則是新西蘭的搜索引擎SearchNZ,僅為6。對照人類的智商可見,人類在6歲時的平均智商為55.5,12歲時為84.5,到了18歲則為97??梢姡词故撬阉饕嬷袚碛凶罡咧巧痰墓雀枰矁H相當(dāng)于4歲的孩子。因而,從智商層面而言,現(xiàn)階段智能機器人是難以與人類匹敵并自主對人類實施犯罪的。當(dāng)前,機器人所擁有的“大腦”,實質(zhì)是接收指令與動作執(zhí)行的一整套程序代碼?,F(xiàn)階段發(fā)生的各類機器人犯罪事件中,極有可能是機器人接收到了錯誤動作指令或受到外界干擾,從而導(dǎo)致了殺人、傷人的慘劇發(fā)生。前述事件的波及,令人們對機器人使用這一問題上難免產(chǎn)生了內(nèi)心障礙。但有學(xué)者指出,機器人對人類的傷害,其根源并不在機器自身,而是在于設(shè)計與制造機器人的人類本身。人類對于機器人的不正確使用,轉(zhuǎn)而會引發(fā)對于人類自身的誤傷。這些不正確使用方式,就包括了人類在設(shè)計機器人智能程序時,因認(rèn)識能力有限,在一開始就存在設(shè)計漏洞,從而最終導(dǎo)致機器人殺人等犯罪事實產(chǎn)生。
面對機器人所帶來的犯罪威脅,日本郵政與電信部門組織了一個專門研究小組,針對機器人的殺人、傷人事件進(jìn)行了深入研究。該研究小組認(rèn)為,現(xiàn)階段機器人犯罪的原因通常有以下三種。第一,因硬件系統(tǒng)故障所導(dǎo)致;第二,因軟件系統(tǒng)故障所導(dǎo)致;第三,受到電磁波干擾所導(dǎo)致。現(xiàn)代科技的不斷發(fā)展,令研究人員得以找到一些機器人失控犯罪的原因,并對造成機器人失控的因素加以有效修正。
誠然,當(dāng)前人工智能機器人的智商仍低于人類,但并不意味著未來機器人的智商不會大幅度提升,甚至超過人類,從而導(dǎo)致對于人類的自主犯罪活動產(chǎn)生。從根源而言,前述問題的核心仍在于人類。早在1942年時,科幻小說家阿西莫夫就提出了機器人三大法則:第一法則,機器人不得傷害人類,或者坐視人類受到傷害;第二法則,在不違背第一法則的前提下,機器人必須服從人類的命令;第三法則,在不違背第一與第二法則的前提下,機器人必須保護(hù)自己。英國巴斯大學(xué)約翰娜·波依遜教授則指出,這一問題的規(guī)范并非針對機器人,而是人類?!叭祟愋枰龀鲞x擇,在自身基礎(chǔ)上搭建道德框架,從而將機器人置于人類的道德框架之下,以保證其不會殺害其他生命。”
殺人機器人的隱憂
任何一項技術(shù)都是雙刃劍,人工智能機器人也未能例外。就像原子能技術(shù)一樣,其既可以作為一項能源造福于人類,又可作為原子彈武器,來摧毀城市,殺害民眾。當(dāng)前,部分國家對于“殺人機器人”的研究,無疑對于機器人犯罪這一問題蒙上了一層濃厚的陰影。
據(jù)聯(lián)合國“法外處決、即決處決或任意處決問題”特別報告員克里斯托夫·海因斯向聯(lián)合國人權(quán)理事會提交的工作通報內(nèi)容,其建議人權(quán)理事會呼吁各國立即暫停對“致命性自動機器人”即“殺人機器人”技術(shù)的研發(fā)、生產(chǎn)與使用。該工作通報指出,“致命性自動機器人”是一種在激活后即無需人類干預(yù),即可自動選擇目標(biāo)并采取行動的新型武器系統(tǒng)。當(dāng)前,各國已投入實戰(zhàn)應(yīng)用的“無人機”等機器人技術(shù)仍需要借助于人類的控制與決定,但“致命性自動機器人”則完全由電子計算機系統(tǒng)來做出決定。其已從由人類遠(yuǎn)程遙控發(fā)展為自帶電子計算機軟件與控制傳感器,能夠完全自主地執(zhí)行敵方識別、敵情判斷與擊殺敵人等任務(wù)。
海因斯指出,“致命性自動機器人”的使用可能會讓戰(zhàn)爭沖突變得相對容易需要,但同時也會造成戰(zhàn)爭責(zé)任認(rèn)定等一系列倫理問題。“致命性自動機器人”的一大潛在危害即是該種機器人可能會自主傷害準(zhǔn)備投降的或已喪失戰(zhàn)斗力的士兵,因而嚴(yán)重違法國際人權(quán)與人道主義法。海因斯同時也提出質(zhì)疑,“機器人是否應(yīng)擁有決定人類的生殺大權(quán)的權(quán)力”“誰將為機器人的犯罪與濫殺無辜來承擔(dān)責(zé)任”,這些問題均值得國際社會加以深入反思。
在工作通報中,海因斯還建議由聯(lián)合國組成一個高級別小組,召集所有國家共同商討國際社會在這一問題上所應(yīng)采取的對策,從而形成共同遵守的原則,暫停當(dāng)前所有設(shè)計生產(chǎn)、組裝、運輸、購買、部署與使用“致命性自動機器人”的行為。
誠然,“致命性自動機器人”尚未投入實戰(zhàn)應(yīng)用,但這一技術(shù)已然成型。針對這一問題,是否可以允許機器人來殺害人類,值得人們進(jìn)一步探討。