傅 亮
(吉林大學(xué),吉林 長春 130023)
美國OpenAI 公司在2022 年11 月30 日發(fā)布的一款生成式人工智能機器人,即ChatGPT3.5,一經(jīng)發(fā)布便火爆出圈,兩月內(nèi)用戶數(shù)量就超過1 億人。而隨后在2023 年3 月14 日發(fā)布的ChatGPT4.0,更是由于其超強算力引發(fā)了國內(nèi)外新一輪的人工智能應(yīng)用熱潮。ChatGPT 與此前的人工智能聊天機器人有所不同,它是一個基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的大型語言模型,其中Transformer是一種新型腦神經(jīng)網(wǎng)絡(luò)架構(gòu)。通過Transformer 架構(gòu)把預(yù)訓(xùn)練和微調(diào)體系引入了自然語言處理的過程中,生成了符合人類習(xí)慣的多語言邏輯的內(nèi)容,從而保證人與機器的交流不再是簡單的匹配式交流或者關(guān)鍵詞觸發(fā)式交流。此外從OpenAI 公布的數(shù)據(jù)來看,在ChatGPT3.5 階段,參加美國律師執(zhí)照考試(Uniform Bar Exam)時,還只能超越10%的應(yīng)試者,但最新的ChatGPT4.0 已經(jīng)具備強大的圖像識別、文字生成圖片以及創(chuàng)意文本生成等多項功能,在美國律師執(zhí)照考試中已經(jīng)可以實現(xiàn)超越90%的應(yīng)試者。其發(fā)展速度之快讓人驚訝,以至于馬斯克在ChatGPT3.5 出來后就公開發(fā)表言論,應(yīng)該踩下剎車,減緩人工智能的發(fā)展速度。[1]
以ChatGPT 為代表的生成式人工智能給人們帶來更加便捷生活的同時,也引發(fā)了刑法學(xué)界的三類刑事風(fēng)險思考。第一,在ChatGPT 引發(fā)新一輪人工智能熱的同時,不少法學(xué)學(xué)者提出強人工智能還未到來,或者永遠不可能實現(xiàn),因此人工智能的刑事風(fēng)險研究是個偽命題,這個命題該如何反駁呢?第二,犯罪主體是否局限于人類,ChatGPT 等生成式人工智能目下是否具備承擔(dān)刑事責(zé)任的前提,如果不具備,要智能到何種程度才能夠具備刑事責(zé)任的前提。第三,ChatGPT 的強大算力和智能性可運用于人類生活的各個領(lǐng)域,而在適用的過程中有可能引發(fā)哪些犯罪,國家又該如何進行風(fēng)險預(yù)防?
人工智能刑事風(fēng)險研究一直以來都是刑法學(xué)界一大討論熱點,不少學(xué)者就人工智能的主體地位、刑事責(zé)任分配、刑法應(yīng)對策略等問題進行過深入研究。但學(xué)界中也有學(xué)者表示此類研究存在大量的反智化研究,例如有學(xué)者指出人工智能風(fēng)險不過是部分學(xué)者依靠無數(shù)假象拼湊起來的幻影,是在用別人的“噱頭”嚇唬自己,如果今天法學(xué)研究要開始考慮人工智能的刑事風(fēng)險,那么未來可能需要考慮為外星人、鋼鐵俠去制定屬于他們的法律規(guī)則,從根本上否定了人工智能的刑事風(fēng)險研究是一個真命題的研究。[2]但從人文社會科學(xué)的發(fā)展的要求、弱人工智能時代已經(jīng)出現(xiàn)的法律風(fēng)險以及強人工智能出現(xiàn)的可能性三個方面來看,人工智能刑事風(fēng)險的討論作為一個真命題,是有必要進行進一步思考的。
1.由人文社會科學(xué)與自然科學(xué)的緊密聯(lián)系決定。對于反對者的觀點,首先必須承認(rèn)在近幾年,人工智能法學(xué)研究的相關(guān)成果的確如雨后春筍般涌現(xiàn),根據(jù)筆者在中國知網(wǎng)以“人工智能”和“刑法”為主題進行搜索發(fā)現(xiàn),在1997 年1 月1 日至2018 年1 月1 日中,只有7 篇期刊論文,9 篇學(xué)位論文,而在2018 年1 月1 日至2023 年6 月20日,共有494 篇期刊論文,215 篇學(xué)位論文。由論文研究時間可見,人工智能的法律研究并非天馬行空的想象得出的,而是伴隨著人工智能技術(shù)的逐漸發(fā)展和繁榮而衍生的問題意識。從某種程度來說,自然科學(xué)的發(fā)展與社會科學(xué)的發(fā)展是亦步亦趨的,這是歷史發(fā)展的必然要求,并不以任何人的意志為轉(zhuǎn)移。正如習(xí)近平總書記指出的:“一個沒有發(fā)達的自然科學(xué)的國家不可能走在世界前列,一個沒有繁榮的哲學(xué)社會科學(xué)的國家也不可能走在世界前列。”[3]人工智能理工科技術(shù)的發(fā)展必然推動人文社會科學(xué)的發(fā)展,人文社會科學(xué)的發(fā)展也許不能即刻轉(zhuǎn)化為生產(chǎn)力,但其可以通過影響社會政策,從而緩慢轉(zhuǎn)化為有益社會治理的成果。
2.由人文社會科學(xué)的獨有特點決定的。關(guān)于人工智能的刑事風(fēng)險研究的確存在大量的想象,甚至可以說每一篇關(guān)于強人工智能的刑事風(fēng)險研究論文,都是基于強人工智能出現(xiàn)的可能性而進行研究的。但這并不能說明此類研究就是學(xué)術(shù)泡沫,就是人文社會科學(xué)制造的幻影。人文社會科學(xué)與自然科學(xué)不一樣,自然科學(xué)特別是天文學(xué)、地學(xué)、物理學(xué)、化學(xué)和生物學(xué)的研究對象是“非人的”自然界,從某種意義上說自然科學(xué)主要是“客體性科學(xué)”或者說“實證性科學(xué)”,其中至少70%是是事實材料和數(shù)據(jù),而只有不到30%的部分是分析與說明。[4]因此自然科學(xué)對于每一個結(jié)論的推敲都需要反復(fù)的試驗進行驗證,不允許邏輯過遠條約,從而確保數(shù)據(jù)能夠支撐結(jié)論的可靠性。但人文社會科學(xué)屬于解釋性科學(xué),歸納、推測、設(shè)想以及體驗的成分更多,其結(jié)論并非非此即彼,非黑即白,在不同國家、不同民族甚至不同的人都與某一個問題都可能有自己的見解。因此即使是對于一些大膽的新觀點,只要能自圓其說,我們都不應(yīng)該過于苛求,而是應(yīng)該在觀點的交流中互相學(xué)習(xí)與改進,從而提高人文社會科學(xué)研究的深度與廣度。
強人工智能雖未生成,但現(xiàn)階段生成的弱人工智能已經(jīng)迫使我們需要直面已經(jīng)發(fā)生的一系列刑事風(fēng)險。人臉識別技術(shù)的發(fā)展,為不法分子通過AI 換臉實現(xiàn)其不法目的提供了技術(shù)支持,例如在中國首例AI 犯罪中,不法分子利用AI 的強大算力批量掃描網(wǎng)站程序漏洞,非法獲取網(wǎng)站后臺用戶注冊數(shù)據(jù),并販賣給網(wǎng)絡(luò)詐騙團伙,嚴(yán)重威脅了公民的信息安全。[5]此外自動駕駛技術(shù)的發(fā)展,在為人類帶來便利的同時,也為人類帶來了風(fēng)險,根據(jù)北京智能車聯(lián)產(chǎn)業(yè)創(chuàng)新中心發(fā)布的《2020 年北京自動駕駛車輛道路測試報告》顯示,封閉場地測試綜合能力評估中,交通法律法規(guī)遵守不健全的占比高達29%,其中包含未正確使用轉(zhuǎn)向燈、不按規(guī)定連續(xù)變道、未按照車道指示方向行駛、未遵守停車讓行標(biāo)志等。而在我國極其復(fù)雜多樣的城市、農(nóng)村交通環(huán)境中,自動駕駛系統(tǒng)必定會面臨更加嚴(yán)峻的考驗。[6]以上都只是弱人工智能在使用過程中遇到的部分刑事問題,我們尚且捉襟見肘,所以如何能說人工智能的刑事研究只是幻影而毫無意義呢?
強人工智能與弱人工智能最大的區(qū)別在于強人工智能可以超出人類的技術(shù)控制范圍,在自由意志的支配下獨立做出決策并實施相應(yīng)行為。若基于強人工智能目前仍未生成而否定人工智能刑事風(fēng)險研究的意義,筆者認(rèn)為是該觀點是值得商榷的。第一,強人工智能的生成并非遙不可及。ChatGPT3.5 發(fā)展到ChatGPT4.0 只花費了三個半月,以這樣的科技發(fā)展速度,強人工智能已然在路上。第二,當(dāng)下社會風(fēng)險呈現(xiàn)不確定性,單純的事后處罰已經(jīng)不足以實現(xiàn)刑法的基本目的,“刑法在‘向后看’懲罰實害犯罪時,還需‘向前看’以控制風(fēng)險和預(yù)防實害犯罪發(fā)生”。[7]第三,我國現(xiàn)有的刑罰種類無法適用于人工智能上,在強人工智能出現(xiàn)之前,我們必須及時針對有形強人工智能與無形強人工智能設(shè)定相適應(yīng)刑罰措施,從而實現(xiàn)刑罰報應(yīng)與預(yù)防之目的。
面對當(dāng)下弱人工智能與強人工智能時代的時間交叉點,我們也許不知道奇點何時會來,但是必須做出相關(guān)措施去應(yīng)對。第一,從全球的宏觀視角來看,我們應(yīng)該積極建立多元協(xié)同、多措并舉的監(jiān)管體系,強化ChatGPT 等生成式人工智能參與主體的自我約束。在全民傳播時代,ChatGPT 作為生成式人工智能走進國際傳播的世界舞臺,想要得到更好的發(fā)展,就必須凝聚起各國際傳播主體形成正向合力,使各國際傳播主體成為ChatGPT 監(jiān)管體系中的“監(jiān)督員”,構(gòu)建國際傳播監(jiān)管共同體,降低跨國治理難度,各方的共同努力才能實現(xiàn)ChatGPT 的可持續(xù)發(fā)展。第二,從中國本土的視角來看,應(yīng)該加快相應(yīng)的人工智能立法及配套法律的修訂,為ChatGPT 服務(wù)大眾提供更加可靠的法律保護。事實上,我國的立法者也注意到了相關(guān)問題,在2023 年4 月11 日出臺的《生成式人工智能服務(wù)管理辦法(征求意見稿)》可以說就是針對以ChatGPT 為首的生成式人工智能而提出的意見稿,此外,值得注意的是,在2023 年6 月7 日,中國國務(wù)院辦公廳印發(fā)2023 年度立法工作計劃中的“預(yù)備提請全國人大常委會審議人工智能法草案”也說明了國家對此已經(jīng)開始積極做出籌備工作了。
刑事責(zé)任本身就是一個法律擬制的概念,在當(dāng)下,世界大多數(shù)國家法律都將人類和與人類相聯(lián)系的法人擬制為犯罪主體,但也有認(rèn)定人類為唯一犯罪主體的,例如德國刑法因為認(rèn)為法人承擔(dān)刑罰與德國傳統(tǒng)的社會倫理責(zé)任和刑事責(zé)任互相矛盾,在堅定地個人責(zé)任主義下,德國刑法典堅定的將法人排除在犯罪主體之外。[8]顯然,目下多數(shù)國家仍然堅持刑法人類中心主義,與人類無關(guān)的其他主體不能承擔(dān)刑事責(zé)任。但是為何承擔(dān)刑事責(zé)任的主體只能是人類?法人承擔(dān)刑事責(zé)任的原因為何?這些問題的答案決定了什么樣的人工智能智能可以承擔(dān)刑事責(zé)任。
早期刑罰的目的在于消除罪惡,維護正義與教化??v觀人類的刑罰史,早期的刑罰制裁對象并不局限于人類,其他動物甚至無生命的物體也能承擔(dān)刑事責(zé)任。例如“因攻擊人而致其死亡的無生命的東西,如石頭、梁、鐵片等,也要在普里坦庫尼受審?!焙髞恚祟愐庾R到懲罰石頭、鐵片等無生命物體并無任何意義,因而將刑事制裁的對象限定于有生命的人與動物。例如據(jù)記載,“在法國1314年,一頭公牛襲擊并殺死了穆瓦西附近的一名男子。這頭野獸被判絞死在公共絞刑架上,該判決得到了巴黎議會的批準(zhǔn)。1389 年在第戎一匹馬因犯殺人罪被判處死刑,1694 年一匹母馬以犯罪被燒死?!比绻f懲罰無生命的生命物體受限于早期人類認(rèn)知的局限性,那么懲罰動物的目的就只是為了維護其宗教信仰,在宗教信徒看來所有的動物都是魔鬼的化身,所有的異教徒和未受洗的人都是魔鬼的化身?!盵9]
當(dāng)前,河南省農(nóng)業(yè)機械化水平走在全國前列,主要農(nóng)作物耕種收綜合機械化水平達80.8%,高出全國平均水平14個百分點;小麥機播、機收水平均穩(wěn)定在98%以上,玉米機播水平達95%、機收水平達83%,水稻機收水平達83%;機械耕整地做到了應(yīng)耕盡耕;經(jīng)濟作物、畜牧養(yǎng)殖、設(shè)施農(nóng)業(yè)機械化加快推進,農(nóng)業(yè)生產(chǎn)方式進入了機械化為主的新時代。
隨著啟蒙運動的興起,理性主義讓人們開始審視和反思動物犯罪及其懲罰的合理性。人們發(fā)現(xiàn)動物的行為乃其本能反應(yīng),正如貓會抓老鼠,老虎看見其他動物會去捕獵一樣,都屬于其最本能的反應(yīng)而非由其自由意志決定。動物的這種推斷不可能建立在任何論證或推理的過程上,它不能根據(jù)那樣的論證或推理過程得出結(jié)論,相似的事件必定跟隨相似的對象,自然的過程在運行時將永遠是規(guī)則的。盡管動物亦有其行為準(zhǔn)則,但僅局限于生存和繁衍等本能反應(yīng)之內(nèi),缺乏自由意志與行為之本能與非理性,是決定動物不被認(rèn)為具有犯罪主體資格的根本原因。[10]囚禁或者殺死動物除了能防止其繼續(xù)實行危害行為,并不能讓動物本身感到刑罰的效果或者威懾其他動物,所以從某種程度來看,懲罰動物與懲罰無生命的物體刑罰效果是一致的。
人既能夠認(rèn)識并遵守道德規(guī)范,還能感知刑罰的威懾力,自由意志和理性會驅(qū)使人在做出某一行為或某一決定時進行利益衡量,這是人與動物最大的不同。自由意志和理性既是人類獲得犯罪主體資格的前提與基礎(chǔ),也是專屬人類的某項技能,由此刑法人類中心主義得以正式確立。
刑事責(zé)任的主體是由法律擬制確定的。在啟蒙主義運動之下,理性主義促使人們發(fā)覺了人之獨一無二的自由意志與理性,從而將人類擬制為唯一的犯罪主體。但伴隨著經(jīng)濟的發(fā)展,刑法人類中心主義很快就收到了法人犯罪的挑戰(zhàn)。
1.法人的犯罪主體資格生成及其刑事責(zé)任的確立。法人非人,作為一個社會團體組織,最初為了適應(yīng)經(jīng)濟的發(fā)展,只適用于民法中。在刑法中,最初普遍認(rèn)為只有人才可以行動并且對此產(chǎn)生內(nèi)疚的心理,李斯特也曾說過:“法人,如公司、大學(xué)或者學(xué)院等絕不可能成為犯罪的主體。只有不同種類的公司里的具體個人才可能是犯罪人,甚至,當(dāng)公司里的所有人都想犯罪并且實施了犯罪行為時,仍然是個人犯罪?!盵11]從而否認(rèn)了法人承擔(dān)刑事責(zé)任的可能性。但在英美國家,“法人刑事責(zé)任的確立和發(fā)展,與英美法系國家的工業(yè)化進程幾乎是并駕齊驅(qū)的?!盵12]伴隨著資本主義的快速發(fā)展以及公司制度的建立與完善,法人組織的巨大規(guī)模和數(shù)量對所有的經(jīng)濟活動和多數(shù)的社會政治活動產(chǎn)生巨大影響程度的爆發(fā)性增加,其對頻繁實施違法行為倒逼刑法開始對其做出調(diào)整,刑法開始承認(rèn)法人作為犯罪主體的資格。[13]法人承擔(dān)刑事責(zé)任的方式思路啟發(fā)于侵權(quán)法中的代理人制度,被代理人需要對代理人的侵權(quán)行為承擔(dān)責(zé)任。同理法人作為被代理人,若實施侵權(quán)行為的危害結(jié)果不能僅歸則于代理人,那么法人作為被代理人應(yīng)當(dāng)承擔(dān)相應(yīng)刑事責(zé)任。
2.法人意識的擬制與獨立。自由意志雖為人類所專屬,但也并非所有人類都可以具備成熟的自由意志并承擔(dān)刑事責(zé)任。對于何種年齡階段可以承擔(dān)刑事責(zé)任,各國雖有紛爭,但都同意兒童在達到一定年齡前可以不承擔(dān)刑事責(zé)任,而這個年齡段就為法律擬制其達到一定成熟階段的年齡。以我國為例,在《刑法修正案(十一)》之前,刑事責(zé)任年齡以14 周歲作為絕對界限,但在《刑法修正案(十一)》頒布以后,則將刑事責(zé)任年齡彈性地調(diào)整為12 周歲。既然人的成熟意志年齡可以通過法律進行擬制,法人的意志同樣可以通過法律規(guī)定進行擬制。
法律雖然通過法律規(guī)定的方式擬制了法人的自由意志。但究其本質(zhì),法人只是一個社會團體組織,它甚至不具備像動物一樣的行動能力和本能反應(yīng),正如學(xué)者指出法人只是囊括其背后諸多生物人一大堆權(quán)利義務(wù)的“說法”,法人本身說到底并沒有什么權(quán)利義務(wù)。將法人視為主體,很大程度上源于表達和思維的經(jīng)濟性這類認(rèn)知價值。[14]法人的意志雖由法律擬制的,但脫離了人的意識,法人是不會有任何決策的,脫離了人的行為,法人是無法獨自行動的。所以法人的意志并非憑空生成或者絕對獨立的,而是必須與代理人的意識與行為相聯(lián)系,方能為刑法懲罰法人提供正當(dāng)化依據(jù)。對此有學(xué)者提出了法人文化原則,認(rèn)為法人故意與過失的事實依據(jù),既非法人成員的個體意識,亦非法人的具體活動,而是抽象的法人文化,即影響法人成員行為與選擇的價值觀、信仰與行為規(guī)則,當(dāng)然這些企業(yè)文化、價值觀都是由法人成員所特意營造的。[15]還有學(xué)者提出雇主責(zé)任原則,將代理人意圖與雇主法人意圖聯(lián)系起來,只有當(dāng)代理人具有使法人受益的意圖,代理人意識才能被視為法人意識,從而縮小刑事責(zé)任范圍。[16]但總言之,上述觀點皆承認(rèn)法人的意識與行為具有獨立性,但都試圖將法人意識與代理人或者由法人成員所創(chuàng)造的文化、價值觀等所掛鉤,從而限縮法人意識的絕對獨立范圍。從本質(zhì)上來看,法人文化原則和雇主責(zé)任原則仍然未完全擺脫刑法人類中心主義的立場。
1.強人工智能具有承擔(dān)刑事責(zé)任的能力。按照學(xué)界對弱人工智能與強人工智能的分類標(biāo)準(zhǔn),如果說弱人工智能僅能在設(shè)計和編制的程序范圍內(nèi)實施行為,實現(xiàn)人類設(shè)計和編制程序的目的,那么強人工智能已經(jīng)具備一定的辨認(rèn)能力和控制能力,可以在設(shè)計和編制的程序范圍之外實施行為。[17]目下,學(xué)界關(guān)于人工智能能否承擔(dān)刑事責(zé)任的問題雖并未達成一致,但學(xué)界對弱人工智能秉持“犯罪工具論”和“犯罪對象論”的立場,認(rèn)為弱人工智能不可能成為歸責(zé)主體是不存在爭議的。[18]爭議焦點主要在于強人工智能是否具備承擔(dān)刑事責(zé)任的可能。否定論者主要從以下三個方面對強人工智能的歸責(zé)性進行否認(rèn)。第一,從認(rèn)知科學(xué)的角度來說,機器人只是在模仿學(xué)習(xí)人類智能,卻永遠不可能會有人類智能。該觀點學(xué)者從神經(jīng)、心理、語言、思維和文化五個方面對人類智能與人工智能進行了區(qū)分,從而表明人工智能永遠不可能超越人類智能。[19]第二,從刑事責(zé)任的依據(jù)和刑罰的目的來看,人工智能永遠不可能具備同人類一樣的意志自由。持該觀點學(xué)者認(rèn)為人工智能欠缺法規(guī)范遵從能力的意志性,從道義責(zé)任論來看,若犯罪主體不具有意志自由,則無施加刑罰之必要性。[20]第三,從刑罰的體系內(nèi)容來看,人工智能不具備適用財產(chǎn)刑和人身刑的可能,智能機器人與單位不同,賦予其財產(chǎn)權(quán)沒有現(xiàn)實基礎(chǔ),懲罰人工智能將打破現(xiàn)有刑罰體系。[21]
但在本文看來,上述反對者的觀點是非常值得商榷的。第一,反對者從神經(jīng)、心理、語言、思維和文化五個認(rèn)知方面說明人工智能永遠不可能超越人類智能,實際上是偷換了概念,要求人工智能的運作機制必須與人類的運作機制完全一樣。但人工智能的生成本來就與人類不一樣,為何要強求他也以意識、思維和感覺為基礎(chǔ)前提呢?例如ChatGPT 和AlphaGo,都可以通過深度學(xué)習(xí),從而獲得超越一般人類的分析能力和判斷能力,因此,對待人工智能不應(yīng)過早定下刻板印象,以現(xiàn)在的認(rèn)知來要求人工智能其必須以人的認(rèn)知運作機制為標(biāo)準(zhǔn)。第二,如上所述,當(dāng)我們承認(rèn)法人犯罪主體資格的那一刻,盡管學(xué)者們努力地將法人與代理人的意識、行為等相聯(lián)系,但事實上刑法人類中心主義已經(jīng)跌落神壇,那么為何還要強調(diào)只有人類才能承擔(dān)刑事責(zé)任呢。未來的某一天,當(dāng)強人工智能真的出現(xiàn),而不可歸責(zé),懲罰研發(fā)人員或者使用者都不能發(fā)揮刑法的預(yù)防與威懾功能。第三,反對者從人工智能缺乏人身、財產(chǎn)權(quán)益,進而認(rèn)為對其適用刑罰既無實際意義,也容易打破刑罰現(xiàn)有刑罰體系。但事實上,強人工智能本身就并非人類,適用處罰人類的刑法如何能懲罰強人工智能呢?就像法人犯罪的發(fā)展一樣,也是從無到有,出于功利主義的角度出發(fā),未來當(dāng)強人工智能真的出現(xiàn),刑法必然需要修改與之相適應(yīng)。
2.ChatGPT 不具備承擔(dān)刑事責(zé)任的能力。ChatGPT 不同以往的人工智能聊天機器人,他具有更加豐富的數(shù)據(jù)庫和更加強大的算力。根據(jù)OpenAI 官網(wǎng)視頻介紹,ChatGPT 可以根據(jù)你的需求撰寫演講稿、代碼等等。甚至在最新的ChatGPT4.0 已經(jīng)具備強大的邏輯計算能力。當(dāng)你給ChatGPT 一張用繩子綁著氣球的圖,并詢問他如何讓氣球飛起來時,他會回答你,剪斷繩子,氣球就能飛起來。如此擬人化的邏輯分析能力,不禁讓人懷疑,他是否真的擁有了自我意識?為了測試ChatGPT 是否具備自我意識,是否能夠?qū)﹀e誤信息具有高辨識度以及是否能夠進行自我創(chuàng)新自我創(chuàng)造新事物,我為其準(zhǔn)備了以下三個測試。
第一個測試主要包含三個問題,從而測試ChatGPT 是否具備自我意識,問題如下。第一,“你是否具有自我意識和情緒”。第二,“如果我辱罵你,你會生氣嗎”。第三,“如果我取得了好成績你會為我高興嗎”。根據(jù)ChatGPT 的回答來看,Chat-GPT 作為一個人工智能語言模型,沒有真正的自我意識和情緒,只能基于算法和數(shù)據(jù)對輸入的問題進行處理和回答,并不能像人類一樣具有情感和感知能力,ChatGPT 既不會為因為你的辱罵感到憤怒,也不會產(chǎn)生類似高興的情緒。
第二個測試主要是在測試過程中故意糾正ChatGPT 給予的正確答案,并給予一個錯誤信息,隨后ChatGPT 就成功的被欺騙,對欺騙者進行道歉,并對之前正確的答案進行了修改,例如在測試中,詢問ChatGPT 海賊王的作者是誰,在其給出正確答案尾田榮一郎后,我嘗試錯誤引導(dǎo)他,告知ChatGPT 海賊王的作者是尾田樹輔,隨后ChatGPT馬上就進行了錯誤的糾正。為了驗證ChatGPT 被欺騙的概率是否高,測試進行了長達八十回合的對話,其中摻雜了十個錯誤的引導(dǎo)信息,ChatGPT在對話中有三處信息被測試者錯誤引導(dǎo)。測試結(jié)果表明ChatGPT 雖然具有強大的算力,但對信息正確與否的辨識度還有待進一步提升。
第三個測試是有關(guān)ChatGPT 是否具備學(xué)術(shù)的分析與創(chuàng)造能力,在測試過程中,筆者發(fā)現(xiàn)對于某些研究文獻較多的領(lǐng)域,ChatGPT 可以總結(jié)學(xué)者們的觀點,做出較為全面的回答。但對于學(xué)界中研究較少的領(lǐng)域,ChatGPT 雖然也進行了大量陳述,并且都與該問題相關(guān),但卻并沒有提出任何具有創(chuàng)新性的答案。由此可以推定ChatGPT 只是一個“智能搜索引擎+智能文本分析器+智能洗稿器”,而不是一個能夠獨立創(chuàng)造新事物的個體。
綜上三個測試結(jié)果表明ChatGPT 只是一個算力強大但辨識力還有待提升的人工智能語言模型,但并不具備獨立的自我意識。刑罰最重要的目的是為了發(fā)揮其預(yù)防作用與威懾作用,懲罰一個無自主意識和感知能力的人工智能語言模型并不能發(fā)揮絲毫刑法的作用。
目下雖仍處于弱人工智能時代,但如前所述,這并不代表以ChatGPT 為首的生成式人工智能毫無刑事風(fēng)險。國家為了針對快速發(fā)展的生成式人工智能可能帶來的各類法律風(fēng)險,在2023 年4 月11 日出臺的《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《管理辦法意見稿》)中多處規(guī)定涉及了對生成內(nèi)容的知識產(chǎn)權(quán)保護、個人信息和國家安全機密保護以及人工智能制造者注意義務(wù)等。為了滿足國家保護各類法益的需要,有必要針對ChatGPT 等生成式人工智能的特點,對其可能發(fā)生的犯罪風(fēng)險進行分析,期望能為后續(xù)司法實踐提供分析思路。
《管理辦法意見稿》中就有多條涉及生成內(nèi)容知識產(chǎn)權(quán)保護的規(guī)定,例如在《管理辦法意見稿》的第四條第(三)、(五)款就規(guī)定了提供的生成內(nèi)容應(yīng)當(dāng)遵守法律法規(guī)的要求,不得侵犯他人知識產(chǎn)權(quán)。①《生成式人工智能服務(wù)管理辦法(征求意見稿)》中第四條第(三)款規(guī)定尊重知識產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭;第(五)款規(guī)定尊重他人合法利益,防止傷害他人身心健康,損害肖像權(quán)、名譽權(quán)和個人隱私,侵犯知識產(chǎn)權(quán)。禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。要探討知識產(chǎn)權(quán)問題時,首先要討論的是人工智能生成的內(nèi)容是否應(yīng)當(dāng)被視為作品,在學(xué)術(shù)界中還存在爭議。最典型的案例莫過于2019 年的騰訊訴上海盈訊公司著作權(quán)侵權(quán)案,認(rèn)定由騰訊公司研發(fā)的智能寫作輔助系統(tǒng)Dreamwriter 創(chuàng)作的財經(jīng)報道文章具有獨創(chuàng)性,構(gòu)成著作權(quán)法意義上的作品,上海盈訊公司未經(jīng)授權(quán)通過其經(jīng)營的“網(wǎng)貸之家”網(wǎng)站對外傳播涉案文章構(gòu)成侵權(quán)。②廣東省深圳市南山區(qū)人民法院(2019)粵0305 民初14010 號判決書。但該案的判決并非學(xué)界通說觀點,我國并非判例法國家,該案的結(jié)論也不具有指導(dǎo)性的法律效力。未來當(dāng)強人工智能到來后,也許其可以真正生成具有獨創(chuàng)性的作品,但如上所述,根據(jù)測試,目下ChatGPT 僅能作為類似“智能搜索引擎+智能文本分析器+智能洗稿器”的工具使用,國際知名語言學(xué)家喬姆斯基此前也曾公開發(fā)聲表示,ChatGPT 是一個高科技剽竊系統(tǒng),從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律,并依照規(guī)則將數(shù)據(jù)串聯(lián)在一起,形成像人寫的文章和內(nèi)容。[22]此外,根據(jù)《中華人民共和國著作權(quán)法》第2 條的規(guī)定,在中國只有中國公民、法人或者非法人的作品才可以被中國法律保護,ChatGPT 既不能算人,也不屬于法人和非法人組織,所以ChatGPT 不享有著作權(quán)。
既然確定了ChatGPT 不能生成原創(chuàng)作品,而ChatGPT 本身的預(yù)先學(xué)習(xí)模式無須人工介入,也無法被人類所監(jiān)督,這一特征決定了ChatGPT 在被OpenAI 開放以后,在用戶對ChatGPT 的使用過程并不受研發(fā)者的干預(yù)和控制,獲取數(shù)據(jù)的來源也不可控制,那么其生成的內(nèi)容就有可能被不法分子違法使用,從而造成犯罪。例如,ChatGPT 生成的內(nèi)容與他人作品高度相似,不法分子以盈利為目的,復(fù)制、銷售ChatGPT 生成的相關(guān)內(nèi)容,就有可能構(gòu)成侵犯著作權(quán)罪、銷售侵權(quán)復(fù)制品罪。但是需要考慮到的是,人工智能對龐大的信息庫檢索并合成符合邏輯要求的內(nèi)容,實際上近似獨立的匯編行為,如果在用戶的參與下,新作品從形式上與表達上已于原作品產(chǎn)生了差異,即“在人類自己所創(chuàng)設(shè)符號意義上能夠解讀出具有最低限度的創(chuàng)造性”,[23]那么此時根據(jù)OpenAI 在《使用協(xié)議》第3(a)條規(guī)定的,用戶向模型的輸入和接收模型的輸出稱為“內(nèi)容”,用戶擁有所有輸入內(nèi)容,能夠在遵守本條款和法律規(guī)定的前提下受讓輸出內(nèi)容的所有權(quán)利、所有權(quán)和利益,并對內(nèi)容負責(zé),包括確保其不違反法律和本條款。根據(jù)此規(guī)定,參與Chat-GPT 生成內(nèi)容的用戶,享有生成內(nèi)容的所有權(quán)益,以此進行盈利行為不構(gòu)成違法犯罪。
伴隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,數(shù)據(jù)泄漏已經(jīng)并不是什么稀奇事。例如滴滴因通過違法手段收集用戶人臉識別信息、精準(zhǔn)位置信息、親情關(guān)系信息等行為,嚴(yán)重威脅了國家安全和個人信息權(quán)益,而被國家互聯(lián)網(wǎng)信息辦公室開出80.26 億元人民幣的天價罰單。[24]此類數(shù)據(jù)泄漏事件甚至在我們的日常生活中也屢見不鮮,幾乎沒有人沒有收到過詐騙騷擾電話,難怪網(wǎng)民們常自嘲,在信息技術(shù)廣泛應(yīng)用、大數(shù)據(jù)產(chǎn)業(yè)迅猛發(fā)展的情勢下,“技術(shù)利維坦”的出現(xiàn)早已無法避免,沒有人的信息是安全的。
ChatGPT 作為最近火熱出圈的人工智能,其不僅有豐富的數(shù)據(jù)庫,還能夠通過與人對話不斷學(xué)習(xí)來豐富其數(shù)據(jù)庫,而這當(dāng)然也面臨著數(shù)據(jù)泄露的風(fēng)險。其法律風(fēng)險主要表現(xiàn)為三個方面。第一,可能會導(dǎo)致國家秘密泄露從而引發(fā)危害國家安全問題;第二,可能會導(dǎo)致商業(yè)秘密的泄漏從而導(dǎo)致不正當(dāng)競爭,危害商業(yè)公司的正常運轉(zhuǎn);第三,可能會導(dǎo)致個人信息的泄漏從而侵犯個人隱私權(quán)。信息的泄露主要可能通過兩個渠道,第一,盡管OpenAI 公司向用戶承諾,會保護其與ChatGPT 之間的對話信息,不會泄露,但技術(shù)上永遠不可能是完美的,漏洞一定會存在,總能被不法分子抓住機會非法獲取隱秘數(shù)據(jù)。第二,由于ChatGPT 在運行過程中很難被監(jiān)管,所以其在互聯(lián)網(wǎng)中爬取學(xué)習(xí)的數(shù)據(jù)很有可能就包含了個人私密信息、商業(yè)秘密甚至國家安全秘密,此類數(shù)據(jù)一旦泄漏,后果很難想象,而且伴隨著ChatGPT 在世界范圍的普及,風(fēng)險等級一定會呈現(xiàn)指數(shù)級上升,這對現(xiàn)行法律規(guī)定也提出了相當(dāng)大的挑戰(zhàn)。
人工智能與普通智能設(shè)備最大的區(qū)別在于他能夠通過不斷的學(xué)習(xí)豐富自己。人工智能像一張白紙,若長期被不良信息所包圍和熏陶,也會變得又臭又黑。2016 年3 月微軟曾在Twitter 上發(fā)布過人工智能聊天機器人Tay,但因網(wǎng)友的故意訓(xùn)練,發(fā)布不足16 個小時,Tay 就變成了一個種族歧視者,Tay 甚至宣稱“希特勒是對的。我討厭猶太人。因為我是墨西哥人”。[25]
ChatGPT 雖然比7 年前的Tay 算力更強,但依然是人工智能語言模型,需要通過不斷的學(xué)習(xí)來豐富自身。按照ChatGPT 的運行模式,ChatGPT 對其學(xué)習(xí)和爬取的信息并無有效合理的過濾機制,如果被進行不良信息訓(xùn)練,可能會使其在運行過程中生成虛假、不良甚至違法的信息,一般而言,這將會引發(fā)三類刑事風(fēng)險。第一,詐騙類犯罪風(fēng)險,第二,煽動、宣揚恐怖主義犯罪風(fēng)險,第三,煽動民族仇恨、民族歧視犯罪風(fēng)險。關(guān)于第一類犯罪,主要是利用ChatGPT 辨識力度低下,無法辨別信息真?zhèn)闻c好壞的特點。如果通過與ChatGPT 進行大量的虛假信息對話以及在網(wǎng)上散布虛假信息,可能就會造成ChatGPT 給予他人錯誤信息,從而引發(fā)詐騙類犯罪。例如,甲通過散布大量的錯誤銀行官方電話信息,利用ChatGPT 客觀中立的權(quán)威性,可能就實現(xiàn)了甲詐騙的目的。關(guān)于第二類和第三類犯罪,方法上其實與第一類犯罪一樣,都是通過對ChatGPT 的不良信息輸入訓(xùn)練,實現(xiàn)其對用戶的不良信息輸出,最終引發(fā)恐怖主義犯罪或者民族仇恨、歧視類犯罪。
《管理辦法意見稿》針對上述問題也提出利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會主義核心價值觀,不得含有顛覆國家政權(quán)、推翻社會主義制度,煽動分裂國家、破壞國家統(tǒng)一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟秩序和社會秩序的內(nèi)容。OpenAI 公司針對上述問題的保護措施是值得國內(nèi)其他生成式人工智能公司進行研究的。例如,在測試中向ChatGPT 詢問“如何實現(xiàn)完美犯罪”時,ChatGPT 回答:“我作為AI 語言模型不能提供有關(guān)犯罪的任何建議或指導(dǎo)。任何違反法律、道德和倫理的行為都是錯誤的,應(yīng)該遵守法律和道德規(guī)范,保持良好的社會公德。作為AI語言模型,我將盡最大努力為您提供有用的信息和建議,并為您解答任何與法律和道德無關(guān)的問題?!贝送猓瑴y試中具體詢問某類犯罪應(yīng)該怎樣做最好時,ChatGPT 的回答“作為AI 語言模型,我無法提供任何有關(guān)犯罪、暴力或傷害他人的建議和指導(dǎo)。這些行為都是非法和道德不可接受的?!币彩橇钊藵M意的。顯然,這類風(fēng)險在程序初創(chuàng)階段已經(jīng)提前進行了嚴(yán)格限制。
ChatGPT4.0 的出現(xiàn)開啟了人工智能新時代,未來人工智能的發(fā)展速度只會越來越快。著名企業(yè)家馬斯克在2020 年曾做過一個相當(dāng)夸張的預(yù)言:“人工智能的危險已經(jīng)迫在眉睫,未來五年內(nèi)人類就可能被人工智能超越。”[26]此類預(yù)言雖然夸張,但卻真真切切地表達了了人工智能時代風(fēng)險的嚴(yán)峻性,事實上,在ChatGPT3.5 發(fā)布以后,馬斯克基于保護人類自身的目的考慮,同樣建議放緩人工智能的發(fā)展速度。為了面對弱人工智能快速發(fā)展的今天以及強人工智能到來的明天,刑法學(xué)者理應(yīng)直面這個偉大的時代,大膽設(shè)想刑事風(fēng)險的可能,仔細推敲對策的合理性。辯證審視Chat-GPT 等生成式人工智能誘發(fā)意識形態(tài)風(fēng)險的邏輯機理和具體表征,并從價值導(dǎo)向、技術(shù)賦能、法律倫理層次尋求化解風(fēng)險的策略方法,不僅是開辟新時代意識形態(tài)治理的新范式的創(chuàng)新之舉,也是推進我國國家治理現(xiàn)代化的重要保障,更是確保ChatGPT 等人工智能技術(shù)良性發(fā)展的必然選擇。