趙強久
摘 要:人工智能是我國乃至全球范圍內的科研重點,在促進醫(yī)療等眾多領域快速發(fā)展的通過女士,也引發(fā)了許多倫理以及法律方面的問題,給人們的工作生活以及社會和諧發(fā)展等產(chǎn)生消極影響。本文簡單介紹了人工智能在刑事方面的地位與風險,系統(tǒng)分析了律手段與倫理道德之間的辯證關系,在遵循時代社會發(fā)展客觀規(guī)律的基礎上,為降低人工智能時代刑事風險而提出合理化的建議與措施。
關鍵詞:人工智能時代;刑事風險;策略
在互聯(lián)網(wǎng)信息時代的今天,人們對人工智能的研究從未停止。到現(xiàn)在位置,人工智能已經(jīng)實現(xiàn)了兩次質的飛躍與發(fā)展,正在進入第三次快速發(fā)展時期。人工智能技術的研發(fā)與應用也促進相關部門不斷的調整和完善與之相關的各項法律法規(guī),因此來解決人工智能技術研發(fā)與應用過程中出現(xiàn)的各種問題。從人工智能利益層面來講,法律應明確生產(chǎn)中智能機器人所產(chǎn)生的人生傷害行為的刑事責任主體劃定標準和范圍,加強對非法利用人工智能來組織開展違法活動的監(jiān)控力度,最大限度的提高人工智能刑法條紋的精細化與明確性,從而提高全社會以及人們對人工智能時代的應變能力。
一、簡單介紹人工智能的刑事法律地位
人工智能刑事法律地位是當今社會法律界、科技界等討論的焦點問題與熱點話題。人工智能在刑事法律上責任主體的確定直接影響我國對人工智能范圍的量刑程度與處罰力度。人工智能只是人類研發(fā)的一種新技術,是幫助人類更好生活的一種技術,也就是說人工智能并不具備真正意義上的人格屬性,也不能用約束管理人的法律來約束管理人工智能產(chǎn)物。人工智能技術的深入研發(fā),尤其是脫離程序自主運行方面的研發(fā)產(chǎn)物,其缺少自動遵循相關法律規(guī)定的能力,也沒有遵守相關法律的意志,當其給他人造成經(jīng)濟損失或者身體傷害的時候,也會因不具備刑法可歸責要求而無法得到應有的懲罰。當前科技界的人們呢經(jīng)人工智能具體劃分為弱人工智能與強人工智能兩大類型,其中弱人工智能則是指那些卻受自主解決問題能力的機器,雖然隸屬于人工智能技術范疇,能夠學習較為復雜的知識與技能,但是卻無法獨立自主的組織開展推理活動,智能化水平的應用領域也有限,當前正處于弱人工智能發(fā)展階段。科學技術的深度研發(fā)與廣泛應用,為強人工智能時代的到來提供了技術支持,強人工智能具有較強的自主性、獨立性與適應性,能夠根據(jù)外界環(huán)境的變化來調整其發(fā)展方向與發(fā)展目標,雖然誰也無法確定強人工智能時代到來的具體時間,但是強人工智能時代是社會時代發(fā)展的必然趨勢。部分科技界專家學者認為主體資格是強人工智能時代的主要特征,堅持強人工智能威脅論的觀點,但是從目前來看這種危險尚處于理論研究狀態(tài),還沒有對人類經(jīng)濟社會的發(fā)展產(chǎn)生實質性的威脅。
法律人格是人們享受法律規(guī)定的權利以及承擔法律規(guī)定義務的前提與基礎,人工智能對人們合法權益造成的損損害是客觀存在的事實,應加強對人工智能刑事責任主體意志的研究與判斷,并以此為基礎來決定是夠對人工智能進行相應的發(fā)刑事處罰。刑事責任的認定需要綜合分析客觀事實與侵害行為之間的互動性、因果性,從不同的方面來研究分析人工智能實施該行為的最終目的,也就是說人工智能為達到某種目的而組織實施傷害他人合法權益的行為。由于當前正處于弱人工智能發(fā)展的重要實施,弱人工智能并不具備獨立自主的行為認識能力與控制能力,也就是說弱人工智能并不具備刑法主體意識,達不到成為其刑事責任制主體的要求和標準。弱人工智能產(chǎn)品不僅以何種方式來侵他人權益,其最終的法律承擔者只能是人,可以追求造成該侵犯行為或者侵犯結構的人工智能產(chǎn)品的擁有者??梢愿鶕?jù)人工智能違法行為產(chǎn)生的原因來判定人工智能背后主體的刑事責任。在弱人工智能階段,應進一步明確人工智能開發(fā)研究人員、擁有著以及使用者相關權利與義務,但是也應主義不能無故或者可以擴大人工智能研發(fā)人員的法律責任。以后隨著人工智能技術的深度開發(fā)以及強人工智能時代的到來,也可以讓具備較強自主意識與獨立意識的人工智能來承擔相應的刑事責任。
二、正確認識法律手段與倫理道德之間的辯證關系
社會關系并非一成不變的,而是會隨著社會的發(fā)展與時代的變遷而產(chǎn)生的相應的變化。道德與法律都是最常用的調整社會關系的手段,法律與道德以各自獨有的方式和渠道來調整和改變社會各領域中的社會關系。人工智能在一定程度上解放了勞動力,幫助人們完成一些固定簡單的工作,實現(xiàn)了人們與機器的共同發(fā)展,但是人工智能在提高人們工作生活水平的同時,也對現(xiàn)階段的法律法律、倫理道德以及社會秩序等產(chǎn)生重大沖擊。當前如何確定人工智能機器人省份以及處理人際關系的方法等都是當今社會迫切需要解決的難題。人工智能機器人缺少基本的法律意識與道德意識,人工智能機器人本質上就是一種高科技設備,是科研人員為實現(xiàn)某種目的而便攜的代碼程序,簡而言之,人工智能機器人的一舉一動、一言一行都是科研人員提前輸入好的代碼和算法,因此,人工智能機器人的言行舉止具有較強的程序性與無意識性的特點。另外,人工智能機器人也對當今社會精神以及人文精神發(fā)起了挑戰(zhàn),加劇了人類生產(chǎn)生活活動的公式化,降低了人們對各種生產(chǎn)生活活動的決定權與主導權,必然會因其人們價值觀與世界觀的改變,極大的降低了道德倫理對人們生產(chǎn)生活活動的影響力,弱化了道德倫理對人工智能機器人以及未來生產(chǎn)生活活動的指導與約束作用,這與原先人類社會以道德約束自身行為的模式相沖突,因此,人工智能時代極有可能會顛覆原先的世界觀與價值觀。法律與道德兩者之間相互獨立、相互促進、相互影響又互為補充,正確處理法律與道德兩者的關系,提高對兩者的重視度,促進兩者的協(xié)同發(fā)展,只有這樣才能促進人工智能以及經(jīng)濟社會的協(xié)調發(fā)展。
三、解決人工智能引發(fā)的信息安全難題
人工智能風險可以劃分為功能型風險、法律權益風險兩大類型。人工智能時代必然會增加個人信息被泄露的風險,也就是說越來越多的人會用人工智能技術來非法獲取他人基本信息,進而造成個人信息風險系數(shù)會急劇上升。大規(guī)模的數(shù)據(jù)信息是人工智能技術得以研究和應用推廣的基礎,許多人們?yōu)榱藵M足人工智能發(fā)展對大規(guī)模數(shù)據(jù)信息的需求而主動拓寬獲取數(shù)據(jù)信息的途徑,其中自然包括大量公民的基本信息。但是,我國法律明確規(guī)定要保護公民基礎信息,不能以各種理由和借口來侵犯公民個人信息,否則就是侵犯公民個人信息罪。《消費者權益保護法》中也對經(jīng)營者收集使用消費者個人基本信息的義務與要求。近些年來,我國相關政府部門通過不斷的調整和完善個人基本信息相關法律條文的方式來提高對公民個心信息的保護力度。不管是在以前,還是以后,都應保護公民個人基礎信息,并根據(jù)經(jīng)濟社會的發(fā)展以及人工智能技術的研發(fā)應用來提高公民個人信息相關的法律規(guī)定。
四、解決人工智能時代刑事立法問題
人工智能刑事立法并不是短時間內就能完成的,而是會隨著人工智能技術的深度開發(fā)與推廣應用現(xiàn)狀來進行相應的調整和完善。人工智能刑事立法的基本目標是促進人工智能的健康平穩(wěn)發(fā)展,提高對非法利用人工智能行為的限制與約束力度。對于人工智能刑事立法不僅要鼓勵人工智能的研發(fā),還應加強對人工智能風險的預防與控制力度,如果不加以控制,極有可能會損害人類社會的健康發(fā)展。人工智能刑事立法可以借鑒互聯(lián)網(wǎng)金融刑事立法等方面的經(jīng)驗,逐步提高對非法人工智能行為的懲治力度。不同國家對人工智能刑事立法的觀點各不相同,但是不管持有何種態(tài)度都應加強對人工智能的監(jiān)督管理力度,而不能加以放縱或者置之不顧。
五、小結
人工智能的發(fā)展對經(jīng)濟社會發(fā)展趨勢以及人類生命安全等都產(chǎn)生了重要一個內向,加快人工智能時代刑事立法速度,辯證看待人工智能發(fā)展的影響,調整完善人工智能相關法律,為人工智能的持續(xù)發(fā)展提供法律保護,最大限度的降低人工智能時代刑事風險。
參考文獻:
[1]劉憲權.人工智能時代的刑事風險與刑法應對[J].法商研究, 2018(1).
[2]馬長山.人工智能的社會風險及其法律規(guī)制[D].華東政法大學,2018(6).
[3]王燕玲.人工智能時代的刑法問題與應對思路[J].政治與法律,2019 (1).
[4]李振林.人工智能刑事立法圖景[J].華南師范大學學報(社會科學版),2018(6).
[5]時方.人工智能刑事主體地位之否定[J].法律科學(西北政法大學學報),2018(6).