• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      算法優(yōu)化語境下自動(dòng)駕駛汽車交通肇事的困境紓解

      2021-11-30 23:33:30陳禹衡
      關(guān)鍵詞:交通肇事使用者自動(dòng)

      陳禹衡

      人工智能技術(shù)發(fā)展迅速,而集中映射在社會(huì)生活領(lǐng)域的,就是自動(dòng)駕駛汽車。隨著各種類型、級(jí)別的自動(dòng)駕駛汽車陸續(xù)推出,自動(dòng)駕駛成了人類社會(huì)未來發(fā)展的重要方向。自動(dòng)駕駛汽車的“大腦”是算法,而對(duì)于算法的規(guī)范空缺可能導(dǎo)致其肆意發(fā)展,進(jìn)而轉(zhuǎn)向技術(shù)進(jìn)步和社會(huì)發(fā)展的反面,阻礙自動(dòng)駕駛汽車的可持續(xù)發(fā)展。

      在域外關(guān)于自動(dòng)駕駛的相關(guān)規(guī)范文件中,2021年2月22日歐盟網(wǎng)絡(luò)安全委員會(huì)ENISA(The European Union Agency for Cybersecurity)發(fā)布《自動(dòng)駕駛中采用人工智能的安全挑戰(zhàn)》(Cybersecurity Challenges in the Uptake Artificial Intelligence in Autonomous Driving)的報(bào)告,旨在就自動(dòng)駕駛汽車所采用的人工智能技術(shù)相關(guān)的網(wǎng)絡(luò)安全挑戰(zhàn)提供見解。這份報(bào)告指出自動(dòng)駕駛技術(shù)可能存在安全性問題,而其技術(shù)宗旨則是在有限的人工監(jiān)督下運(yùn)行,鑒于自動(dòng)駕駛汽車的網(wǎng)絡(luò)安全一般是通過算法系統(tǒng)的安全監(jiān)督進(jìn)行掌控,所以務(wù)必提高公眾對(duì)人工智能算法潛在風(fēng)險(xiǎn)的認(rèn)知。與之相對(duì),我國有關(guān)自動(dòng)駕駛汽車的規(guī)范文件也開始重視自動(dòng)駕駛的安全問題。2017年7月20日國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號(hào)),提出制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范,重點(diǎn)圍繞自動(dòng)駕駛、服務(wù)機(jī)器人等應(yīng)用基礎(chǔ)較好的細(xì)分領(lǐng)域,加快研究制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ)。2020年2月10日國家發(fā)展改革委、中央網(wǎng)信辦、科技部發(fā)布《智能汽車創(chuàng)新發(fā)展戰(zhàn)略》(發(fā)改產(chǎn)業(yè)〔2020〕202號(hào)),提出要完善技術(shù)標(biāo)準(zhǔn)、加強(qiáng)數(shù)據(jù)安全監(jiān)督管理,前者包括智能汽車中國標(biāo)準(zhǔn)體系的構(gòu)建,后者包括建立覆蓋智能汽車數(shù)據(jù)全生命周期的安全管理機(jī)制,明確相關(guān)主體的數(shù)據(jù)安全保護(hù)責(zé)任和具體要求。總之,在世界自動(dòng)駕駛汽車發(fā)展的浪潮中,不僅要借助技術(shù)搶占發(fā)展先機(jī),還要重視對(duì)技術(shù)安全性的監(jiān)管,保障自動(dòng)駕駛核心算法安全,通過算法優(yōu)化紓解當(dāng)下自動(dòng)駕駛汽車交通肇事的算法困境。

      一、自動(dòng)駕駛汽車交通肇事的算法困局

      通過對(duì)自動(dòng)駕駛汽車交通肇事的數(shù)據(jù)建模進(jìn)行綜合分析,發(fā)現(xiàn)自動(dòng)駕駛汽車的安全威脅可以分為兩類:故意威脅和無意威脅。故意威脅是指惡意攻擊,通過找尋人工智能算法的缺陷,攻擊算法防護(hù)的防守薄弱之處,進(jìn)而形成對(duì)自動(dòng)駕駛汽車的整體侵害,甚至引發(fā)交通肇事。無意威脅是指因?yàn)槿斯ぶ悄芩惴ǖ淖陨砣毕荩缦忍斓脑O(shè)計(jì)問題或者后天的學(xué)習(xí)偏差,因而在算法系統(tǒng)內(nèi)部引起了不可預(yù)測(cè)的故障或負(fù)面后果,如算法偏見、算法黑箱等。自動(dòng)駕駛汽車的算法困局主要是無意威脅,但是容易導(dǎo)致諸如交通肇事責(zé)任劃分的爭(zhēng)議、自動(dòng)駕駛汽車容易陷入道德困局、算法偏見誘發(fā)交通事故等一系列問題,影響自動(dòng)駕駛乃至人工智能領(lǐng)域的整體安全格局。

      (一)算法介入導(dǎo)致責(zé)任分配不明

      伴隨自動(dòng)駕駛汽車誕生伊始,有關(guān)自動(dòng)駕駛汽車交通肇事追責(zé)主體的確認(rèn)就存在爭(zhēng)議,進(jìn)而演化出責(zé)任分配不明的問題。(1)葉明、張潔:《無人駕駛汽車交通事故損害賠償責(zé)任主體認(rèn)定的挑戰(zhàn)及對(duì)策》,載《電子政務(wù)》2019年第1期,第69-70頁。尤其是在人工智能算法發(fā)展迅速的技術(shù)背景下,人工智能系統(tǒng)借助算法優(yōu)化的加持,其主體適格性被進(jìn)一步增強(qiáng),那么原始的責(zé)任分配格局可能被再一次打破。當(dāng)自動(dòng)駕駛從低層級(jí)的“人機(jī)共駕”模式轉(zhuǎn)向高層級(jí)的“機(jī)器主導(dǎo)”模式,意味著對(duì)交通肇事主體的認(rèn)定從駕駛?cè)俗鳛楫?dāng)然主體轉(zhuǎn)向無法確定責(zé)任主體(2)參見袁彬、徐永偉:《“人機(jī)共駕”模式下交通肇事罪的適用困境及突圍》,載《廣西大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019年第5期,第77頁。,那么自動(dòng)駕駛交通肇事中如何確定追責(zé)主體范圍成為重要問題。

      域外通過“實(shí)驗(yàn)倫理學(xué)”的方法對(duì)自動(dòng)駕駛算法與人類價(jià)值進(jìn)行結(jié)合考察,得出自動(dòng)駕駛汽車的決策主要由三個(gè)主體組成:一是政府,由政府決定自動(dòng)駕駛汽車內(nèi)置算法的編譯程序類型;二是自動(dòng)駕駛汽車的制造商,由制造商決定具體的算法編碼;三是車主,由車主決定自動(dòng)駕駛的車型以及對(duì)應(yīng)的算法,并根據(jù)實(shí)際情況選擇有合適自己的算法程序的自動(dòng)駕駛車輛。(3)See Bonnefon J F, Shariff A, Rahwan I, The social dilemma of autonomous vehicles, Science, 1573-1576(2016).

      在這三個(gè)主體中,制造商和車主作為生產(chǎn)者和使用者在交通肇事事故中扮演了重要角色,也是主要的追責(zé)主體。而政府則扮演了事先的監(jiān)管角色,通過規(guī)范文件和行業(yè)標(biāo)準(zhǔn)的制定來指導(dǎo)行業(yè)的整體發(fā)展,和具體交通肇事的聯(lián)系較弱,不能被視為適格的追責(zé)主體。而在算法不斷優(yōu)化的背景下,算法加持下的人工智能系統(tǒng)能否成為刑事追責(zé)的“第三極”則成為當(dāng)下的爭(zhēng)議熱點(diǎn)。因?yàn)樗惴ǖ谋举|(zhì)是以數(shù)學(xué)方式或者計(jì)算機(jī)代碼反饋的意見,其運(yùn)行過程中的程序設(shè)計(jì)、最終目的、判斷標(biāo)準(zhǔn)、數(shù)據(jù)編采等選擇都具有一定的主觀性(4)白惠仁:《自動(dòng)駕駛汽車的“道德算法”困境》,載《科學(xué)學(xué)研究》2019年第1期,第19頁。,而借助深度學(xué)習(xí)的算法,人工智能系統(tǒng)能夠在“感知—思考—行動(dòng)”機(jī)制下運(yùn)行,通過數(shù)據(jù)訓(xùn)練而構(gòu)建起來的決策邏輯,對(duì)環(huán)境感知和交互,并對(duì)自己的活動(dòng)做出具體指令,而這使得人類對(duì)人工智能系統(tǒng)的控制能力下降。(5)參見馮玨:《自動(dòng)駕駛汽車致?lián)p的民事侵權(quán)責(zé)任》,載《中國法學(xué)》2018年第6期,第116頁。有學(xué)者據(jù)此判定人工智能系統(tǒng)具有行為主體性和刑罰感知能力,可以承擔(dān)刑事責(zé)任。(6)程龍:《自動(dòng)駕駛車輛交通肇事的刑法規(guī)制》,載《學(xué)術(shù)交流》2018年第4期,第83-84頁。那么一旦人工智能系統(tǒng)作為追責(zé)主體介入,原有的刑事追責(zé)局面必然被打破,而如何確定具體的追責(zé)主體,抑或在不同責(zé)任主體間如何劃分責(zé)任,都成為自動(dòng)駕駛汽車刑事追責(zé)所必須面對(duì)的問題。

      (二)算法固有缺陷導(dǎo)致適用爭(zhēng)議

      在Web3.0時(shí)代,算法技術(shù)的智能化特征不斷顯現(xiàn)(7)參見劉艷紅:《Web3.0時(shí)代網(wǎng)絡(luò)犯罪的代際特征及刑法應(yīng)對(duì)》,載《環(huán)球法律評(píng)論》2020年第5期,第100頁。,對(duì)于自動(dòng)駕駛汽車的監(jiān)管,本質(zhì)上是對(duì)自動(dòng)駕駛程序算法的監(jiān)管,但囿于自動(dòng)駕駛汽車算法程序的固有缺陷,則會(huì)導(dǎo)致自動(dòng)駕駛汽車無法獨(dú)立適應(yīng)公共交通的行駛環(huán)境,甚至在處理復(fù)雜路況時(shí)發(fā)生交通肇事事故。當(dāng)下人工智能系統(tǒng)算法使用的爭(zhēng)議主要有以下兩方面:

      一是算法的機(jī)械性特征可能導(dǎo)致其在處理復(fù)雜問題時(shí)陷入道德困境,人性的缺失導(dǎo)致算法系統(tǒng)在處理極端的道德爭(zhēng)議問題時(shí)無法得出合適的結(jié)論,而采用“冷冰冰”的量化后的利益衡量原則處理問題,則得出的結(jié)果不易為公眾所接受。典型的道德爭(zhēng)議問題就是傳統(tǒng)社會(huì)視角下“隧道難題”(Tunnel Problem)在自動(dòng)駕駛算法語境中如何選擇(8)“隧道難題”是指當(dāng)乘客坐在一輛行駛在單行道上的自動(dòng)駕駛汽車上時(shí),汽車行駛到隧道入口,忽然一個(gè)孩子跑到車道中間,堵住了隧道的入口。此時(shí),自動(dòng)駕駛車輛只有兩個(gè)選擇:繼續(xù)行駛撞向孩子,或者轉(zhuǎn)向隧道某一側(cè)的墻壁,從而導(dǎo)致車上的乘客喪生。See Jason Millar, An Ethics Evaluation Tool for Automating Ethical Decision-Making in Robots and Self-Driving Cars, Applied Artificial Intelligence, 787-809(2016).,這是算法選擇和道德選擇在自動(dòng)駕駛層面相互融合的取舍困境的典型沖突?!八淼离y題”本身考驗(yàn)了自動(dòng)駕駛汽車算法在車內(nèi)乘客和路上行人之間發(fā)生利益沖突時(shí)的價(jià)值選擇,而傳統(tǒng)意義上過分要求駕駛?cè)藛T進(jìn)行自我犧牲的選擇在算法語境下并不能完全被遵照。(9)和鴻鵬:《無人駕駛汽車的倫理困境、成因及對(duì)策分析》,載《自然辯證法研究》2017年第11期,第59頁。在自動(dòng)駕駛汽車的場(chǎng)域內(nèi),在“救自己”還是“救他人”之間決定適用何種選擇顯然主要由自動(dòng)駕駛汽車的人工智能系統(tǒng)決定,而決策的核心則是幕后的算法。有學(xué)者基于交通肇事事故中不同主體的法律地位,以自主性(autonomy)和一致性(solidarity)作為為功利主義道德辯護(hù)的理由(10)See Coca-Vila I, Self-driving cars in dilemmatic situations: An approach based on the theory of justification in criminal law, Criminal Law and Philosophy, 1-24(2017).,認(rèn)為應(yīng)該更多地進(jìn)行道德選擇,并且在算法程序中事先置入功利主義的道德算法。但是域外通過心理測(cè)試分析發(fā)現(xiàn),在此類道德困境中,人們對(duì)人工智能系統(tǒng)和人類采用的道德評(píng)價(jià)標(biāo)準(zhǔn)并不相同。雖然總體上人們希望兩者都采用功利主義取向行為,且相比于人類,人們對(duì)人工智能采用功利主義取向行為的期待和評(píng)價(jià)更高(11)褚華東、李園園、葉君惠等:《個(gè)人—非個(gè)人道德困境下人對(duì)智能機(jī)器道德判斷研究》,載《應(yīng)用心理學(xué)》2019年第3期,第262頁。。但是當(dāng)涉及自身利益時(shí),人們對(duì)人工智能的這種功利主義偏好可能反轉(zhuǎn),傾向于他人購買功利主義取向的汽車而自己更愿意購買優(yōu)先保護(hù)車內(nèi)乘客(自我)的汽車(12)趙雷、李園園、葉君惠等:《人對(duì)智能機(jī)器行為的道德判斷:現(xiàn)狀與展望》,載《應(yīng)用心理學(xué)》2019年第4期,第312頁。,說明即便植入道德算法,也不能一勞永逸,相反會(huì)引發(fā)新的道德選擇爭(zhēng)議。除此以外,如若在自動(dòng)駕駛的算法中,算法自我學(xué)習(xí)進(jìn)步的特性可能導(dǎo)致其對(duì)道德的理解產(chǎn)生異化,甚至出現(xiàn)“泛道德化”的結(jié)果(13)泛道德化是指對(duì)道德標(biāo)準(zhǔn)的追求不斷泛化、道德標(biāo)準(zhǔn)不斷提高,而忽略了公民自身的利益需求,這種泛道德化的風(fēng)險(xiǎn)可能促使本不想犧牲自己利益的公民做出無端犧牲,綁架了一般公民的利益訴求。,而這將會(huì)嚴(yán)重?fù)p害公眾對(duì)于自動(dòng)駕駛汽車安全性的信任,為了避免自動(dòng)駕駛汽車陷入道德困境,應(yīng)該引導(dǎo)算法系統(tǒng)妥善處理道德爭(zhēng)議問題。

      二是自動(dòng)駕駛算法所必須面對(duì)的算法偏見問題,分為先天算法偏見和后天算法偏見,兩者都會(huì)導(dǎo)致人工智能系統(tǒng)在進(jìn)行決策時(shí)做出不合理選擇,而實(shí)踐中已經(jīng)出現(xiàn)此類交通肇事事故。先天算法偏見主要是自動(dòng)駕駛系統(tǒng)算法在編譯時(shí)和校正時(shí)存在紕漏所致。算法的編譯是人機(jī)共生情景下既規(guī)制“人”又規(guī)制“機(jī)”的公因式(14)參見[美]勞倫斯·萊斯格:《代碼2.0:網(wǎng)絡(luò)空間中的法律》,李旭、沈偉偉譯,清華大學(xué)出版社2009年版,第6頁。,編譯時(shí)的紕漏是程序員在編寫算法程序時(shí),有意或無意對(duì)某種情況做出了不合常理的編寫,比如Google公司的圖像識(shí)別算法中,就把黑人誤識(shí)別為大猩猩,構(gòu)成算法偏見。(15)陳洪兵、陳禹衡:《刑法領(lǐng)域的新挑戰(zhàn):人工智能的算法偏見》,載《廣西大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019年第5期,第87頁。校正時(shí)的紕漏是人工智能系統(tǒng)在進(jìn)行算法調(diào)適時(shí),不斷地對(duì)算法進(jìn)行強(qiáng)化訓(xùn)練,而當(dāng)訓(xùn)練所采用的機(jī)器學(xué)習(xí)模型本身存在偏見時(shí),那么學(xué)習(xí)后的算法也會(huì)形成錯(cuò)誤的邏輯進(jìn)路,在面對(duì)危險(xiǎn)情況時(shí)遵循錯(cuò)誤的邏輯進(jìn)路做出決策。比如2018年美國的Uber交通肇事案,就有研究人員在事后對(duì)于行人的圖像數(shù)據(jù)進(jìn)行采集,并使用菲茨帕特里克量表(Fitzpatrick scale)分析事故,發(fā)現(xiàn)了深色皮膚的人的檢測(cè)率要比淺色皮膚的人低5個(gè)百分點(diǎn),而本案中受害人正是黑人女性(16)陳禹衡:《人工智能汽車交通肇事的刑法應(yīng)對(duì)——以Uber交通肇事案為研究視角》,載《法治社會(huì)》2020年第3期,第25頁。,那么這種算法學(xué)習(xí)校正時(shí)可能已經(jīng)隱性存在的算法偏見,最終導(dǎo)致了交通事故。后天算法偏見,則是人工智能汽車在日常行駛過程中,因?yàn)楫?dāng)事人的指令或者系統(tǒng)自身處理交通狀況時(shí)的經(jīng)驗(yàn),通過自主學(xué)習(xí)產(chǎn)生的算法偏見,是在自動(dòng)駕駛汽車出廠以后在特定的使用環(huán)境下形成的。有鑒于此,如何克服人工智能汽車算法中固有的算法偏見缺陷,盡可能地消除算法偏見所帶來的不利影響,關(guān)系到自動(dòng)駕駛汽車的安全程度,需要從技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)范等多方面著手加以克服。

      二、依據(jù)算法介入的程度判斷責(zé)任劃分

      自動(dòng)駕駛汽車在確定追責(zé)主體上的爭(zhēng)議,是因?yàn)樗惴ú粩鄡?yōu)化導(dǎo)致人工智能的主體性不斷增強(qiáng),在人機(jī)交互的過程中扮演愈發(fā)重要的角色,而人工智能的特殊性改變了傳統(tǒng)交通肇事的責(zé)任分配格局,算法指導(dǎo)下的人工智能系統(tǒng)對(duì)責(zé)任乃至生命安全的分配成為需要重新探討的議題。伴隨人工智能系統(tǒng)借助算法優(yōu)化增加其在交通行駛過程中的話語權(quán)重,那么對(duì)于適格責(zé)任主體的判斷必須將人工智能系統(tǒng)考慮在內(nèi),并從算法的本質(zhì)特征入手進(jìn)行分析。借助對(duì)算法內(nèi)涵的分析,發(fā)掘算法對(duì)于人工智能系統(tǒng)的加持程度,從而判斷是否需要新增適格的責(zé)任主體,以及對(duì)原有的責(zé)任分配體系造成何種影響。

      (一)人工智能主體的適格性判斷

      關(guān)于自動(dòng)駕駛汽車交通肇事的責(zé)任主體不明的爭(zhēng)議,是因?yàn)樽詣?dòng)駕駛汽車借助算法技術(shù)不斷進(jìn)步所致,當(dāng)下的自動(dòng)駕駛汽車已經(jīng)從Level2層級(jí)向更加智能化的Level5層級(jí)發(fā)展,特斯拉總裁馬斯克甚至宣稱在2021年年內(nèi)量產(chǎn)達(dá)到Level5級(jí)別的自動(dòng)駕駛汽車,但這同時(shí)也引發(fā)了對(duì)自動(dòng)駕駛追責(zé)主體判斷上的“搖擺”。傳統(tǒng)的交通肇事中約95%的交通事故與駕駛員的操作失誤有關(guān)(17)See Elizabeth Whitman, China Traffic Deaths: Move Than 200,000 Annual Facilities in Road Accidents, World Health Organization Says, International Business Times, June 5, 2015, at A5.,而在人工智能駕駛汽車使用后,算法的介入增加了責(zé)任主體判斷的復(fù)雜性。傳統(tǒng)觀點(diǎn)認(rèn)為依然應(yīng)該限于傳統(tǒng)刑法所可能規(guī)制的主體,包括駕駛?cè)恕⑵囁腥?、汽車生產(chǎn)商的相關(guān)人員、自動(dòng)駕駛控制程序的開發(fā)人員、向自動(dòng)駕駛汽車提供數(shù)據(jù)的人員、國家及地方公共團(tuán)體的相關(guān)人員等。(18)參見[日]松宮孝明:《AI與刑法——以自動(dòng)駕駛相關(guān)問題為中心》,孫文譯,載《第五屆中日經(jīng)濟(jì)刑法研討會(huì)論文集(2019)》,第18-20頁。但是這一觀點(diǎn)顯然忽視了人工智能主體性日益進(jìn)步的客觀現(xiàn)實(shí),也不符合未來人工智能的發(fā)展趨勢(shì)。

      對(duì)于人工智能系統(tǒng)在交通肇事中所扮演的角色,理論界對(duì)此有諸多爭(zhēng)議。主體肯定說認(rèn)為在自動(dòng)駕駛占據(jù)高度主導(dǎo)性的背景下,傳統(tǒng)人類駕駛員角色已經(jīng)逐漸式微,尤其是在強(qiáng)人工智能不斷發(fā)展的背景下,承認(rèn)強(qiáng)人工智能具有刑事責(zé)任主體地位具有合理性,并且具備法益侵害的可能性。(19)王耀彬:《類人型人工智能實(shí)體的刑事責(zé)任主體資格審視》,載《西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2019年第1期,第140頁。德國學(xué)者希爾根多夫則提出將人工智能類比于法人團(tuán)體,承認(rèn)其基于程序而進(jìn)行“意思控制”的動(dòng)作表述,并藉此承認(rèn)人工智能可以承擔(dān)刑事責(zé)任。(20)參見儲(chǔ)陳城:《人工智能時(shí)代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論》,載《東方法學(xué)》2018年第3期,第30頁。更有甚者認(rèn)為,自主意識(shí)可以從程序員編寫的神經(jīng)細(xì)胞類代碼以及由電學(xué)元件組成的模擬神經(jīng)元中產(chǎn)生并傳導(dǎo)至人工智能(21)馬治國、田小楚:《論人工智能體刑法適用之可能性》,載《華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第2期,第110頁。,所以人工智能就是人在虛擬空間的映射,而算法就是人工智能的“大腦”。對(duì)于主體肯定說的理論支撐,一是認(rèn)為自動(dòng)駕駛汽車具有的開放性,因?yàn)榉芍黧w只是用以構(gòu)建法律關(guān)系的一種構(gòu)成性的法律工具,那么確立非人類主體法律地位也具有可行性。二是認(rèn)為自動(dòng)駕駛汽車具有的算法“大腦”,能夠?yàn)樽詣?dòng)駕駛汽車的正常行駛提供決策,尤其是層級(jí)較高的Level5級(jí)汽車,具有了擬人化的技術(shù)能力,這種擬人化的能力超出了傳統(tǒng)技術(shù)手段的實(shí)施范疇,具有極強(qiáng)的思維邏輯。有鑒于此,在技術(shù)進(jìn)步的背景下,Level4—Level5層級(jí)的自動(dòng)駕駛汽車有望徹底取代“駕駛?cè)恕背蔀槲ㄒ坏呢?zé)任主體(22)參見張龍:《自動(dòng)駕駛型道路交通事故責(zé)任主體認(rèn)定研究》,載《蘇州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018年第5期,第73頁。,甚至需要因此在立法基礎(chǔ)層面確立人工智能汽車的工具性人格,并以此為中心進(jìn)行對(duì)應(yīng)的規(guī)范設(shè)計(jì)(23)參見許中緣:《論智能汽車侵權(quán)責(zé)任立法——以工具性人格為中心》,載《法學(xué)》2019年第4期,第67頁。,將現(xiàn)有人工智能機(jī)器人的規(guī)制和責(zé)任制度進(jìn)行關(guān)聯(lián)考慮。

      與之相對(duì),主體否定說認(rèn)為,法律責(zé)任的主體(法律上的人)確立就必須是權(quán)利和義務(wù)的主體,而人工智能系統(tǒng)的義務(wù)與權(quán)利的自始分離使之根本無從獲取法律人格。(24)冀洋:《人工智能時(shí)代的刑事責(zé)任體系不必重構(gòu)》,載《比較法研究》2019年第4期,第126頁。雖然人工智能的終極目標(biāo)在于使得機(jī)器像人一樣思考并獲得獨(dú)立自主學(xué)習(xí)的能力,但其行為不論是預(yù)先設(shè)定還是自主運(yùn)行,都欠缺法規(guī)范遵從能力的意志性,即便在客觀上造成法益侵害后果,也不具有刑法上的可追責(zé)性。(25)參見時(shí)方:《人工智能刑事主體地位之否定》,載《法律科學(xué)》2018年第6期,第67頁。對(duì)于主體否定說的理論支撐,一是人工智能系統(tǒng)不具有刑法上的辨認(rèn)和控制能力;二是人工智能系統(tǒng)不具有刑罰適應(yīng)能力,現(xiàn)有框架下討論的“人工智能刑罰”的懲罰效果和救濟(jì)效果存疑,刑罰的剝奪性痛苦無法發(fā)揮效用(26)姚萬勤:《對(duì)通過新增罪名應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的質(zhì)疑》,載《當(dāng)代法學(xué)》2019年第3期,第9頁。;三是人工智能系統(tǒng)的求刑權(quán)欠缺,在訴訟成本上成本過高且司法實(shí)踐中取證困難。

      總之,主體否定說認(rèn)為強(qiáng)行將人工智能系統(tǒng)拔高為法律責(zé)任主體,是人工智能研究反智化的體現(xiàn),違背了刑法基本理論乃至法理常識(shí)(27)參見劉艷紅:《人工智能法學(xué)研究的反智化批判》,載《東方法學(xué)》2019年第5期,第119頁。,將其作為獨(dú)立的犯罪主體進(jìn)行刑事追責(zé)也并不符合社會(huì)現(xiàn)實(shí)狀況(28)王利賓:《弱人工智能的刑事責(zé)任問題研究》,載《湖南社會(huì)科學(xué)》2019年第4期,第60頁。。相反會(huì)有擴(kuò)大刑法規(guī)制范圍、損害刑法謙抑性之虞,偏離了傳統(tǒng)犯罪論和刑罰論的基本理念,不能為自動(dòng)駕駛汽車的交通肇事的刑事歸責(zé)提供解決思路。(29)廖興存:《無人駕駛汽車交通肇事過失刑事責(zé)任論綱》,載《湖南社會(huì)科學(xué)》2021年第3期,第123頁。

      綜合來看,本文堅(jiān)持主體否定說的觀點(diǎn),認(rèn)為雖然當(dāng)下的人工智能汽車快速發(fā)展,但是主體否定說仍然更符合自動(dòng)駕駛汽車技術(shù)發(fā)展的實(shí)際情況。核心原因在于當(dāng)前的自動(dòng)駕駛汽車的技術(shù)特征意味著其不具有完全的人格主體性,人工智能算法仍然處于弱人工智能爬坡的階段,汽車所具有的機(jī)器能動(dòng)性無法代替人類能動(dòng)性。而人工智能行駛行為本質(zhì)上仍然依賴系統(tǒng)學(xué)習(xí)功能下的人機(jī)互動(dòng)(30)牛彬彬:《我國高度自動(dòng)駕駛汽車侵權(quán)責(zé)任體系之建構(gòu)》,載《西北民族大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019年第3期,第178頁。,其表現(xiàn)出的辨認(rèn)和控制能力是算法程序運(yùn)算后賦予的,屬于機(jī)械認(rèn)知而非自由意志的體現(xiàn)。鑒于承擔(dān)刑事責(zé)任的前提是具有認(rèn)識(shí)能力和意志能力,要求具備完全的心智,即辨認(rèn)能力和控制能力,人工智能汽車雖然具有很強(qiáng)的智能性特征,卻只局限于某一領(lǐng)域內(nèi)的自律能力,與完全刑事責(zé)任能力的本質(zhì)不符。(31)莊永廉:《人工智能與刑事法治的未來》,載《人民檢察》2018年第1期,第43頁。有鑒于此,自動(dòng)駕駛汽車中人工智能的算法特征,更多地表現(xiàn)為對(duì)其他類型主體刑事責(zé)任分配的影響,應(yīng)該基于算法介入程度來判斷不同主體在交通肇事中承擔(dān)責(zé)任的限度,將人工智能的算法主體性用于解釋其他類型主體承擔(dān)責(zé)任限度的劃分,而非將其獨(dú)立解釋為一種主體類型。

      (二)生產(chǎn)者與使用者的責(zé)任劃分

      鑒于當(dāng)下的人工智能系統(tǒng)并不適宜作為自動(dòng)駕駛汽車交通肇事的追責(zé)主體,那么對(duì)追責(zé)主體的探討就重新回到生產(chǎn)者和使用者的比較,而由于算法對(duì)自動(dòng)駕駛汽車的控制程度逐漸增加,算法介入程度對(duì)責(zé)任劃分的影響也日趨增強(qiáng)。之所以采用算法介入程度作為劃分責(zé)任承擔(dān)的依據(jù):一是因?yàn)樗惴ㄗ鳛樽詣?dòng)駕駛汽車的程序核心決定了自動(dòng)駕駛汽車的實(shí)際運(yùn)行方式,對(duì)于算法的編譯、學(xué)習(xí)、訓(xùn)練、應(yīng)用和交通肇事的歸責(zé)直接相關(guān),而其中編譯、學(xué)習(xí)和生產(chǎn)者有直接聯(lián)系,訓(xùn)練、應(yīng)用和使用者有直接聯(lián)系,所以需要將算法作為劃分責(zé)任承擔(dān)的依據(jù)。二是因?yàn)樗惴ㄗ鳛樽詣?dòng)駕駛的介入程度關(guān)系到自動(dòng)駕駛汽車的智能程度,算法的介入程度高,則自動(dòng)駕駛汽車更“智能”。此時(shí)交通肇事的風(fēng)險(xiǎn)歸責(zé)被前置化,使用者因?yàn)樗惴ǖ母叨冉槿攵鴮?duì)汽車的掌控性降低,人機(jī)交互的力度在下降,算法此時(shí)具有自我執(zhí)行的屬性,以代碼化的行為標(biāo)準(zhǔn)主動(dòng)保障其所認(rèn)定的算法正義,所以使用者承擔(dān)的責(zé)任也在削弱。(32)余盛峰:《全球信息化秩序下的法律革命》,載《環(huán)球法律評(píng)論》2013年第5期,第112頁。相反,歸責(zé)前置后生產(chǎn)者可能因?yàn)樗惴ǖ慕槿氤潭仍黾佣诰幾g、學(xué)習(xí)環(huán)節(jié)承擔(dān)更多責(zé)任,但是此時(shí)對(duì)生產(chǎn)者的歸責(zé)也需要謹(jǐn)慎判斷,否則會(huì)增加生產(chǎn)者在算法程序的開發(fā)環(huán)節(jié)的壓力,導(dǎo)致行業(yè)發(fā)展停滯。(33)陳景輝:《自動(dòng)駕駛與乘客優(yōu)先》,載《華東政法大學(xué)學(xué)報(bào)》2020年第6期,第12頁。

      總之,以算法介入程度作為責(zé)任劃分依據(jù),體現(xiàn)了算法在整個(gè)人工智能系統(tǒng)中扮演的重要角色,符合人工智能系統(tǒng)的歷史發(fā)展潮流,雖然其當(dāng)下無法作為適格的責(zé)任主體,但是在未來具有承擔(dān)更多責(zé)任的可能性。

      1.生產(chǎn)者的責(zé)任劃分

      對(duì)于生產(chǎn)者,其制定并編譯了自動(dòng)駕駛汽車的算法程序并對(duì)算法進(jìn)行測(cè)試,所以具備一定的事故處理“前瞻能力”,其所承擔(dān)的注意義務(wù)也與傳統(tǒng)過失犯罪所要求的當(dāng)場(chǎng)性、即時(shí)性注意義務(wù)不同,生產(chǎn)者具有的生產(chǎn)風(fēng)險(xiǎn)控制義務(wù)是先期的、前瞻性的,如果在自動(dòng)駕駛汽車的生產(chǎn)階段就違反了這種注意義務(wù),則對(duì)于交通肇事可以成立相應(yīng)過失犯罪。(34)參見彭文華:《自動(dòng)駕駛車輛犯罪的注意義務(wù)》,載《政治與法律》2018年第5期,第90頁。這里的生產(chǎn)階段,不僅包括算法程序的編譯階段,還包括算法的軟件和車輛的硬件的銜接階段,如果匹配不適格,也構(gòu)成對(duì)注意義務(wù)的違反,同時(shí)也因創(chuàng)設(shè)風(fēng)險(xiǎn)而需要承擔(dān)責(zé)任。(35)參見王?。骸对试S風(fēng)險(xiǎn)的解釋論意義——以故意與過失允許風(fēng)險(xiǎn)的區(qū)分為視角》,載《蘇州大學(xué)學(xué)報(bào)(法學(xué)版)》2018年第4期,第37頁。

      有學(xué)者認(rèn)為生產(chǎn)者不應(yīng)該對(duì)一般的交通肇事承擔(dān)責(zé)任,而是僅對(duì)將存在安全隱患的自動(dòng)駕駛汽車強(qiáng)行推入市場(chǎng)或者未召回存在安全隱患的汽車的情況承擔(dān)責(zé)任。(36)參見付玉明:《自動(dòng)駕駛汽車事故的刑事歸責(zé)與教義展開》,載《法學(xué)》2020年第9期,第148頁。這一觀點(diǎn)的論據(jù)有二:第一,其認(rèn)為注意義務(wù)不是抽象的而是具體的,生產(chǎn)者并不能預(yù)見到自動(dòng)駕駛期間可能出現(xiàn)的各種意外,因此發(fā)生交通事故也不能追究生產(chǎn)者的過失犯罪責(zé)任,否則無異于承認(rèn)嚴(yán)格責(zé)任。(37)參見江溯:《自動(dòng)駕駛汽車對(duì)法律的挑戰(zhàn)》,載《中國法律評(píng)論》2018年第2期,第186頁。第二,如若根據(jù)抽象判斷來認(rèn)定過失,會(huì)擴(kuò)大過失行為的認(rèn)定范疇,導(dǎo)致無論行為與結(jié)果之間的聯(lián)系多么間接,行為人對(duì)具體結(jié)果能否預(yù)見都可能成立過失,反而違反責(zé)任主義。

      本文對(duì)此持反對(duì)的態(tài)度:一是對(duì)于自動(dòng)駕駛汽車而言,在交通肇事中適用嚴(yán)格責(zé)任實(shí)際上符合自動(dòng)駕駛車輛的技術(shù)指標(biāo)要求,對(duì)自動(dòng)駕駛汽車適用嚴(yán)格責(zé)任制度,不是因?yàn)樽詣?dòng)駕駛汽車具有“異常危險(xiǎn)”或“不合理風(fēng)險(xiǎn)”,相反恰恰是因?yàn)樯a(chǎn)者制造的自動(dòng)駕駛汽車所具有的危險(xiǎn)或者風(fēng)險(xiǎn)水平相對(duì)較低,遠(yuǎn)低于傳統(tǒng)的人類司機(jī)的駕駛風(fēng)險(xiǎn)。因此在交通肇事中,嚴(yán)格技術(shù)指標(biāo)要求下的自動(dòng)駕駛汽車很難在司法實(shí)踐中被認(rèn)定為具有過失,而為了保護(hù)使用者利益,則適用嚴(yán)格責(zé)任制度對(duì)生產(chǎn)者追責(zé)。(38)David C, Vladeck, Machines without Principals: Liability Rules and Artificial Intelligence, Washington Law Review, 117-150(2014).

      二是有學(xué)者提出“刑事責(zé)任是面向人的懲罰措施,所以不能直接聯(lián)系到系統(tǒng)責(zé)任(此處即人工智能系統(tǒng))”的觀點(diǎn)(39)參見[日]中山幸二:《自動(dòng)運(yùn)転の法的課題》,載《國民生活》2017年第10卷,第55頁。,實(shí)際上并不能成立。此處對(duì)于責(zé)任的追究是延伸至算法系統(tǒng)背后的生產(chǎn)廠家,并未局限于人工智能系統(tǒng)本身,算法指導(dǎo)下的人工智能系統(tǒng)已經(jīng)被排除出適格的法律責(zé)任主體,因此更要追究其背后生產(chǎn)者的責(zé)任,而非讓責(zé)任“憑空消失”。

      三是“無論行為與結(jié)果之間的聯(lián)系多么間接都能成立過失”的論斷忽略了算法的技術(shù)的介入。對(duì)于生產(chǎn)者而言,只有算法程序在整個(gè)交通肇事過失中扮演重要角色時(shí),其才能被判斷為行為和結(jié)果間具有聯(lián)系,算法的介入程度本身就是重要的衡量指標(biāo),因而以此為參照標(biāo)準(zhǔn),并無違背責(zé)任主義之虞。

      總之,將自動(dòng)駕駛汽車的生產(chǎn)者界定為交通肇事責(zé)任的優(yōu)勢(shì)風(fēng)險(xiǎn)承擔(dān)者,有助于實(shí)現(xiàn)受害人的損害救濟(jì)、風(fēng)險(xiǎn)的合理化分配以及社會(huì)研發(fā)成本的最小化。(40)周文康、胡金文、張丹:《自動(dòng)駕駛汽車侵權(quán)責(zé)任的主體識(shí)別及擔(dān)責(zé)形式》,載《經(jīng)濟(jì)問題》2021年第2期,第37頁。

      2.使用者的責(zé)任劃分

      對(duì)應(yīng)生產(chǎn)者被賦予的生產(chǎn)風(fēng)險(xiǎn)控制的義務(wù),使用者具有日常檢查與風(fēng)險(xiǎn)制止的義務(wù)。(41)盧有學(xué)、竇澤正:《論刑法如何對(duì)自動(dòng)駕駛進(jìn)行規(guī)制——以交通肇事罪為視角》,載《學(xué)術(shù)交流》2018年第4期,第76頁。日常檢查義務(wù)包括隱患排除和定期養(yǎng)護(hù),隱患排除要求使用者在算法自動(dòng)報(bào)錯(cuò)時(shí)對(duì)算法錯(cuò)誤進(jìn)行上報(bào),并聯(lián)系生產(chǎn)者進(jìn)行算法校正和維修,定期養(yǎng)護(hù)則要求使用者參照汽車的使用說明或智能系統(tǒng)的維護(hù)提醒而進(jìn)行維護(hù)(42)龍敏:《自動(dòng)駕駛交通肇事刑事責(zé)任的認(rèn)定與分配》,載《華東政法大學(xué)學(xué)報(bào)》2018年第6期,第79頁。,而使用者在被賦予此義務(wù)前,應(yīng)該由生產(chǎn)者正確、全面和明確地向使用者說明關(guān)于自動(dòng)駕駛汽車算法系統(tǒng)本身的自動(dòng)化程度、性能以及使用限制信息。

      與之相對(duì),風(fēng)險(xiǎn)制止義務(wù)則對(duì)使用者提出了更高標(biāo)準(zhǔn)的責(zé)任要求,前置的風(fēng)險(xiǎn)制止義務(wù)要求使用者遵循自動(dòng)駕駛汽車的操作流程進(jìn)行合理使用,不得對(duì)人工智能系統(tǒng)的輸入信息進(jìn)行違規(guī)修改或刪除,不得干擾傳感器的路況信息采集,亦不可對(duì)自動(dòng)系統(tǒng)元器件進(jìn)行非法改裝。而后置的風(fēng)險(xiǎn)制止義務(wù)則要求使用者在行駛過程中,對(duì)車輛算法脫離控制或者處于不良狀態(tài)下時(shí),對(duì)自動(dòng)駕駛車輛進(jìn)行強(qiáng)制接管,實(shí)現(xiàn)人機(jī)交互的重置,如2017年德國《道路交通法》(StVG)中,就規(guī)定了使用者的權(quán)利和義務(wù)(43)德國《道路交通法》中規(guī)定在自動(dòng)駕駛系統(tǒng)接管狀態(tài)下,駕駛員可以不對(duì)交通狀況和車輛進(jìn)行監(jiān)控,但是駕駛員仍需時(shí)刻保持清醒戒備狀態(tài)準(zhǔn)備隨時(shí)接管。在自動(dòng)駕駛系統(tǒng)向駕駛員發(fā)出接管請(qǐng)求以及當(dāng)駕駛員發(fā)現(xiàn)自動(dòng)駕駛系統(tǒng)不能正常工作時(shí),駕駛員應(yīng)立刻接管車輛。,其中包括在危機(jī)時(shí)刻對(duì)車輛的接管,而根據(jù)實(shí)驗(yàn)分析發(fā)現(xiàn),使用者在行駛過程中的注意度越高,則對(duì)危險(xiǎn)感知越及時(shí),提早接管可以有效減少事故損害后果。(44)參見鈕建偉、張雪梅、孫一品等:《險(xiǎn)情中駕駛?cè)私庸茏詣?dòng)駕駛車輛的駕駛行為研究》,載《中國公路學(xué)報(bào)》2018年第6期,第272頁。但是,使用者坐在自動(dòng)駕駛汽車上時(shí),對(duì)于車輛正常運(yùn)行的監(jiān)管和交通肇事事故的風(fēng)險(xiǎn)制止,本身就因?yàn)樽詣?dòng)駕駛汽車算法程序的先進(jìn)性程度不同而有所區(qū)別,必然不能將不同層級(jí)的自動(dòng)化汽車混為一談。當(dāng)算法程序的介入程度越高,使用者就自動(dòng)駕駛功能進(jìn)行正確操作與使用的義務(wù)、必要時(shí)立即接管汽車的義務(wù)以及車輛運(yùn)行時(shí)警覺的義務(wù)都會(huì)降低,生產(chǎn)商應(yīng)該就高層級(jí)的自動(dòng)駕駛汽車的風(fēng)險(xiǎn)進(jìn)行事先告知,讓使用者保持事先警惕,則使用者對(duì)應(yīng)承擔(dān)的責(zé)任就越低。

      除此以外,有學(xué)者依據(jù)費(fèi)希爾的道德責(zé)任理論,認(rèn)為人與其他生物的一項(xiàng)重要不同在于人能為他們所做的事情負(fù)道德責(zé)任。(45)參見[美]John Martin Fischer:《責(zé)任與控制:一種道德責(zé)任理論》,楊韶剛譯,華夏出版社2002年版,第1頁。自動(dòng)駕駛汽車的使用者因不從事駕駛活動(dòng),不能滿足引導(dǎo)性控制的個(gè)人從事和自由進(jìn)行的兩重要件,所以不被賦予引導(dǎo)性控制責(zé)任。但是自動(dòng)駕駛汽車是被監(jiān)管的、順從的、能夠遵循復(fù)雜規(guī)則的主體,使用者能夠?qū)ζ溥M(jìn)行管制性控制,所以仍然要為自動(dòng)駕駛汽車引發(fā)的事故承擔(dān)相應(yīng)的道德責(zé)任。(46)顧世春:《費(fèi)希爾道德責(zé)任理論視角下自動(dòng)駕駛汽車使用者道德責(zé)任研究》,載《自然辯證法研究》2021年第2期,第113頁。本文認(rèn)為這一觀點(diǎn)并不能成立,因?yàn)樗惴ǖ慕槿?,算法指引下的人工智能系統(tǒng)取代人指引自動(dòng)駕駛汽車的行駛,算法的控制力和影響力“稀釋”了人的主觀性對(duì)自動(dòng)駕駛汽車的影響,很多交通事故中,人已經(jīng)很難像傳統(tǒng)司機(jī)一樣對(duì)汽車進(jìn)行監(jiān)管,遑論管制性控制。算法介入的程度越高,使用者的管制性控制責(zé)任就越弱,這種人為增加的道德責(zé)任只會(huì)無端地增加使用者的負(fù)罪感而忽視真正的因果追責(zé),實(shí)際上真正的因果追責(zé)趨向應(yīng)該是算法背后的生產(chǎn)者。

      總之,對(duì)于責(zé)任的具體劃分,算法程序的介入程度實(shí)際上和生產(chǎn)者對(duì)應(yīng)的責(zé)任相掛鉤,繼而影響了使用者承擔(dān)責(zé)任的份額。即便是人工智能系統(tǒng)通過自我學(xué)習(xí)而做出決策乃至改寫算法本體,也不能被視為“生產(chǎn)者難以預(yù)料和控制的被允許的危險(xiǎn),阻卻其注意義務(wù)”(47)彭文華:《自動(dòng)駕駛車輛犯罪的注意義務(wù)》,載《政治與法律》2018年第5期,第95頁。。原因在于,算法自我學(xué)習(xí)產(chǎn)生的決策仍然是生產(chǎn)者編譯算法時(shí)存在的固有缺陷所致,而改寫程序本體,更可以被視為生產(chǎn)者監(jiān)管不嚴(yán),對(duì)算法程序安全后門的設(shè)置存在紕漏,因此需要承擔(dān)責(zé)任。算法的介入程度可以在使用者和生產(chǎn)者的責(zé)任分配中扮演衡量角色,算法介入程度越高,那么生產(chǎn)商對(duì)應(yīng)的責(zé)任越高,而使用者對(duì)應(yīng)的責(zé)任越低。自動(dòng)駕駛汽車具有的算法決策優(yōu)勢(shì),就是為了解放個(gè)人在道路交通中的精神壓力,那么生產(chǎn)廠商設(shè)計(jì)算法程序時(shí)的壓力也就來源于此,不能放任責(zé)任后置,給使用者賦予本不應(yīng)該承擔(dān)的因果責(zé)任,更不能給使用者平白增加道德責(zé)任壓力,使用者在這種語境下更應(yīng)該被視為算法的處理元素而存在。

      人工智能算法所具有的不可預(yù)測(cè)性等隱性缺陷是生產(chǎn)者編譯算法所要改良的重點(diǎn)(48)Matthew U, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 354-400(2016).,而算法作為一種“技術(shù)中介(Technological Mediation)”(49)技術(shù)中介理論,是現(xiàn)象學(xué)上的概念,指技術(shù)本身具有“能動(dòng)性”,在人與外部世界之間處于特殊的中介調(diào)節(jié)位置,通過塑造人們的感知和行為來調(diào)節(jié)使用者的經(jīng)驗(yàn)和實(shí)踐,構(gòu)建出新的實(shí)踐和生活方式。參見朱勤:《技術(shù)中介理論:一種現(xiàn)象學(xué)的技術(shù)倫理學(xué)思路》,載《科學(xué)技術(shù)哲學(xué)研究》2010年第1期,第101頁。,生產(chǎn)者則有責(zé)任和義務(wù)來設(shè)計(jì)出好的算法,讓算法的中介調(diào)節(jié)性發(fā)揮積極的正面作用,雖然人工智能系統(tǒng)無法作為責(zé)任承擔(dān)者,但是算法的生產(chǎn)者卻能夠作為實(shí)質(zhì)上的責(zé)任承擔(dān)者。(50)贠兆恒、李建清:《“技術(shù)中介”視閾下的角色與責(zé)任變化——以自動(dòng)駕駛為例》,載《自然辯證法研究》2018年第2期,第40頁。

      三、借助算法優(yōu)化破解現(xiàn)有的適用爭(zhēng)議

      在算法優(yōu)化的背景下,自動(dòng)駕駛汽車的算法程序編譯過程被不斷優(yōu)化,但是在此過程中,囿于算法所固有的缺陷,自動(dòng)駕駛汽車的算法在處理具體問題時(shí)仍然面臨一些問題。其一是算法在處理道德邏輯上的爭(zhēng)議難題時(shí),量化處理衡量的原則難以解決可能存在的道德爭(zhēng)議;其二是算法偏見的存在,導(dǎo)致自動(dòng)駕駛汽車存在誤判的風(fēng)險(xiǎn),甚至?xí)虼擞|發(fā)交通事故。因此需要從基礎(chǔ)原則到具體規(guī)范加以完善,為算法優(yōu)化提供良好的制度支撐。

      (一)參照自我保護(hù)原則破解道德爭(zhēng)議

      當(dāng)自動(dòng)駕駛汽車算法面臨道德爭(zhēng)議時(shí),最關(guān)鍵的問題并不是自動(dòng)駕駛汽車是否有“道德”,而是預(yù)先設(shè)置的程序算法的倫理和邏輯如何處理現(xiàn)實(shí)中的道德爭(zhēng)議難題(51)崔俊杰:《自動(dòng)駕駛汽車準(zhǔn)入制度:正當(dāng)性、要求及策略》,載《行政法學(xué)研究》2019年第2期,第99頁。,所以需要從算法程序解決問題的邏輯進(jìn)路入手,分析算法是如何解讀、分化、處理傳統(tǒng)社會(huì)視域下的道德爭(zhēng)議難題,并選擇合適的解決方案。

      1.當(dāng)下道德算法的觀點(diǎn)評(píng)析

      在面對(duì)道德爭(zhēng)議難題時(shí),很多學(xué)者提出應(yīng)該借助算法程序的量化處理方式,在算法中預(yù)先嵌入道德算法,將人類社會(huì)的倫理準(zhǔn)則以量化數(shù)據(jù)的方式內(nèi)置入算法(52)唐興華、郭喨、唐解云:《電車難題、隱私保護(hù)與自動(dòng)駕駛》,載《華東理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2019年第6期,第73頁。,促使算法成為承載“道德代碼”的程序載體,將道德理念“物化”后實(shí)現(xiàn)算法技術(shù)的道德化。(53)Peter-Paul Verbeek, Moralizing Technology:Understanding and Designing the Morality of Things, University of Chicago Press, 2011, pp.188-190.造成這一選擇的核心原因在于自動(dòng)駕駛汽車中只有乘客而沒有駕駛者,因此動(dòng)態(tài)駕駛行為就需要交由道德算法來控制,尤其是在涉及不可避免的生命損失的碰撞中,由道德算法來決定到底犧牲哪一方顯得更加合理。(54)陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》,載《比較法研究》2018年第2期。

      當(dāng)下道德算法的理論基礎(chǔ)是功利主義,其所追求的是最大多數(shù)人的最大幸福,通過效用計(jì)算,可以犧牲使用者的生命以拯救更多人的生命,這是效用最大化的途徑(55)李偉、華夢(mèng)蓮:《論自動(dòng)駕駛汽車倫理難題與道德原則自我選擇》,載《科學(xué)學(xué)研究》2020年第4期,第589頁。,在隧道難題中,采用功利主義的道德算法,就是選擇更多人的生命作為保護(hù)對(duì)象。在此基礎(chǔ)上,德里克·里本(Derek Leben)基于羅爾斯的“最大化最小值原則”,將功利主義的道德算法更進(jìn)一步演進(jìn)成為羅爾斯算法,其不通過舍棄少數(shù)一方達(dá)到生存最大化,而是通過最大化弱勢(shì)群體的收益推動(dòng)博弈雙方達(dá)成最優(yōu)態(tài)勢(shì)。(56)參見隋婷婷、郭喨:《自動(dòng)駕駛電車難題的倫理算法研究》,載《自然辯證法通訊》2020年第10期,第88頁。

      在隧道難題的生存困境中,使用者和行人之間就自動(dòng)駕駛汽車的可選操作(轉(zhuǎn)彎、直行等)構(gòu)成一個(gè)效用函數(shù),羅爾斯算法首先對(duì)事故中的各個(gè)主體進(jìn)行賦值,為功利的權(quán)衡判斷奠定基礎(chǔ);其次是對(duì)賦值后的選擇對(duì)應(yīng)的價(jià)值收益進(jìn)行集中權(quán)衡,選擇出事故主體存活概率的最低收益集合(最小值);最后經(jīng)過循環(huán)窮舉,篩選出將最低收益最大化的操作,若多種操作收益相同,則使用隨機(jī)數(shù)決定最終操作。(57)高兆明、高昊:《信息安全風(fēng)險(xiǎn)防范與算法法則的價(jià)值原則——自動(dòng)駕駛汽車研發(fā)的兩個(gè)實(shí)踐哲學(xué)問題》,載《哲學(xué)動(dòng)態(tài)》2017年第9期,第83頁。采用功利主義基礎(chǔ)上的羅爾斯算法,能夠最大化使用者與行人的生存率且努力達(dá)成兩者間的合作共生,能在最大程度上消除使用者對(duì)自動(dòng)駕駛集體算法安全性的擔(dān)憂。與利己主義的自我保護(hù)原則相比,羅爾斯算法采取了“無知之幕”中將原初狀態(tài)的主體收益最大化的框架,并且根據(jù)情境的差異調(diào)動(dòng)規(guī)則(58)余露:《自動(dòng)駕駛汽車的事故算法及其限度》,載《自然辯證法通訊》2019年第1期,第20頁。,避免了純粹利己主義原則降低社會(huì)總體生存率的后果。

      對(duì)于基于功利主義的道德算法,雖然在理論上進(jìn)行了諸多研究,但是在實(shí)際使用中,苛責(zé)自動(dòng)駕駛汽車在面對(duì)交通肇事時(shí),做出連正常公民都不一定能夠?qū)崿F(xiàn)的道德選擇,并不一定具有可能性。

      一是,對(duì)于道德算法本身,采用量化的指標(biāo)來描述公民的道德情感并不具有可行性;對(duì)于個(gè)人生命而言,康德的義務(wù)論原則認(rèn)為人是目的而不是工具,個(gè)人的生命是不存在差別的,不能簡(jiǎn)單認(rèn)為數(shù)個(gè)行人的生命就比使用者的生命更重要,所以生命不同于一般意義上可以犧牲的法益而能被量化(59)參見[德]漢斯·海因里?!ひ?、托馬斯·魏根特:《德國刑法教科書總論》,徐久生譯,中國法制出版社2001年版,第435頁。。既然生命無法被量化,那么就無法將車上人的生命和隧道中人的生命進(jìn)行量化衡量,更無法量化為道德算法進(jìn)行程序內(nèi)嵌。

      二是,道德算法的內(nèi)涵較為復(fù)雜,考慮到道德的多元化(60)白惠仁:《自動(dòng)駕駛汽車的倫理、法律與社會(huì)問題研究述評(píng)》,載《科學(xué)與社會(huì)》2018年第1期,第76-77頁。,如何將道德內(nèi)涵轉(zhuǎn)化為算法本身就存在難度,諸如自治(autonomy)、社群(community)、身份(identity)、價(jià)值(value)及移情(empathy)等多個(gè)層面的道德因素都難以被評(píng)價(jià)衡量,也無法估量其權(quán)重。(61)See Mcbride N, The Ethics of Driverless Cars, ACM SIGCAS Computers and Society, 179-184(2016).對(duì)于道德元素的功利主義衡量實(shí)際上可行性較低,邊沁就曾指出進(jìn)行精確的功利計(jì)算的困難,諸如惡意傷害在強(qiáng)度和持續(xù)性方面確實(shí)是未知的、不確定的和遙遠(yuǎn)的,所以難以進(jìn)行衡量計(jì)算。(62)錢圓媛:《“道德機(jī)器”的道德偏差與無人駕駛技術(shù)的倫理設(shè)計(jì)》,載《東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2021年第3期,第10頁。此外,自動(dòng)駕駛汽車是動(dòng)態(tài)而非靜態(tài),當(dāng)汽車從A地移動(dòng)到B地時(shí),AB兩地的道德不同,那么當(dāng)?shù)赖鲁霈F(xiàn)沖突時(shí)道德算法如何選擇,說明道德算法的內(nèi)嵌并不可行。

      三是,對(duì)于購買自動(dòng)駕駛汽車的使用者而言,其購買的目的在于自動(dòng)駕駛汽車的低事故率,保障自身安全是使用者所看重的第一要義,大部分人在購買自動(dòng)駕駛汽車時(shí),都會(huì)傾向于購買基于自我保護(hù)算法的車。(63)See Bonnefon J, The Social Dilemma of Autonomous Vehicles, Science, 1573-1576(2016).由此可見,如果要求自動(dòng)駕駛汽車加入道德算法,只會(huì)違背自動(dòng)駕駛汽車的使用需求,阻礙自動(dòng)駕駛汽車的發(fā)展。

      四是,在置入道德算法后,人工智能系統(tǒng)無法限制算法的自我學(xué)習(xí),那么道德算法作為人類情感的投射,加速了人工智能的“近人性”發(fā)展,會(huì)傾向于將自我識(shí)別為“人”的一種,并傾向于用意圖或者感情去解釋自身“行為”(64)郭明龍、王菁:《人工智能法律人格賦予之必要性辨析》,載《交大法學(xué)》2019年第3期,第27頁。,產(chǎn)生“泛道德化”傾向。那么采用道德算法的汽車在面對(duì)道德爭(zhēng)議時(shí),如果因?yàn)椤胺旱赖禄倍撾x系統(tǒng)控制,甚至可能出現(xiàn)犧牲使用者而保全車體自身的情形,那此時(shí)使用者拒絕“被犧牲”而強(qiáng)行接管自動(dòng)駕駛車輛,屬于正當(dāng)防衛(wèi)抑或緊急避險(xiǎn)?不管如何,使用者的責(zé)任無疑被道德算法強(qiáng)行綁定并擴(kuò)張。(65)參見魏超:《法確證利益說之否定與法益懸置說之提倡——正當(dāng)防衛(wèi)正當(dāng)化依據(jù)的重新劃定》,載《比較法研究》2018年第3期,第189頁。所以如若道德算法出現(xiàn)“泛道德化”,那么將難以為生產(chǎn)者或使用者所掌控,也無法預(yù)測(cè)自動(dòng)駕駛系統(tǒng)的選擇走向。質(zhì)言之,如果交通事故不可避免,那么多數(shù)人不愿將選擇權(quán)交由機(jī)器,“泛道德化”的決策將加劇公眾的不信任,甚至可能導(dǎo)致公眾抵制自動(dòng)駕駛汽車。(66)See Waldrop M, No Drivers Required, Nature, 20-23(2015).

      2.自我保護(hù)原則的具體適用

      鑒于道德算法的個(gè)人倫理設(shè)定(personal ethics setting)存在明顯的道德缺陷,以至于自動(dòng)駕駛的道德算法,最終只能是強(qiáng)制性的倫理設(shè)定(mandatory ethics setting)。(67)陳景輝:《自動(dòng)駕駛與乘客優(yōu)先》,載《華東政法大學(xué)學(xué)報(bào)》2020年第6期,第8頁。而有學(xué)者則據(jù)此反對(duì)在自動(dòng)駕駛中植入道德算法,應(yīng)基于自我保護(hù)原則的優(yōu)先適用來指引人工智能程序的運(yùn)行,堅(jiān)持自動(dòng)駕駛汽車的使用者受到優(yōu)先保護(hù),算法不應(yīng)當(dāng)為避免碰撞而選擇人數(shù)更少的對(duì)象,而在只付出合理代價(jià)就可以帶來更大社會(huì)善的情形下,算法也可以對(duì)使用者施加可允許的傷害。(68)參見朱振:《生命的衡量——自動(dòng)駕駛汽車如何破解“電車難題”》,載《華東政法大學(xué)學(xué)報(bào)》2020年第6期,第20頁。有鑒于此,當(dāng)自動(dòng)駕駛汽車面對(duì)隧道難題時(shí),與其期冀算法通過預(yù)設(shè)的道德倫理立場(chǎng)來進(jìn)行判斷和取舍,不如直接在算法中強(qiáng)化其自我保護(hù)原則,自我保護(hù)原則是倫理利己主義觀念在自動(dòng)駕駛算法中的直接體現(xiàn)。

      對(duì)于自動(dòng)駕駛汽車而言,采用道德算法并不具有可行性,相反,強(qiáng)化自我保護(hù)原則反而具有最大的適用可行性,并能夠促進(jìn)自動(dòng)駕駛汽車算法的不斷優(yōu)化。有學(xué)者嘗試在自動(dòng)駕駛汽車中編入具體的算法規(guī)則,即“對(duì)違反交通規(guī)則的道路交通參與者不利,對(duì)有其他違規(guī)行為的道路交通參與者不利,優(yōu)先保護(hù)自動(dòng)駕駛汽車內(nèi)部的乘客,優(yōu)先保護(hù)非自動(dòng)駕駛汽車乘客”(69)王鈺:《生命權(quán)沖突的緊急狀態(tài)下自動(dòng)駕駛汽車的編程法律問題》,載《浙江社會(huì)科學(xué)》2019年第9期,第76-78頁。,而這一規(guī)則本身就是自我保護(hù)原則的具體體現(xiàn)。對(duì)于自我保護(hù)原則的具體設(shè)定,本文認(rèn)為應(yīng)該基于算法的框架下進(jìn)行調(diào)試,優(yōu)化其適用路徑。

      第一是將自我保護(hù)原則作為邏輯進(jìn)路用以指導(dǎo)自動(dòng)駕駛汽車在面對(duì)隧道難題等爭(zhēng)議選擇的優(yōu)先選擇路徑,這種內(nèi)置的保護(hù)原則能夠幫助使用者在無法瞬時(shí)做出選擇時(shí)保護(hù)自身的安全,將使用者的利益作為算法程序的最優(yōu)先選擇。

      第二是區(qū)分全局最優(yōu)和局部最優(yōu),在算法框架下,對(duì)于選擇的最終結(jié)果需要考慮全局最優(yōu)和局部最優(yōu)。全局最優(yōu)是使用者和行人都在隧道難題中獲得最優(yōu)結(jié)果,而局部最優(yōu)則是僅使用者或者行人獲得最優(yōu)結(jié)果,但是會(huì)犧牲另一方利益,適用自我保護(hù)原則也應(yīng)該追求全局最優(yōu)的結(jié)果,也就是使用者可以承受“可允許的傷害”。這和功利主義的道德算法的區(qū)別是其可被允許的限度遠(yuǎn)低于功利主義的完全衡量的限度,可允許的傷害不可能涉及對(duì)使用者生命安全的衡量。

      第三是自我保護(hù)原則的使用也要遵從使用者的自身意志,在算法程序框架內(nèi),可以由使用者自己預(yù)先調(diào)整懲罰系數(shù)(penalty term),比如使用者的安全系數(shù)X1和行人的安全系數(shù)X2,當(dāng)使用者自愿降低自身的安全系數(shù)X1時(shí),自我保護(hù)原則在程序中應(yīng)該體現(xiàn)為對(duì)X2的上升,也就是對(duì)行人的保護(hù)力度較大,對(duì)自我保護(hù)原則的權(quán)重衡量進(jìn)行調(diào)整。但是,這里的算法應(yīng)該基于自我保護(hù)原則設(shè)置X1的底線系數(shù),否則容易由自我保護(hù)原則滑向功利主義的道德算法。

      綜合來看,在自動(dòng)駕駛汽車的算法程序中強(qiáng)調(diào)自我保護(hù)原則,理論基礎(chǔ)是利己主義,但是利己主義并不是禁止幫助別人,而是在對(duì)使用者產(chǎn)生較小威脅時(shí)才可以損失自己的利益,保護(hù)行人的利益處于第二選擇。(70)[美]邁克爾J.奎因:《互聯(lián)網(wǎng)倫理:信息時(shí)代的道德重構(gòu)》,王益民譯,電子工業(yè)出版社2016年版,第25頁。采用自我保護(hù)原則,一是能夠最大程度保障使用者安全,實(shí)現(xiàn)自動(dòng)駕駛汽車的目的追求,提升自動(dòng)駕駛汽車的安全性;二是能夠簡(jiǎn)化算法程序,避免程序過于復(fù)雜出現(xiàn)沖突,降低算力損耗;三是自我保護(hù)原則具有較強(qiáng)的普適性,不易落入邏輯陷阱,即使在復(fù)雜的交通肇事場(chǎng)景下,自我保護(hù)原則也能化繁就簡(jiǎn),謀求最大程度地保護(hù)使用者的安全,避免道德算法所可能陷入的道德爭(zhēng)議困境。

      實(shí)際上,人工智能算法所具有的自主學(xué)習(xí)特征會(huì)促使其不斷演進(jìn),即便是生產(chǎn)者如公眾所愿,為自動(dòng)駕駛汽車設(shè)計(jì)倫理規(guī)范并內(nèi)置道德算法,也可能在實(shí)際運(yùn)行過程中逐漸異化。對(duì)于自動(dòng)駕駛汽車而言,承認(rèn)或部分承認(rèn)了機(jī)器具有道德屬性,妄圖通過機(jī)器能動(dòng)性(machine agency)替代人類能動(dòng)性(human agency),只會(huì)擾亂交通肇事的道德責(zé)任邊界。(71)See Coeckelbergh M, Responsibility and the Moral Phenomenology of Using Self-Driving Cars, Applied Artificial Intelligence, 748-757(2016).因此,在尊重各方利益主體訴求的基礎(chǔ)上,采用更加穩(wěn)妥的自我保護(hù)原則來處理此類“隧道難題”的道德爭(zhēng)議,反而能夠以最小的使用成本實(shí)現(xiàn)對(duì)各方利益的衡量和維護(hù)。

      (二)針對(duì)算法偏見優(yōu)化程序編譯過程

      自動(dòng)駕駛汽車的核心是算法(Algorithm),由人類為完成某項(xiàng)任務(wù)而在設(shè)計(jì)軟件時(shí)嵌入的數(shù)字化流程或者規(guī)則。由于人工智能和大數(shù)據(jù)技術(shù)的發(fā)展,越來越多的算法決策被用于處理復(fù)雜的任務(wù),提升系統(tǒng)處理效率。(72)參見陸凱:《美國算法治理政策與實(shí)施進(jìn)路》,載《環(huán)球法律評(píng)論》2020年第3期,第5頁。而自從算法誕生伊始,有關(guān)算法偏見的爭(zhēng)議就一直存在,在自動(dòng)駕駛汽車的發(fā)展過程中,算法偏見不僅從一開始就隱藏在人工智能系統(tǒng)中(先天算法偏見),并且因?yàn)槿斯ぶ悄芫哂械淖晕覍W(xué)習(xí)特性(后天算法偏見),而有日趨嚴(yán)重之勢(shì)。實(shí)際上,當(dāng)下的技術(shù)手段無法完全消除算法偏見,只能在全面地審視“偏見”和“公平”內(nèi)涵的基礎(chǔ)上(73)Solon Barocas & Andrew D, Selbst, Big Data’s Disparate Impact, California Law Review, 2016, p. 671.,借助優(yōu)化編譯程序矯正與遏制算法偏見,實(shí)現(xiàn)對(duì)算法“盡力避免錯(cuò)誤和偏見”的工具性治理目標(biāo)。

      1.針對(duì)先天算法偏見做到嚴(yán)格審查

      治理先天算法偏見,首先需要明確自動(dòng)駕駛算法編譯的初始目標(biāo),是借助算法程序指導(dǎo)人工智能系統(tǒng)的運(yùn)行,因此需要在保障算法使用效率的基礎(chǔ)上對(duì)算法進(jìn)行嚴(yán)格審查。在算法治理的框架內(nèi),“算法即規(guī)則,規(guī)則即統(tǒng)治”,先天性的算法偏見本身就是社會(huì)治理過程中固有偏見在算法中的集中“映射”。(74)參見董青嶺、朱玥:《人工智能時(shí)代的算法正義與秩序構(gòu)建》,載《探索與爭(zhēng)鳴》2021年第3期,第83頁。當(dāng)算法在設(shè)計(jì)學(xué)習(xí)模型時(shí)的無偏差校正實(shí)驗(yàn)環(huán)節(jié)出現(xiàn)疏漏,或者對(duì)真實(shí)分析的數(shù)據(jù)處理出現(xiàn)偏差,導(dǎo)致漏報(bào)、瞞報(bào)數(shù)據(jù),數(shù)據(jù)本身無法維持正態(tài)分布(75)參見陳禹衡、陳洪兵:《反思與完善:算法行政背景下健康碼的適用風(fēng)險(xiǎn)探析》,載《電子政務(wù)》2020年第8期,第95頁。,那么就會(huì)最終體現(xiàn)為先天算法偏見且難以被發(fā)現(xiàn),甚至在學(xué)習(xí)模型的訓(xùn)練后呈指數(shù)級(jí)放大。除此以外,算法設(shè)計(jì)者本身的價(jià)值觀念也可能被帶入學(xué)習(xí)模型構(gòu)建和程序代碼編譯的過程??傊?,為了消除先天算法偏見,需要秉持從形式審查到實(shí)質(zhì)審查的模式,對(duì)算法的原始代碼進(jìn)行嚴(yán)格審查。

      第一,算法的形式審查需要對(duì)算法的編譯方式、算法的運(yùn)行邏輯、算法的數(shù)據(jù)采用、算法的學(xué)習(xí)模型進(jìn)行審查。對(duì)于算法的編譯方式進(jìn)行審查,意味著自動(dòng)駕駛系統(tǒng)的算法編譯方式要符合當(dāng)下的數(shù)據(jù)運(yùn)行機(jī)理,按照正常的算法運(yùn)轉(zhuǎn)模式,設(shè)置算法在面對(duì)交通肇事時(shí)的數(shù)據(jù)處理順序,并提供通暢的解決模式輸出通道,最大程度地發(fā)揮算法的算力,避免出現(xiàn)重復(fù)計(jì)算等無端消耗算力的行為。對(duì)于算法的運(yùn)行邏輯進(jìn)行審查,要求運(yùn)行邏輯在法律框架內(nèi)進(jìn)行,將道路交通安全法等規(guī)范文件,以量化的方式置入算法程序中。比如日本在2016年發(fā)布的《自動(dòng)駕駛系統(tǒng)的道路實(shí)證測(cè)試指南》中,規(guī)定了智能汽車公路測(cè)試中駕駛員職責(zé)、車輛條件、事故預(yù)防和應(yīng)對(duì)等內(nèi)容,這些規(guī)范內(nèi)容都應(yīng)該以程序代碼的形式內(nèi)置于自動(dòng)駕駛汽車的算法中,用算法處理交通肇事難題。對(duì)于算法的數(shù)據(jù)采用進(jìn)行審查,是避免算法采用的數(shù)據(jù)存在傾向性,或者用于校正實(shí)驗(yàn)的數(shù)據(jù)不夠全面,導(dǎo)致算法處理問題的邏輯進(jìn)路存在偏差。數(shù)據(jù)采用在構(gòu)建和驗(yàn)證人工智能系統(tǒng)中發(fā)揮重要作用,其關(guān)系到評(píng)估系統(tǒng)和測(cè)試模型安全性和穩(wěn)定性,應(yīng)該盡可能避免出現(xiàn)未預(yù)期的算法運(yùn)行結(jié)果,對(duì)采用數(shù)據(jù)進(jìn)行嚴(yán)格的標(biāo)準(zhǔn)化審查,并以規(guī)范文件的形式加以規(guī)定。對(duì)于算法的學(xué)習(xí)模型進(jìn)行審查,需要采用可信的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)制定出的學(xué)習(xí)模型,才能有效地測(cè)試自動(dòng)駕駛的算法程序,避免關(guān)鍵組塊的缺失。比如在學(xué)習(xí)模型中加入“風(fēng)險(xiǎn)—效用測(cè)試(Risk-utility Test)”模塊,可以檢測(cè)自動(dòng)駕駛汽車可能存在的產(chǎn)品風(fēng)險(xiǎn)缺陷,最大程度地保障自動(dòng)駕駛汽車的運(yùn)行安全。

      第二,算法的實(shí)質(zhì)審查主要是審查可能隱藏的算法偏見風(fēng)險(xiǎn),要求自動(dòng)駕駛的算法運(yùn)行結(jié)果符合相關(guān)規(guī)范的預(yù)期目的。其一是展開道德審查,雖然在自動(dòng)駕駛的程序算法中內(nèi)嵌入道德算法容易造成人工智能系統(tǒng)“泛道德化”,存在對(duì)人身安全的威脅,但這并不代表在算法實(shí)質(zhì)審查環(huán)節(jié)使用道德審查也會(huì)存在這一風(fēng)險(xiǎn)。通過道德審查,主要是防止編譯人員自身的道德取向被有意或無意地編入程序算法中,因?yàn)檫@種編入方式具有較高的隱蔽性,容易導(dǎo)致算法在日后的運(yùn)行中因?yàn)樗惴ㄆ姸鴮?dǎo)致交通事故,所以應(yīng)該基于社會(huì)的公序良俗對(duì)算法進(jìn)行道德審查,將道德原則內(nèi)化于技術(shù)評(píng)判規(guī)則中,而非簡(jiǎn)單地植入道德代碼。其二是進(jìn)行銜接審查,也就是對(duì)軟件系統(tǒng)中的算法程序和車輛硬件系統(tǒng)的適配進(jìn)行審查,通過調(diào)試測(cè)驗(yàn)算法和硬件的匹配程度,防止自動(dòng)駕駛汽車的算法代碼無法用于指導(dǎo)車輛的硬件而導(dǎo)致交通事故。如特斯拉就曾出現(xiàn)因?yàn)樗惴ǔ绦蚓幾g問題導(dǎo)致剎車系統(tǒng)抱死引發(fā)交通事故,這是因?yàn)樘厮估碾娮涌刂茊卧?ECU)大多來自不同的第三方供應(yīng)商,如果沒有進(jìn)行良好的算法銜接調(diào)適,則會(huì)在集成后出現(xiàn)使用風(fēng)險(xiǎn),因此需要對(duì)硬件和軟件進(jìn)行系統(tǒng)性的銜接審查。其三是進(jìn)行安全檢查,對(duì)于自動(dòng)駕駛系統(tǒng)中的算法程序,除了正常的運(yùn)行程序外,一般會(huì)內(nèi)置安全程序,以防止自動(dòng)駕駛系統(tǒng)產(chǎn)生算法偏見或者程序運(yùn)行錯(cuò)誤,日本《自動(dòng)駕駛系統(tǒng)的道路實(shí)證測(cè)試指南》中則規(guī)定生產(chǎn)者要保證控制系統(tǒng)及傳感器必須有算力冗余,保障系統(tǒng)安全。(76)張韜略:《自動(dòng)駕駛汽車道路測(cè)試安全制度分析:中日立法的比較》,載《科技與法律》2019年第4期,第77頁。安全程序作為人工智能駕駛的最終“安全閥門”,在自動(dòng)駕駛的安全運(yùn)行中扮演重要角色,因此要將自動(dòng)駕駛預(yù)期功能安全(SOTIF)接受準(zhǔn)則以量化的方式置入程序算法中,建立可控的安全度量指標(biāo)體系。(77)李波、尚世亮、郭夢(mèng)鴿等:《自動(dòng)駕駛預(yù)期功能安全(SOTIF)接受準(zhǔn)則的建立》,載《汽車技術(shù)》2020年第12期,第1頁。

      2.針對(duì)后天算法偏見做到事先預(yù)防

      對(duì)于自動(dòng)駕駛系統(tǒng)的后天算法偏見,有學(xué)者認(rèn)為包括學(xué)習(xí)性偏見和外源性偏見,而這兩者都是自動(dòng)駕駛汽車在具體使用過程中逐漸產(chǎn)生的算法偏見,在本質(zhì)上具有共性,都是因?yàn)槭芄操Y源配置、道路交通運(yùn)行以及社會(huì)主流價(jià)值觀的影響而產(chǎn)生的算法偏見。(78)參見[美]胡迪·利普森、梅爾芭·庫曼:《無人駕駛》,林露茵、金陽譯,文匯出版社2017年版,第1頁。而對(duì)于后天算法偏見的產(chǎn)生,鑒于偏見本身是一種“未經(jīng)仔細(xì)審查并考慮事實(shí)就倉促作出的不成熟的判斷,是缺乏自明性論證的因素”(79)汪靖:《從人類偏見到算法偏見:偏見是否可以被消除》,載《探索與爭(zhēng)鳴》2021年第3期,第32頁。,所以妄圖徹底消除顯然不夠現(xiàn)實(shí),而采用事先預(yù)防則更符合自動(dòng)駕駛汽車行業(yè)發(fā)展的實(shí)際狀況。

      第一,對(duì)于后天算法偏見的事先預(yù)防,應(yīng)該在算法程序中預(yù)留補(bǔ)充規(guī)范文件的端口,并且及時(shí)將最新的規(guī)范文件置入。比如在聯(lián)合國汽車技術(shù)法規(guī)UN/ECER.79.5.1.6.1中規(guī)定,當(dāng)車速超過10公里/小時(shí),汽車的自動(dòng)轉(zhuǎn)向功能就應(yīng)當(dāng)被自動(dòng)禁用,該規(guī)定就對(duì)自動(dòng)駕駛汽車中自動(dòng)轉(zhuǎn)向系統(tǒng)上的變道輔助和車道保持輔助功能進(jìn)行限制(80)Mervyn Edwards, Matthias Seidl, Michelle Tress. Study on the assessment and certification of automated vehicles, Publications office of the European Union, 2016, pp. 13-15.,所以應(yīng)該以程序代碼的形式輸入算法程序中,保證自動(dòng)駕駛汽車在運(yùn)行過程中遵循這一規(guī)定。為算法程序預(yù)留補(bǔ)充規(guī)范文件的端口,可以實(shí)現(xiàn)自動(dòng)駕駛汽車在運(yùn)行過程中的不斷學(xué)習(xí),避免陷入“封閉—落后—事故—封閉”的循環(huán)怪圈,將算法的自我學(xué)習(xí)技能用于正向的校正學(xué)習(xí),避免因?yàn)槿笔?duì)最新規(guī)范文件的認(rèn)知而導(dǎo)致算法偏見。

      第二,對(duì)于后天算法偏見的事先預(yù)防,應(yīng)該在算法程序中加入事先預(yù)警程序,實(shí)時(shí)監(jiān)管自動(dòng)駕駛算法程序并事先預(yù)警。自動(dòng)駕駛汽車需要定期對(duì)運(yùn)行過程中的數(shù)據(jù)進(jìn)行復(fù)核和檢查,對(duì)于違規(guī)運(yùn)行數(shù)據(jù)進(jìn)行剔除并警戒,避免人工智能的自我學(xué)習(xí)系統(tǒng)因?yàn)殄e(cuò)誤的學(xué)習(xí)來源而走向正常運(yùn)行的反面,實(shí)現(xiàn)對(duì)算法程序的正向引導(dǎo),消除后天算法偏見的來源。在美國交通運(yùn)輸部(DOT)發(fā)布的《聯(lián)邦自動(dòng)駕駛汽車政策》(Federal Automated Vehicles Policy)中,其第三部分與第四部分均強(qiáng)調(diào)了“監(jiān)管工具”,并配合《自動(dòng)駕駛汽車法案》(Self Drive Act),聯(lián)合構(gòu)建了自動(dòng)駕駛汽車監(jiān)管的基本框架。有鑒于此,對(duì)于后天算法偏見,加強(qiáng)監(jiān)管主要是對(duì)駕駛數(shù)據(jù)的篩選和監(jiān)管,對(duì)于算法系統(tǒng)中可能出現(xiàn)的負(fù)面趨向,應(yīng)該由監(jiān)管系統(tǒng)提前預(yù)警,預(yù)警自動(dòng)駕駛汽車的使用者進(jìn)入接管狀態(tài)或校正汽車運(yùn)行行程。(81)Caitlin B, Where We’re Going,We don’t Need Drivers: The Legal Issues and Liability Implications of Automated Vehicle Technology, UMKC Law Review, 2015, p. 769.除此以外,預(yù)防后天算法偏見還需要設(shè)計(jì)一定的冗余時(shí)間使得自動(dòng)駕駛系統(tǒng)能夠有效應(yīng)對(duì),在監(jiān)管和預(yù)警程序生效后,自動(dòng)駕駛系統(tǒng)在反饋后做出應(yīng)對(duì)需要時(shí)間。(82)蘇令銀:《論機(jī)器倫理視域中自動(dòng)駕駛汽車的道德決策》,載《科學(xué)技術(shù)哲學(xué)研究》2019年第3期,第84頁。

      四、結(jié)語:算法促進(jìn)自動(dòng)駕駛汽車發(fā)展

      自動(dòng)駕駛汽車技術(shù)高速發(fā)展,而在復(fù)雜的技術(shù)背后,人工智能系統(tǒng)、生產(chǎn)者、使用者之間的關(guān)系在算法框架內(nèi)被不斷重塑且日趨復(fù)雜,導(dǎo)致對(duì)于算法的優(yōu)化和規(guī)制陷入難以預(yù)見的境地。(83)Harry Surdent, Mary-Anne Williams, Technological Opacity, Predictability, and Self-Driving Cars, Cardozo Law Review, 2016, p. 178.有鑒于此,為了化解自動(dòng)駕駛汽車算法可能產(chǎn)生的風(fēng)險(xiǎn),一方面,需要依賴技術(shù)進(jìn)步,通過自動(dòng)駕駛汽車算法技術(shù)的不斷優(yōu)化來解決現(xiàn)有的爭(zhēng)議和困難;另一方面,需要通過相應(yīng)的制度選擇和法律創(chuàng)設(shè)來紓解困局(84)吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,載《法律科學(xué)》2017年第5期,第130頁。,通過完善算法對(duì)應(yīng)的規(guī)范制度,完善自動(dòng)駕駛汽車系統(tǒng)集成的產(chǎn)業(yè)鏈,促進(jìn)自動(dòng)駕駛汽車進(jìn)一步發(fā)展。

      猜你喜歡
      交通肇事使用者自動(dòng)
      “法定許可”情況下使用者是否需要付費(fèi)
      自動(dòng)捕盜機(jī)
      基于STM32的自動(dòng)喂養(yǎng)機(jī)控制系統(tǒng)
      新型拼插休閑椅,讓人與人的距離更近
      好日子(2018年5期)2018-05-30 16:24:04
      抓拍神器
      關(guān)于自動(dòng)駕駛
      汽車博覽(2016年9期)2016-10-18 13:05:41
      交通肇事發(fā)生后傷者可以得到哪些賠償
      “交通運(yùn)輸肇事后逃逸”的認(rèn)定——以張某某交通肇事抗訴案為例
      多種刑事偵查技術(shù)認(rèn)定同一起交通肇事
      西藏科技(2015年9期)2015-09-26 12:15:28
      特殊痕跡檢驗(yàn)在交通肇事逃逸案件中的應(yīng)用研究
      西藏科技(2015年4期)2015-09-26 12:12:51
      仁化县| 奎屯市| 泾川县| 大埔县| 桃园县| 巧家县| 方山县| 云阳县| 扎兰屯市| 广水市| 眉山市| 兴安盟| 普洱| 通化市| 潍坊市| 咸阳市| 轮台县| 聂荣县| 永善县| 昭通市| 台中市| 建昌县| 贵德县| 扶风县| 临高县| 南召县| 行唐县| 乡城县| 宁陵县| 辽源市| 会理县| 荔波县| 司法| 社会| 台东市| 慈溪市| 寿阳县| 大宁县| 裕民县| 南和县| 区。|