編者按:
面對科技的迅猛發(fā)展,我國制定了《新一代人工智能發(fā)展規(guī)劃》,將人工智能上升到國家戰(zhàn)略層面,提出:人工智能產(chǎn)業(yè)要成為新的重要經(jīng)濟(jì)增長點,而且要在2030年達(dá)到世界領(lǐng)先水平,讓中國成為世界主要人工智能創(chuàng)新中心,為躋身創(chuàng)新型國家前列和經(jīng)濟(jì)強(qiáng)國奠定重要基礎(chǔ)。我國正處于技術(shù)創(chuàng)新的關(guān)鍵期,融合應(yīng)用的擴(kuò)張期,搶占主導(dǎo)權(quán)的戰(zhàn)略機(jī)遇期,需要加快構(gòu)建人工智能倫理和法律體系,形成基礎(chǔ)支撐和根本保障。針對這些問題,《人工智能》一書進(jìn)行了初步探索和回應(yīng),為讀者提供了有價值的參考。
2016年5月7日,美國佛羅里達(dá)州一位名叫Joshua Brown的40歲男子開著一輛以自動駕駛模式行駛的特斯拉Model S在高速公路上行駛,全速撞到一輛正在垂直橫穿高速的白色拖掛卡車,最終造成車毀人亡。大家普遍關(guān)注的問題是,既然是自動駕駛,那么發(fā)生事故后應(yīng)當(dāng)由誰來承擔(dān)相應(yīng)的法律責(zé)任呢?能否對AI或者自主系統(tǒng)加以問責(zé)呢?
法律責(zé)任的劃分和承擔(dān)是人工智能發(fā)展面臨的首要法律挑戰(zhàn),其涉及如何確保人工智能和自主系統(tǒng)是可以被問責(zé)的。法律責(zé)任的設(shè)定,在于追究法律責(zé)任,保障有關(guān)主體的合法權(quán)利,維護(hù)法律所調(diào)整的社會關(guān)系和社會秩序。在特斯拉事件中,美國國家公路安全管理局(NHTSA)最終得出調(diào)查結(jié)果,特斯拉的自動駕駛模式設(shè)計并無明顯缺陷。但對于自動駕駛事故的法律責(zé)任如何界定,NHTSA并沒有給出明確的結(jié)論,NHTSA指出,其對于自動駕駛功能的可靠性監(jiān)控還沒有結(jié)束,并保留了在必要時再次介入調(diào)查的權(quán)利。
進(jìn)入人工智能時代后,人工智能系統(tǒng)已經(jīng)可以在不需要人類的操作和監(jiān)督下獨立完成部分工作,而機(jī)器自主性操作造成的損害如何來判斷和劃分其責(zé)任成為一大難題。特斯拉事件中,至少從目前的調(diào)查情況來看,駕駛員、汽車生產(chǎn)商都沒有過錯,但事故還是發(fā)生了,需要有人來承擔(dān)責(zé)任,這種情況下如何對各方責(zé)任進(jìn)行界定就陷入了困境。
2016年12月,電氣和電子工程師學(xué)會(IEEE)發(fā)布了《合倫理設(shè)計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》,提出的基本原則之二就是責(zé)任原則。其指出,為了解決過錯問題,避免公眾困惑,人工智能系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,證明其為什么以特定方式運(yùn)作。
7月5日上午,在2017百度AI開發(fā)者大會上,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏通過視頻直播展示了一段自己乘坐公司研發(fā)的無人駕駛汽車的情景。視頻中,李彥宏坐在一輛紅色汽車的副駕駛座位上,視頻中駕駛座位沒有駕駛員。對此,北京交管部門發(fā)布情況通報稱,正在積極開展調(diào)查核實,公安交管部門支持無人駕駛技術(shù)創(chuàng)新,但應(yīng)當(dāng)合法、安全、科學(xué)進(jìn)行。很多人認(rèn)為李彥宏的做法欠妥,但根據(jù)我國現(xiàn)行法律法規(guī),并沒有推出針對自動駕駛汽車的相關(guān)規(guī)定。
美國和德國在自動駕駛領(lǐng)域的立法主要集中在責(zé)任界定方面。美國道路交通安全管理局于2013年發(fā)布《自動駕駛汽車的基本政策》,包括內(nèi)華達(dá)州、加利福尼亞州、佛羅里達(dá)州、密歇根州在內(nèi)的9個州也通過了自動駕駛汽車立法,對自動駕駛汽車測試事故的責(zé)任承擔(dān)做了規(guī)定,即車輛在被第三方改造為自動駕駛車輛后,測試過程中導(dǎo)致財產(chǎn)損失、人員傷亡的,車輛的原始制造商不對自動駕駛車輛的缺陷負(fù)責(zé),除非有證據(jù)證明車輛在被改造成自動駕駛車輛前就已存在缺陷。例如谷歌用奔馳汽車進(jìn)行測試,安全責(zé)任由谷歌來承擔(dān)。
隨著智能機(jī)器人越來越廣泛地應(yīng)用,其責(zé)任界定問題也引發(fā)了各方的高度關(guān)注和重視。2016年8月,聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會在《關(guān)于機(jī)器人倫理的初步草案報告》中對機(jī)器人的責(zé)任進(jìn)行了探討,提出了一個可行的解決辦法,即采取責(zé)任分擔(dān)的解決途徑,讓所有參與到機(jī)器人的發(fā)明、授權(quán)和分配過程中的人來分擔(dān)責(zé)任。
在目前的法律框架下,機(jī)器人自身不對因其行為或者疏忽而給第三方造成的損害承擔(dān)責(zé)任。而且,既有責(zé)任規(guī)則要求機(jī)器人的行為或疏忽能夠歸因于制造商、所有人、使用者等特定法律主體,并且這些主體能夠預(yù)見并避免機(jī)器人的加害行為。更進(jìn)一步,關(guān)于危險物品的責(zé)任和產(chǎn)品責(zé)任可以讓這些法律主體為機(jī)器人的行為承擔(dān)嚴(yán)格責(zé)任。但是,如果機(jī)器人自主地作出決策,傳統(tǒng)的責(zé)任規(guī)則就將不足以解決機(jī)器人的責(zé)任問題,因為傳統(tǒng)的規(guī)則將可能不能確定責(zé)任方并讓其作出賠償。
在非合同責(zé)任方面,既有的產(chǎn)品責(zé)任規(guī)則僅能涵蓋因機(jī)器人的制造缺陷而造成的損害,同時受害人必須能夠證明存在實際損害、產(chǎn)品缺陷且缺陷與損害之間具有因果關(guān)系。但是,目前的法律框架無法完全涵蓋新一代機(jī)器人所造成的損害,因為這些機(jī)器人將從自己變幻莫測的經(jīng)歷中自主學(xué)習(xí),并且以獨特且不可預(yù)見的方式與其所處環(huán)境進(jìn)行交互。
人工智能的快速發(fā)展和應(yīng)用確實給人類社會帶來了諸多問題,但是我們?nèi)匀挥欣碛上嘈欧芍贫饶軌蛟诓蛔璧K創(chuàng)新的前提下,控制人工智能帶來的公共危險。因此,如何構(gòu)建一個結(jié)構(gòu)合理的責(zé)任體系,對人工智能項目的設(shè)計者、生產(chǎn)者、銷售者以及使用者等在內(nèi)的主體責(zé)任義務(wù)進(jìn)行清楚的界定變得十分重要。IEEE在《合倫理設(shè)計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》中對不同主體在人工智能責(zé)任方面應(yīng)當(dāng)采取的措施進(jìn)行了詳細(xì)闡述,指出:立法機(jī)構(gòu)應(yīng)當(dāng)闡明人工系統(tǒng)開發(fā)過程中的職責(zé)、過錯、責(zé)任、可責(zé)性等問題,以便于制造商和使用者知曉其權(quán)利和義務(wù);人工智能設(shè)計者和開發(fā)者在必要時考慮使用群體的文化規(guī)范的多樣性;利益相關(guān)方應(yīng)當(dāng)在人工智能及其影響超出了既有規(guī)范之外時一起制定新的規(guī)則;自主系統(tǒng)的生產(chǎn)商和使用者應(yīng)當(dāng)創(chuàng)建記錄系統(tǒng),記錄核心參數(shù)。
(本文節(jié)選自《人工智能》一書,內(nèi)容有刪減,標(biāo)題為編輯添加。)