王治鈞
伊亞德·拉萬(wàn)(Iyad Rahwan)是敘利亞裔澳大利亞科學(xué)家,他的研究涵蓋了計(jì)算機(jī)社會(huì)科學(xué)和人工智能所涉及的倫理規(guī)范等,處于計(jì)算機(jī)和社會(huì)科學(xué)的交叉領(lǐng)域,其中包括自動(dòng)駕駛技術(shù)的倫理思考。
伊亞德·拉萬(wàn)在演講中提出了自己的假設(shè):在2030年的某一天,你和家人坐在一輛無(wú)人駕駛汽車?yán)?,悠閑地看著投放在車前窗屏幕上的電影。突然前方路口出現(xiàn)緊急情況,你的車根本停不下來(lái)。如左圖,左拐,可能會(huì)撞上障礙物,車毀人亡;右拐可能會(huì)撞到等紅綠燈的人群;直行會(huì)撞到路上的行人和狗。
此時(shí),這輛車的自動(dòng)駕駛技術(shù)該怎么做?又該是誰(shuí)來(lái)預(yù)設(shè)這個(gè)算法呢?預(yù)設(shè)好的程序、基于某種目標(biāo)算法的撞擊方向、系統(tǒng)性的傾向,自動(dòng)駕駛的技術(shù)問題就變成倫理道德問題。
其實(shí)上述假設(shè)是受到了電車難題的啟發(fā),這是幾十年前由一群哲學(xué)家發(fā)起的對(duì)道德的考問。電車難題指的是一輛剎車失靈的電車面臨鐵路分叉口,一條鐵軌上有5名工人,另外一條鐵軌上有1名工人,如果你是扳道工或者司機(jī),你會(huì)選擇哪條路?
調(diào)查顯示,大約90%的人會(huì)選擇犧牲1人來(lái)拯救5個(gè)人的生命。
但是,當(dāng)假設(shè)發(fā)生變化,即軌道上的5名工人可能會(huì)被電車輾軋,如果從天橋上推下1個(gè)人就可以讓火車停下,你是否愿意去推這個(gè)人?這種情況下,大部分人會(huì)改變自己的選擇,認(rèn)為不應(yīng)該有意去傷害一個(gè)人,應(yīng)該讓車自然行駛,即使這樣會(huì)傷害到更多的人。
在自動(dòng)駕駛領(lǐng)域也面臨類似的道德困境——緊急情況下,技術(shù)應(yīng)該優(yōu)先保護(hù)哪些人或犧牲哪些人?此外,也可以引申出其他的道德困境,比如,如果讓你從以下兩輛車中選擇——一輛車在事故發(fā)生時(shí)總是試圖拯救盡可能多的生命,另一輛則會(huì)不顧一切地拯救你的生命,你會(huì)購(gòu)買哪輛車?如果汽車開始分析并考慮車?yán)锏某丝鸵约八麄兊纳娓怕剩闆r又會(huì)怎樣?一個(gè)隨機(jī)的決定會(huì)不會(huì)比一個(gè)以“最小化傷害”為原則事先設(shè)計(jì)的決定更好?
電車難題最早由英國(guó)哲學(xué)家菲利帕·福特(Philippa Foot)于1967 年提出
伊亞德·拉萬(wàn)以這一系列問題制作了一份調(diào)查問卷。他發(fā)現(xiàn),人們認(rèn)可無(wú)人駕駛汽車能為交通帶來(lái)整體改善,但是如果在極端事故中乘駕人的生命安全不是被優(yōu)先考慮的,那么他們并不會(huì)購(gòu)買無(wú)人駕駛汽車。
此后,伊亞德·拉萬(wàn)又設(shè)計(jì)了13個(gè)無(wú)人駕駛汽車剎車失靈場(chǎng)景。大家需要把自己當(dāng)成無(wú)人駕駛汽車,來(lái)決定把車開向何方。
這13個(gè)場(chǎng)景預(yù)設(shè)了很多不同的變量,以此來(lái)確定被調(diào)查者更傾向于選擇拯救多數(shù)人還是少數(shù)人,犧牲年輕人還是老人、寵物還是人類、正常行人還是闖紅燈者,甚至還會(huì)在社會(huì)地位不同的人中作出選擇。
如右圖,當(dāng)無(wú)人駕駛汽車剎車失靈時(shí),選擇撞向老先生還是小男孩?
當(dāng)無(wú)人駕駛汽車剎車失靈時(shí),選擇撞向人群自救,還是撞向障礙物,最終車毀人亡?
俄羅斯科幻小說(shuō)家艾薩克·阿西莫夫在20世紀(jì)40年代,就寫下了著名的機(jī)器人三大法則:(如右圖)機(jī)器人不能傷害人類,機(jī)器人不能違背人類的命令,機(jī)器人不能擅自傷害自己——這是按重要性由高到低排序的。
但是現(xiàn)實(shí)中太多具體事件不斷挑戰(zhàn)這些法則的底線,于是阿西莫夫又引入了第零號(hào)法則——機(jī)器人不能傷害人類這個(gè)整體。針對(duì)自動(dòng)駕駛技術(shù)來(lái)說(shuō),交通事故中無(wú)法避免的那些人員附帶傷害不僅僅是個(gè)技術(shù)問題和法律問題,它還是一個(gè)社會(huì)合作的倫理問題,是各種算法的組合,也是開發(fā)者和監(jiān)管者需要考慮到的道德困境。
數(shù)據(jù)分析表明,不同國(guó)家被調(diào)查者因文化、經(jīng)濟(jì)和背景不同,決策存在廣泛差異。這些差異預(yù)示著為自動(dòng)駕駛技術(shù)建立一套普適性的道德原則是不太可能的
圖為俄羅斯科幻小說(shuō)家艾薩克·阿西莫夫
無(wú)人駕駛汽車會(huì)是首批大規(guī)模融入人類生活的人工智能產(chǎn)品之一,所以在自動(dòng)駕駛方面所發(fā)生的一系列事情都將為其他人工智能和機(jī)器人技術(shù)定下基調(diào)。但是有一條需要謹(jǐn)記——算法是有價(jià)值觀的,因?yàn)樗惴ǖ谋澈笫侨耍惴ǖ膬r(jià)值觀就是人的價(jià)值觀,算法的缺陷是價(jià)值觀上的缺陷。倫理難題既非自動(dòng)駕駛技術(shù)所專有,也無(wú)須由自動(dòng)駕駛技術(shù)來(lái)終結(jié),更不應(yīng)該成為其應(yīng)用推廣的阻礙。