根據(jù)科幻作家阿西莫夫的同名小說(shuō)改編的電影《我,機(jī)器人》里有這樣一個(gè)場(chǎng)景:2035年的一個(gè)早晨,機(jī)器人與人類一起穿梭在美國(guó)芝加哥繁忙的街道上,它們?cè)谒涂爝f,幫主人遛狗,做搬運(yùn)工,急著回家給主人拿急救藥品——這并非遙不可及,日前,谷歌公司的機(jī)器人汽車項(xiàng)目就有可能讓這一虛構(gòu)成為現(xiàn)實(shí)。
今年5月,美國(guó)內(nèi)華達(dá)州為一輛搭載谷歌智能駕駛系統(tǒng)的汽車頒發(fā)了牌照,允許這輛無(wú)須人工駕駛的汽車在公共道路上測(cè)試行駛。據(jù)行業(yè)人士預(yù)計(jì),自動(dòng)駕駛汽車在歐美有望于3年至5年后投入使用。
根據(jù)國(guó)際機(jī)器人聯(lián)合會(huì)網(wǎng)站公布的數(shù)據(jù),自1961年以來(lái),全球機(jī)器人的銷售總量已達(dá)230萬(wàn),2011年銷量最高,達(dá)到16萬(wàn)臺(tái)。眼下,全球機(jī)器人產(chǎn)業(yè)已處在一個(gè)蓬勃發(fā)展的上升期。
阿西莫夫定律的困境
當(dāng)機(jī)器人越來(lái)越多地滲透到人們的生活中,由此引發(fā)的法律與道德問(wèn)題也隨之而來(lái)。
英國(guó)謝菲爾德大學(xué)人工智能與機(jī)器人學(xué)教授諾爾#8226;沙吉舉例說(shuō),設(shè)想你的機(jī)器人汽車正在開往停車場(chǎng),此時(shí)一個(gè)兒童正在附近玩耍。一輛卡車開來(lái),濺起的塵土干擾了機(jī)器人汽車的傳感器,機(jī)器人汽車因不能感知兒童的存在而造成交通事故。那么誰(shuí)應(yīng)該對(duì)此負(fù)責(zé),是機(jī)器生產(chǎn)廠家、軟件工程師還是機(jī)器人自身?
隨著機(jī)器人越來(lái)越聰明,用途越來(lái)越廣泛,機(jī)器人最終將面臨這樣一種情境:在不可預(yù)知的條件下做出道德判斷——在有平民存在的情況下,無(wú)人飛機(jī)是否應(yīng)該對(duì)目標(biāo)所在房間開火?參與地震救援的機(jī)器人是否應(yīng)該告訴人們?yōu)碾y真相,即使那樣會(huì)引發(fā)恐慌?機(jī)器人汽車是否應(yīng)該為了避免撞到行人而突然轉(zhuǎn)向,即使那樣會(huì)撞到其他人?
1942年,阿西莫夫提出了機(jī)器人三定律:機(jī)器人不得傷害人類,或者目睹人類將遭受危險(xiǎn)而袖手不管;機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。
看似完美的三定律在電影《我,機(jī)器人》中遇到了麻煩;在兒童和成人同時(shí)出現(xiàn)交通事故時(shí),機(jī)器人會(huì)計(jì)算出成人存活率高,選擇優(yōu)先救成年人,而不是兒童。在這種情況下,如何教會(huì)機(jī)器人進(jìn)行道德判斷就被提上了日程。
像人一樣學(xué)習(xí)道德
怎么教機(jī)器人學(xué)會(huì)道德判斷?《道德機(jī)器:教會(huì)機(jī)器人如何判斷對(duì)和錯(cuò)》一書的作者之一、美國(guó)印第安納大學(xué)科學(xué)史和科學(xué)哲學(xué)系教授科林#8226;艾倫表示,這要從人類修習(xí)德行的方法中去尋找。
他舉例說(shuō),2010年4月的美國(guó)紐約街頭,一名見義勇為的男子在與歹徒搏斗后奄奄一息,但在近兩個(gè)小時(shí)里,先后有20多名行人路過(guò)卻無(wú)人伸出援手。該男子終因失血過(guò)多而死亡。人們對(duì)道德的理解有時(shí)候并不和實(shí)際行動(dòng)相符。為什么會(huì)這樣呢?
對(duì)此,艾倫解釋說(shuō),在現(xiàn)實(shí)中,人們往往“本能地”做出反應(yīng),并沒有考慮行為所產(chǎn)生的道德問(wèn)題。古希臘哲學(xué)家亞里士多德就認(rèn)為,人需要在現(xiàn)實(shí)中不斷地踐行有道德的行為,最終使其成為一種習(xí)慣。在以后再遇到道德選擇時(shí),才能不經(jīng)思考就能表現(xiàn)出良好的品行。
因此,艾倫認(rèn)為,可以設(shè)計(jì)一些具有簡(jiǎn)單規(guī)則的機(jī)器人汽車。當(dāng)汽車遇到上述情況的時(shí)候,學(xué)習(xí)著去進(jìn)行救助,然后再根據(jù)一些道德規(guī)范,對(duì)機(jī)器人汽車的“救助”行為進(jìn)行分析和肯定,從而逐漸培養(yǎng)起它們的道德感。
然而,另一個(gè)更為復(fù)雜的問(wèn)題接踵而來(lái)。當(dāng)人類本身尚對(duì)諸如網(wǎng)絡(luò)下載、墮胎以及安樂死等問(wèn)題的看法存在分歧的時(shí)候,工程師們也不知道應(yīng)該將哪一套道德體系輸入機(jī)器人。同時(shí),將一種價(jià)值判斷應(yīng)用于具體案例時(shí),也會(huì)有分歧。比如,在不傷害到別人的情況下,實(shí)話被認(rèn)為是美德。如果說(shuō)謊能促進(jìn)友誼,且不傷害到雙方,這時(shí)說(shuō)謊就是“對(duì)的”?;谌祟惖赖碌牟町愋裕瑱C(jī)器人的道德可能會(huì)有若干版本。
當(dāng)機(jī)器人像人一樣開始學(xué)習(xí)并實(shí)踐道德,它們是否會(huì)超越和取代人類?艾倫說(shuō),他現(xiàn)在還不擔(dān)心這一點(diǎn),眼下需要做的事是如何教會(huì)機(jī)器人做出正確的道德判斷。至于怎樣的道德判斷是正確的,這個(gè)問(wèn)題,恐怕連人類有時(shí)候都還沒有弄清楚。