楊欣
2016年6月,在連續(xù)因自動駕駛造成交通事故,并導致駕駛者出現(xiàn)傷亡后,美國高速公路交通安全管理局(NHTSA)針對特斯拉的Autopilot系統(tǒng)功能展開調(diào)查。經(jīng)過半年的調(diào)查,美國高速公路交通安全管理局在當?shù)貢r間2017年1月19日宣布,并未發(fā)現(xiàn)特斯拉Autopilot功能存在問題,同時不會要求特斯拉對汽車進行召回。
事故原因
要理解這一事故的前因后果,需要簡單回顧一下事件經(jīng)過。2016年5月,一位名叫約書亞·布朗的駕駛者駕駛Model S與一輛卡車相撞,并在事故中喪生。當時布朗駕駛的Model S處于部分自動駕駛狀態(tài),這也是全球第一起因自動駕駛而致死的事故。當時,布朗開著他的Model S行駛在一條公路上,Autopilot處于開啟模式,此時一輛拖掛車以與Model S垂直的方向穿越公路,Model S與拖掛車相撞,造成布朗死亡。
美國高速公路安全管理局的結(jié)論是,特斯拉Autopilot不是完全自動駕駛系統(tǒng),它根本無法應對所有路況,司機不應該依靠它來防止此類事故。在接受調(diào)查時,特斯拉公司也向美國高速公路交通安全管理局下屬的缺陷調(diào)查辦公室提供了配置Autopilot技術的Model S和Model X等汽車在2014~2016年所有行駛里程和安全氣囊相關的數(shù)據(jù)。
調(diào)查人員利用這些數(shù)據(jù)計算了Autopilot系統(tǒng)安裝前后的撞車率,得出特斯拉安裝了Autopilot系統(tǒng)后汽車更安全的結(jié)論。美國高速公路交通安全管理局在報告中也認同這一觀點,自從特斯拉汽車于2015年安裝了Autosteer(方向盤自主轉(zhuǎn)向)軟件以來,特斯拉汽車的撞車率已經(jīng)下降了40%左右。Autosteer是Autopilot系統(tǒng)的功能之一,能夠讓特斯拉汽車保持在自己的車道上行使,即使遇到彎道仍能夠讓汽車自行轉(zhuǎn)彎。
盡管美國高速公路交通安全管理局的調(diào)查宣告結(jié)束,并得出了對特斯拉有利的結(jié)論,但這并非終極結(jié)論,因為美國國家運輸安全委員會針對這一事故的調(diào)查仍在進行之中。
另一方面,上述調(diào)查結(jié)果還不是事故的全部原因。根據(jù)特斯拉的調(diào)查,另一個原因才是此次事故的根本原因。強烈的日照和拖掛車白色車身讓Model S的Autopilot系統(tǒng)攝像頭短暫“失明”,未能夠在白天強光下及時發(fā)現(xiàn)拖掛車白色側(cè)面的反光,導致在自動駕駛模式下的剎車功能未能緊急啟動。Model S與拖掛車相撞,其前擋風玻璃與拖掛車底部發(fā)生撞擊,車主布朗不幸身亡。
這個原因既是人工智能的技術問題,也道出了人工智能的本質(zhì)。既然特斯拉Autopilot沒有錯,人就有錯。因為特斯拉Autopilot的攝像頭有問題。但是,即便攝像頭沒有問題,特斯拉Autopilot是否能分辨出道路上的實體車和虛擬車,以及雨天和霧天強烈陽光照射后出現(xiàn)的折光甚至彩虹?
這個問題是要打問號的。因為,人不會完全教會自動駕駛汽車正確識別道路上的所有障礙物和危險情況。反過來也說明,這實際上還是人工智能的錯誤,因為它們還不能像人一樣學習并獲得符合道路實際情況的正確知識。
人工智能尚難比肩人類的智能
人工智能賴以立身的基礎是機器學習(算法)和深度學習。對于前者,或許是人工智能的優(yōu)勢,因為在涉及數(shù)據(jù)和演算方面,人確實不是計算機的對手,因此當計算機掌握了某一游戲的所有算法、棋譜時,人類當然無法抵御人工智能。但是,在深度學習上,人工智能還處于非常幼稚的階段,例如對圖形和實物的認知,對邏輯推理的學習,以及對所有未知事物的學習和認知。
一個幼兒園的小孩看過一張貓的圖片后,能馬上辨認出另一張圖片中的貓,同時幾歲的孩子在生活中見過貓之后,在后來的時間看見貓就能辨認出來。但是,谷歌圖像識別系統(tǒng)(一種應用人工智能)看過和學習過成千上萬張貓的照片后,才能從圖片中識別貓,但是準確率大大低于小孩。而且,即便在圖片上人工智能能認識貓,在現(xiàn)實生活中未必能識別真實的貓,也即人工智能區(qū)別實物和圖像或虛擬事物完全無法與人類相比。
特斯拉Autopilot在強烈陽光照耀下“亮瞎了眼睛”固然是技術原因,但也說明,即便它的攝像頭沒出故障,它學習和識別道路上的某些障礙物還不及人類的孩子。原因是,它可能沒有遇到過諸如光的折射、彩虹一類的情況,而且人類還不足以教會它識別這類情況。即便汲取這次事故教訓,改進了特斯拉Autopilot的攝像系統(tǒng),使其能識別白色汽車和其他障礙物,并采取躲避或剎車,但是,遇到陽光照射到黑色、藍色、紅色或所有顏色的汽車時,特斯拉Autopilot的攝像是否不會出問題,而且都能識別出來?如果不能,車禍也難以避免。
現(xiàn)階段,盡管深度思維(Deep Mind)公司設計的Master能連續(xù)戰(zhàn)勝包括棋圣聶衛(wèi)平在內(nèi)的60名圍棋大師,但總體而言,人工智能目前的智能還是非常低級,有時連嬰兒的智商還不如,再加上技術問題,如特斯拉Autopilot的攝像頭在強烈陽光反射白色物體后短暫失明,就更容易造成事故。
當然,強烈陽光反射白色物體也會讓人的眼睛眩目而看不清前方的情況。但是,如果是車主布朗自己開車,在受到強烈的眩目刺激后就會產(chǎn)生本能的躲避行為,提前預判前面可能有障礙物,一是緩行,二是剎車,從而避免車禍的發(fā)生。
人工智能的學習廣袤無邊
這實際上涉及人工智能無論是算法還是深度學習的廣度問題,凡是人工智能沒有看過、學習過和接觸過的東西,它都無法感知、辨認和識別,從而無法理解,因此難以形成正確的決策。
對于人工智能來說,這種學習的廣度實在是廣袤無邊,凡是人類社會的東西和事物,都是其未學習和接觸過的,就本質(zhì)來說,即便人工智能學習了,能感知人類社會的東西,但其感知也與人的不一樣。例如,戰(zhàn)勝60位大師的Master并不知道它在做什么,只是在按一定的算法和程序在做決定。
對于它未學習過的東西,人工智能就會不不知所措,而且不知道邏輯推理,犯錯誤和發(fā)生事故也在所難免。2011年2月16日,在美國益智類電視節(jié)目《風險》上,經(jīng)過3天(三輪)人機大戰(zhàn),IBM的超級計算機沃森(Watson)電腦戰(zhàn)勝了人類頂級高手肯·詹寧斯和布拉德·拉特。但是,沃森在非常簡單的一些問題和邏輯推理上卻不如人類。
例如,在回答“一個語言的方言包括吳語、粵語和客家話,這種語言是什么”時,沃森答錯,詹寧斯答對。因為沃森沒有學習過吳語,在邏輯上并不理解吳語、粵語和客家話其實就是中國人除普通話以外的方言。
人工智能仍然值得探索
如果人工智能不具有像人一樣的識別和辨認現(xiàn)實環(huán)境的能力,自動駕駛或無人駕駛就可能永遠是一種理想。既然部分自動駕駛以及完全自動駕駛存在危險,為何還要研發(fā)這類產(chǎn)品并推向市場呢?
美國高速公路交通安全管理局的調(diào)查報告給出了一個答案,以特斯拉汽車行駛里程數(shù)和安全氣囊數(shù)據(jù)為依據(jù),對特斯拉Autopilot推送Autosteer這個軟件前后汽車的事故率進行對比,汽車事故率從推送前的1.3次/百萬千米下降到推送后的0.8次/百萬千米。汽車事故率下降了近40%左右。特斯拉的CEO伊隆·馬斯克稱,即便退一萬步講,現(xiàn)在特斯拉的部分無人駕駛系統(tǒng)只比人工好1%,那么一年車禍導致的120萬人死亡里面,人工智能也能拯救1.2萬人。
另一方面,人工智能的探索也像其他學科的探索一樣,只能積跬步至千里,聚小流成江海。如果把現(xiàn)實生活的路面情況的各種參數(shù)設計得更為全面,包羅萬象,教會人工智能進行更全面和更深度的學習和分析,也許可以逐步達到與人同樣的辨析路況的智能而不會出車禍。
當然,最根本的問題是,即便人工智能的深度學習能與人媲美,人類也不能完全把命運交給人工智能來處理。這才是發(fā)展人工智能的不可違背的核心原則。
特斯拉的Autopilot出問題,就是車主布朗非常依賴Autopilot的自動駕駛功能,一切交由Autopilot來處理,布朗在車禍發(fā)生前沒有使用剎車,他最后一個動作是將自動巡航速度設置為74英里/小時(119千米/小時),但兩分鐘后就發(fā)生了車禍。然而,如果布朗是自己駕駛,他完全可以觀察到那輛拖掛車,在事故發(fā)生前采取如剎車、轉(zhuǎn)向等方式,遺憾的是,他并未采取任何有效措施。
所以,美國高速公路交通安全管理局在關于特斯拉Autopilot車禍報告中既指出Autopilot不存在導致致命車禍的缺陷,但也指出,在遇到交通路口時,人們不應當過度依賴Autopilot來檢測相應的路況,因為車主布朗在撞上卡車之前,有充分的時間(長達7秒)來踩剎車。
【責任編輯】張?zhí)锟?