冷曉琨
在7月1—3日召開的夏季達(dá)沃斯論壇上,作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力,人工智能毫不意外也是論壇的熱門話題。人工智能的“信任”問題便是其中議題之一。人工智能的信任問題一直伴隨著其發(fā)展被公眾廣泛關(guān)注,不少人對(duì)人工智能的成果是否會(huì)給人類和社會(huì)帶來危害一直存在擔(dān)憂,甚至不少大公司對(duì)從事相關(guān)技術(shù)工作的工程師已經(jīng)開始進(jìn)行特殊的道德培訓(xùn)。之前,DeepFake“AI換臉”和DeepNude “一鍵脫衣”再次引發(fā)人們對(duì)于“人工智能到底能干什么,我們真的能信任人工智能嗎?”的討論。
事實(shí)上,可以從兩個(gè)角度來看:人工智能是否能夠信任?是否值得信任?
是否能夠信任討論的是“準(zhǔn)確性”問題,人工智能技術(shù)與產(chǎn)品的成熟度,是否已達(dá)到提供精準(zhǔn)服務(wù)的水平?以自動(dòng)駕駛為例,2018年上半年發(fā)生了4起車禍:Uber自動(dòng)駕駛車致路人死亡、特斯拉Model S 追尾消防車、特斯拉Model 3翻車入河、福特Argo致乘客受傷,一系列事故似乎讓人根本不敢接受自動(dòng)駕駛。然而,據(jù)特斯拉2018年第四季度安全報(bào)告數(shù)據(jù)顯示:自動(dòng)駕駛的特斯拉車輛,平均每291萬英里會(huì)出現(xiàn)一起事故;由人類駕駛的特斯拉車輛,平均每158英里出現(xiàn)一次事故。這樣看來,人工智能似乎比人更加能夠被信任。事實(shí)上,人工智能作為一種新興技術(shù),像歷史上任何技術(shù)的發(fā)展一樣會(huì)漸趨成熟。當(dāng)我們?cè)谶@里討論人工智能是否能夠被信任時(shí),它已經(jīng)漸漸地走進(jìn)搜索引擎、打車軟件、學(xué)習(xí)助手,走進(jìn)家庭、安防、交通、醫(yī)院及學(xué)校等各個(gè)領(lǐng)域。因此,我們應(yīng)該樂觀而謹(jǐn)慎地對(duì)待新技術(shù)的發(fā)展過程。
是否值得被信任討論的是“安全性”問題,是人們對(duì)于未知人工智能時(shí)代的極端想象與恐懼。2019年6月,“波士頓動(dòng)力Atlas機(jī)器人”的新視頻在社交媒體瘋傳,視頻中機(jī)器人因?yàn)闇y(cè)試人員對(duì)其施暴而采取反擊,最終演變成人與機(jī)器人的混戰(zhàn)。雖然這則視頻后被證實(shí)為合成,但隨著人工智能的急速發(fā)展,人類是否會(huì)被機(jī)器人取代?能夠自我學(xué)習(xí)、修復(fù)、完善的機(jī)器人是否會(huì)在某一天突然失控,成為妄圖統(tǒng)治人類的怪物?
人工智能是以程序來模擬人腦認(rèn)知、推理和決策的系統(tǒng)科學(xué),其核心目的是使機(jī)器能夠勝任一些只有人才能承擔(dān)的工作與任務(wù),本質(zhì)是海量數(shù)據(jù)的訓(xùn)練、推理及決策。盡管目前世界上最先進(jìn)的機(jī)器人還遠(yuǎn)遠(yuǎn)不能成為終結(jié)者,但我們不得不承認(rèn),人工智能對(duì)人類發(fā)展的影響已經(jīng)產(chǎn)生。
那我們又該如何建立防范機(jī)制?就目前來看,人工智能應(yīng)用的領(lǐng)域越來越廣,人們的長相、身體、年齡、喜好、情緒、需求等各種數(shù)據(jù)被人工智能采集、分析,并通過疾病診斷、消防營救、機(jī)器人教育、犯罪預(yù)警、自動(dòng)駕駛等各種形式為其服務(wù)。隨著技術(shù)逐漸強(qiáng)大,服務(wù)快速延伸,人工智能公司也開始通過在技術(shù)和人員方面建立防護(hù)機(jī)制來尋求用戶的信賴,以獲得長遠(yuǎn)的發(fā)展。
樂聚機(jī)器人CEO常琳接受采訪時(shí)曾說:“我們?cè)跈C(jī)器人研發(fā)時(shí)就搭建了信任系統(tǒng),以此作為技術(shù)管制的手段。工程師必須按照控制框架進(jìn)行設(shè)計(jì),以保證程序和信息的安全。保密、透明、防護(hù)是我們機(jī)器人設(shè)計(jì)的三個(gè)重要安全準(zhǔn)則。”
人員是技術(shù)安全的關(guān)鍵因素。2018年底,埃森哲和英特爾合作調(diào)查了305家企業(yè),其中70%的公司對(duì)其從事人工智能相關(guān)技術(shù)工作的人員進(jìn)行了道德培訓(xùn)。盡管道德培訓(xùn)不是防范人工智能“破壞性行為”的關(guān)鍵手段,但也一定是必須有的措施之一。
除了企業(yè)的主動(dòng)性防護(hù)機(jī)制,第三方審查也是建立人工智能信任機(jī)制的重要方式。對(duì)于初生的人工智能產(chǎn)業(yè)來說,需要清晰的標(biāo)準(zhǔn)和嚴(yán)格的監(jiān)管機(jī)構(gòu)來規(guī)范行業(yè)行為,維護(hù)合格合規(guī)產(chǎn)品及用戶的權(quán)益。