魏強(qiáng) 陸平
人工智能風(fēng)險(xiǎn)日漸顯現(xiàn)
近年來(lái),人工智能發(fā)展迅猛,國(guó)外的Google、微軟、蘋果、特斯拉,我國(guó)的百度、騰訊、阿里巴巴等,這些企業(yè)都紛紛通過(guò)自主研發(fā)、收購(gòu)兼并等途徑跨界進(jìn)入人工智能領(lǐng)域。同時(shí),隨著人工智能技術(shù)的大規(guī)模應(yīng)用,其安全隱患和發(fā)展風(fēng)險(xiǎn)日漸顯現(xiàn)。大眾一般認(rèn)為,新技術(shù)的研發(fā)是難度最大的,應(yīng)用及監(jiān)管與研發(fā)相比難度就會(huì)低很多。但對(duì)于將深遠(yuǎn)影響人類社會(huì)運(yùn)營(yíng)方式的人工智能來(lái)說(shuō),情況或許正好相反。那么人工智能存在哪些風(fēng)險(xiǎn)?監(jiān)管的難點(diǎn)又是什么?具體有以下三方面。
產(chǎn)品應(yīng)用后果預(yù)判難
隨著計(jì)算能力的不斷攀升,人工智能可以計(jì)算大量的可能性,其選擇空間往往大于人類,它們能夠輕易地去嘗試那些人類以前從未考慮的解決方案。換言之,盡管人們?cè)O(shè)計(jì)了某人工智能產(chǎn)品,但受限于自身的認(rèn)知能力,研發(fā)者無(wú)法預(yù)見(jiàn)其所研發(fā)的智能產(chǎn)品做出的決策以及產(chǎn)生的效果。如果其效果與人們利益保持一致,便不會(huì)引發(fā)人們的擔(dān)憂。然而,基于深度學(xué)習(xí)技術(shù)的新一代人工智能產(chǎn)品大都具備自學(xué)習(xí)能力和自適應(yīng)能力,如果放任自流,難以保證其行為結(jié)果與大眾期望始終一致。
例如,美國(guó)一些法院使用犯罪風(fēng)險(xiǎn)評(píng)估算法COMPAS對(duì)犯罪人的再犯風(fēng)險(xiǎn)進(jìn)行評(píng)估,非營(yíng)利組織ProPublica研究發(fā)現(xiàn),這一算法系統(tǒng)性地歧視了黑人,白人更多被錯(cuò)誤地評(píng)估為具有低犯罪風(fēng)險(xiǎn),而黑人則被錯(cuò)誤地評(píng)估為具有高犯罪風(fēng)險(xiǎn)且?guī)茁适前兹说膬杀?。再如?016年3月,微軟公司的人工智能聊天機(jī)器人Tay上線不到24小時(shí),就在一些網(wǎng)友的惡意引導(dǎo)和訓(xùn)練下,發(fā)表了各種富有攻擊性和歧視性的言論。最近,據(jù)亞馬遜Echo智能音箱用戶反映,自家搭載亞馬遜智能語(yǔ)音助手的Alexa在回應(yīng)某些命令時(shí)發(fā)出令人毛骨悚然的笑聲,對(duì)用戶造成不小的心理陰影。
事后確定責(zé)任歸屬難
人工智能產(chǎn)品一旦出現(xiàn)安全問(wèn)題,劃分責(zé)任歸屬可能會(huì)異常復(fù)雜,主要有以下原因:一是由于人工智能系統(tǒng)通常借助虛擬社區(qū)(如Github開(kāi)源平臺(tái))進(jìn)行協(xié)同研發(fā),開(kāi)發(fā)過(guò)程中可能會(huì)用到許多其他人開(kāi)發(fā)的組件,數(shù)量眾多的潛在責(zé)任人給權(quán)責(zé)劃分帶來(lái)了困難。二是大多數(shù)人工智能產(chǎn)品的內(nèi)部運(yùn)作并不透明,多數(shù)企業(yè)尚未公開(kāi)其智能產(chǎn)品的源代碼、訓(xùn)練數(shù)據(jù)及測(cè)試信息等,從而增加了監(jiān)管部門確定責(zé)任歸屬的難度。例如,訓(xùn)練人工智能模型時(shí)需要招募大量的人員(通常采用眾包模式)來(lái)對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注,然而這些群體往往具有根深蒂固的偏見(jiàn),從而導(dǎo)致人工智能產(chǎn)品攜帶了某特定群體的偏見(jiàn)。三是許多人工智能產(chǎn)品在設(shè)計(jì)之初,便包含了諸多不受控機(jī)制(如后天自學(xué)習(xí)、自適應(yīng)能力),一旦出現(xiàn)事故,大量法律灰色地帶給企業(yè)推諉責(zé)任帶來(lái)了便利。
例如,2016年5月,在美國(guó)佛羅里達(dá)州,一輛特斯拉S型電動(dòng)轎車在開(kāi)啟Autopilot輔助駕駛模式下與一輛垂直橫穿高速的白色拖掛卡車發(fā)生撞車事故,車頂被削平,導(dǎo)致駕駛員不幸遇難,針對(duì)這起事故的責(zé)任判定存在嚴(yán)重分歧,特斯拉公司、用戶、傳感器Mobileye公司各執(zhí)一詞。再如,2017年7月,由Knightscope平臺(tái)制造的一款打擊犯罪的機(jī)器人在硅谷購(gòu)物中心工作時(shí)出現(xiàn)自主決策失誤,將一名男孩判定為危險(xiǎn)人物,撞倒并展開(kāi)攻擊,導(dǎo)致該男孩受傷。事后,在責(zé)任判定與賠償時(shí),當(dāng)事人家屬、商場(chǎng)以及機(jī)器人設(shè)計(jì)公司發(fā)生了較大分歧。
安全風(fēng)險(xiǎn)源管控難
新一代人工智能的高度自主化特征可能造成人類難以預(yù)見(jiàn)的風(fēng)險(xiǎn),加上人工智能產(chǎn)品研發(fā)過(guò)程較為分散和隱蔽,增加了事前監(jiān)管措施(比如,風(fēng)險(xiǎn)點(diǎn)監(jiān)測(cè)和預(yù)警)的難度。一是人工智能研發(fā)所需的物理設(shè)備較少,一些研發(fā)人員可以租用彈性計(jì)算服務(wù)來(lái)訓(xùn)練人工智能產(chǎn)品,由于不具備物理可見(jiàn)性,監(jiān)管部門發(fā)現(xiàn)危險(xiǎn)源的困難程度大大增加。二是研發(fā)主體極為分散。在當(dāng)今開(kāi)源編程逐漸興起的條件下,普通大眾借助個(gè)人電腦或智能手機(jī)與互聯(lián)網(wǎng)接入就能完成具有特定功能的人工智能產(chǎn)品開(kāi)發(fā),這意味著潛在危險(xiǎn)源極為分散。
比如,有研究者認(rèn)為人工智能系統(tǒng)的內(nèi)部工作模式以及各個(gè)組件之間的互相配合,比起以往的任何科技,都更加的不透明。汽車曾被認(rèn)為是最大的公共危險(xiǎn)源之一,盡管汽車擁有接近30000個(gè)物理組件,但是汽車的設(shè)計(jì)者與生產(chǎn)者非常了解這些物理組件之間是如何工作的。但反觀人工智能,即使人工智能跟隨信息科技時(shí)代的發(fā)展大趨勢(shì),它也不太可能獲得如汽車一般的透明度。復(fù)雜的人工智能系統(tǒng)在設(shè)計(jì)上存在的缺陷,不僅消費(fèi)者們難以發(fā)現(xiàn),就算是下游的生產(chǎn)商與銷售商同樣無(wú)法知曉,極易埋下安全風(fēng)險(xiǎn)隱患。
監(jiān)管體系促使人工智能發(fā)揮積極作用
目前,歐美一些國(guó)家針對(duì)人工智能存在的風(fēng)險(xiǎn)制定了相應(yīng)的防范措施、戰(zhàn)略計(jì)劃,甚至列入法案。從歸責(zé)制度、道德約束等多方面監(jiān)管人工智能帶來(lái)的風(fēng)險(xiǎn)。
人工智能安全監(jiān)管升至戰(zhàn)略高度
2016年10月,英國(guó)科學(xué)和技術(shù)委員會(huì)發(fā)布了關(guān)于人工智能和機(jī)器人技術(shù)的報(bào)告,呼吁政府應(yīng)介入對(duì)人工智能的監(jiān)管,通過(guò)建立監(jiān)管體系來(lái)保障人工智能技術(shù)更好地融入社會(huì)經(jīng)濟(jì),并產(chǎn)生符合人們預(yù)期的效果。英國(guó)政府試圖在監(jiān)管過(guò)程中引入人工智能技術(shù),以增強(qiáng)監(jiān)管的適用性,從檢驗(yàn)和確認(rèn)、決策系統(tǒng)的透明化、偏見(jiàn)最小化、隱私與知情權(quán)、歸責(zé)制度與責(zé)任承擔(dān)等方面,加強(qiáng)對(duì)人工智能安全性的管控。2017年12月,美國(guó)國(guó)會(huì)提出兩黨法案—“人工智能未來(lái)法案”(FUTURE of Artificial Intelligence Act of 2017),“人工智能未來(lái)法案”旨在要求商務(wù)部設(shè)立聯(lián)邦人工智能發(fā)展與應(yīng)用咨詢委員會(huì)(AI咨詢委員會(huì)),并闡明了發(fā)展人工智能的必要性,對(duì)人工智能相關(guān)概念進(jìn)行了梳理,明確了AI咨詢委員會(huì)的職責(zé)、權(quán)力、人員構(gòu)成、經(jīng)費(fèi)等內(nèi)容?!叭斯ぶ悄芪磥?lái)法案”作為美國(guó)國(guó)會(huì)兩黨的共識(shí),其提出受到各界廣泛歡迎,該法案如經(jīng)眾議院和參議院通過(guò),將成為美國(guó)針對(duì)人工智能的第一個(gè)聯(lián)邦法案。
漸進(jìn)創(chuàng)新方式確保監(jiān)管規(guī)則連續(xù)性
美國(guó)政府在自動(dòng)駕駛領(lǐng)域采取漸進(jìn)式監(jiān)管創(chuàng)新,在許可頒布、自動(dòng)駕駛汽車設(shè)計(jì)、駕駛系統(tǒng)等方面都制定了過(guò)渡性監(jiān)管規(guī)則。例如,2014年10月,美國(guó)加州車輛管理局將29張自動(dòng)駕駛汽車公共道路測(cè)試許可證,分別頒給了谷歌、戴姆勒、大眾三家公司,獲得許可的條件之一就是人要能夠隨時(shí)接管汽車。2015年12月,加州車輛管理局要求所有自動(dòng)駕駛汽車的駕駛座上必須始終乘坐一名擁有駕照的人士,并要求汽車在設(shè)計(jì)方面必須具備方向盤、油門踏板、制動(dòng)踏板等操控裝置,以便車主在自動(dòng)駕駛汽車系統(tǒng)操控失誤時(shí)能夠隨時(shí)接管汽車。2017年9月,美國(guó)眾議院一致表決通過(guò)了一項(xiàng)加快自動(dòng)駕駛汽車測(cè)試和部署的立法提案《自動(dòng)駕駛法案(Self Drive Act)》,這標(biāo)志著美國(guó)自動(dòng)駕駛汽車上路監(jiān)管由各州分制的情形即將終結(jié),全都服從于聯(lián)邦層面制定的自動(dòng)駕駛汽車監(jiān)管法案,按照統(tǒng)一的標(biāo)準(zhǔn)被監(jiān)管。
“人工道德”約束人工智能產(chǎn)品
目前,Google、微軟等公司已在其內(nèi)部設(shè)置了人工智能倫理委員會(huì)。太空探索技術(shù)公司(SpaceX)首席執(zhí)行官埃隆·馬斯克也于2015年底成立了人工智能非營(yíng)利組織OpenAI,試圖通過(guò)開(kāi)源、開(kāi)放預(yù)防人工智能可能帶來(lái)的災(zāi)難性影響,推動(dòng)人工智能發(fā)揮積極作用。2016年12月,標(biāo)準(zhǔn)制定組織IEEE發(fā)布《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景(第一版)》,旨在鼓勵(lì)科技人員在AI研發(fā)過(guò)程中,優(yōu)先考慮倫理問(wèn)題。這份文件由專門負(fù)責(zé)研究人工智能和自主系統(tǒng)中的倫理問(wèn)題的IEEE全球計(jì)劃下屬各委員會(huì)共同完成。這些委員會(huì)由人工智能、倫理學(xué)、政治學(xué)、法學(xué)、哲學(xué)等相關(guān)領(lǐng)域的100多位專家組成。2017年2月,馬斯克、霍金等人連同數(shù)百名研究人員、科技領(lǐng)袖和科學(xué)家聯(lián)名表示,支持人工智能應(yīng)該在生產(chǎn)力、道德和安全領(lǐng)域遵守的23條基本原則,從而確保人工智能為人類利益服務(wù)。
自我終結(jié)機(jī)制防范系統(tǒng)性失控風(fēng)險(xiǎn)
人工智能最大的威脅是當(dāng)前人類尚難以理解其決策行為,存在未來(lái)失控的風(fēng)險(xiǎn),而一旦失控則后果嚴(yán)重。正如衰老機(jī)制是內(nèi)嵌于所有生命體中的必然,人工智能應(yīng)該也存在自我毀滅機(jī)制,其否定該機(jī)制等同于否定其自身存在。2016年,谷歌旗下DeepMind公司曾提出要給人工智能系統(tǒng)安裝“切斷開(kāi)關(guān)(kill switch)”的想法,為的是阻止AI學(xué)會(huì)如何阻止人類對(duì)某項(xiàng)活動(dòng)(比方說(shuō)發(fā)射核武器)的干預(yù),這種提法被稱作 “安全可中斷性”。據(jù)介紹,安全可中斷性可用于控制機(jī)器人可能導(dǎo)致不可逆后果的行為,相當(dāng)于在其內(nèi)部強(qiáng)制加入某種自我終結(jié)機(jī)制,一旦常規(guī)監(jiān)管手段失效,還能夠觸發(fā)其自我終結(jié)機(jī)制,從而使其始終處于人們監(jiān)管范圍之內(nèi),能夠防范系統(tǒng)性失控風(fēng)險(xiǎn)。
借鑒歐美經(jīng)驗(yàn) 推動(dòng)我國(guó)人工智能發(fā)展
通過(guò)借鑒歐美國(guó)家人工智能風(fēng)險(xiǎn)監(jiān)管經(jīng)驗(yàn),我國(guó)應(yīng)結(jié)合自身人工智能發(fā)展現(xiàn)狀,建立安全責(zé)任體系,推動(dòng)我國(guó)人工智能健康發(fā)展,具體建議如下。
對(duì)人工智能持包容態(tài)度,采取漸進(jìn)式監(jiān)管創(chuàng)新。人工智能在對(duì)經(jīng)濟(jì)社會(huì)形成巨大促進(jìn)作用的同時(shí),其存在的潛在風(fēng)險(xiǎn)不容小覷。在迎接人工智能時(shí)代到來(lái)時(shí),采取漸進(jìn)方式進(jìn)行監(jiān)管創(chuàng)新,以確保監(jiān)管規(guī)則的連續(xù)性。對(duì)于自動(dòng)駕駛汽車,采取包容的監(jiān)管態(tài)度,在試點(diǎn)示范中逐步探索規(guī)范相關(guān)領(lǐng)域產(chǎn)品、服務(wù)及安全標(biāo)準(zhǔn),倡導(dǎo)企業(yè)自律和社會(huì)監(jiān)督。例如,英國(guó)政府提議將汽車強(qiáng)制險(xiǎn)的適用范圍擴(kuò)大到自動(dòng)駕駛模式,在駕駛者將汽車控制權(quán)完全交給自動(dòng)駕駛系統(tǒng)時(shí)能為其安全提供保障。而美國(guó)在自動(dòng)駕駛汽車領(lǐng)域則逐步推動(dòng)州層面的立法向聯(lián)邦層面的立法過(guò)渡,并在2017年9月經(jīng)眾議院通過(guò)《自動(dòng)駕駛法案》,為美國(guó)自動(dòng)駕駛汽車上路監(jiān)管提供了統(tǒng)一的標(biāo)準(zhǔn)。
強(qiáng)制披露智能產(chǎn)品安全信息,建立安全責(zé)任體系。為了保障人工智能產(chǎn)品效果與設(shè)定的目標(biāo)一致性,確保人工智能產(chǎn)品的安全可控,監(jiān)管部門對(duì)人工智能研發(fā)者應(yīng)進(jìn)行認(rèn)證審批,強(qiáng)制要求其公布或提供與人工智能產(chǎn)品相關(guān)的安全信息,比如源代碼、訓(xùn)練數(shù)據(jù)集、第三方測(cè)試結(jié)果等。在安全責(zé)任體系方面,可以從人工智能系統(tǒng)的開(kāi)發(fā)者、生產(chǎn)者、銷售者、使用者等角度,進(jìn)行責(zé)任體系的設(shè)計(jì)。例如,經(jīng)過(guò)合法審批的開(kāi)發(fā)者、生產(chǎn)者等將承擔(dān)有限責(zé)任,而未經(jīng)過(guò)審批的開(kāi)發(fā)者將承擔(dān)無(wú)限責(zé)任。用戶在使用人工智能產(chǎn)品時(shí),應(yīng)遵守用戶使用準(zhǔn)則,如存在不當(dāng)使用,用戶也將承擔(dān)一定責(zé)任。
根據(jù)學(xué)習(xí)與適應(yīng)能力特征,實(shí)現(xiàn)監(jiān)管邊界動(dòng)態(tài)化。由于人工智能產(chǎn)品通常都具備自主學(xué)習(xí)和適應(yīng)能力,現(xiàn)有監(jiān)管方法難以適用于不斷進(jìn)化的人工智能系統(tǒng),監(jiān)管部門應(yīng)當(dāng)根據(jù)人工智能系統(tǒng)源代碼,以及人工智能在測(cè)試環(huán)境的表現(xiàn),從學(xué)習(xí)力、適應(yīng)力等角度,對(duì)人工智能系統(tǒng)進(jìn)行定期界定,判斷其進(jìn)化速度和所達(dá)到的程度,進(jìn)而實(shí)現(xiàn)人工智能的監(jiān)管邊界動(dòng)態(tài)化,使人工智能處于可控、安全的發(fā)展范圍之內(nèi)。
掌握關(guān)鍵決策權(quán),提升人們對(duì)智能產(chǎn)品的信任水平。為了提高人們對(duì)人工智能產(chǎn)品的信任度,限制其自主度和智能水平是有必要的,至少要讓人們?cè)谛睦砩险J(rèn)為其擁有對(duì)人工智能產(chǎn)品的主導(dǎo)控制能力。一些傳統(tǒng)裝備(如高鐵、飛機(jī))雖然在速度上已經(jīng)實(shí)現(xiàn)超越,但人們并不認(rèn)為它是不安全的,因?yàn)檫@些裝備的自主決策度受到人們的限制,人們?cè)陉P(guān)鍵決策上仍占據(jù)絕對(duì)地位。建議根據(jù)不同領(lǐng)域特點(diǎn),定向發(fā)揮人工智能的某項(xiàng)特定優(yōu)勢(shì)或技能。比如,讓數(shù)據(jù)分析處理等能力成為人們輔助決策的工具,但最終的關(guān)鍵決策權(quán)仍需掌握在人們手中。這也是當(dāng)前階段提升人們對(duì)人工智能產(chǎn)品信任度的關(guān)鍵。
當(dāng)前,新一代人工智能正加速向經(jīng)濟(jì)社會(huì)各個(gè)領(lǐng)域滲透,將對(duì)我們的生產(chǎn)方式、生活方式產(chǎn)生深刻影響。人類歷史的進(jìn)程表明,科技發(fā)展對(duì)社會(huì)進(jìn)步的積極意義不言而喻,但同時(shí)也是一把雙刃劍。我們?cè)诓粩嘞硎苋斯ぶ悄軒?lái)的巨大便利之時(shí),也應(yīng)未雨綢繆,及時(shí)預(yù)見(jiàn)它對(duì)社會(huì)秩序可能產(chǎn)生的沖擊。面對(duì)人工智能發(fā)展帶來(lái)的挑戰(zhàn),我們不能放任自流,也不能因噎廢食,而應(yīng)積極采取切實(shí)有效的監(jiān)管措施,最大限度發(fā)揮人工智能的優(yōu)勢(shì),防范其可能產(chǎn)生的社會(huì)危害。