李雅琪 馮曉輝
人工智能在高速發(fā)展的同時潛藏著兩大風險,反人工智能技術的出現(xiàn)凸顯了人類對人工智能的憂慮。反人工智能目前尚處于起步階段,技術效能較低,其在本質(zhì)上與人工智能相同,也須“三思而后用”。
2018年歐盟人工智能高級專家組發(fā)布《可信賴的人工智能道德準則草案》。該準則草案提出實現(xiàn)“可信賴人工智能”的兩個核心要素——道德目的、技術可靠。學術界已開始從技術角度探索防范人工智能潛在風險的“反人工智能”技術。當前,人工智能尚處于“弱人工智能”階段,反人工智能的出現(xiàn),既凸顯出人類對人工智能的潛在憂慮,也從技術角度提供了一條確保人工智能不會危及人類自身的新思路。
人工智能高速發(fā)展引發(fā)風險擔憂
一、人工智能引發(fā)的憂慮日漸增多
人臉檢測是當前人工智能領域最為成熟的技術之一,已經(jīng)開始在多個領域應用推廣。但也有不少人認為,人臉檢測等人工智能技術雖然能夠提供極大便利,但也隨之帶來了數(shù)據(jù)隱私泄露等安全隱患,有必要從多個角度開展防范策略研究,以防止用戶數(shù)據(jù)隱私泄露。
事實上,在人工智能蓬勃發(fā)展的光環(huán)之下,其所引發(fā)的憂慮遠遠不止隱私數(shù)據(jù)泄露。當前,雖然各國大力倡導人工智能的應用推廣,但現(xiàn)階段的“弱人工智能”與真正的人腦智慧相差甚遠,缺乏自主認知意識與學習能力,十分依賴海量數(shù)據(jù)訓練,并且還無法學習形成人類的道德倫理觀念,這就意味著“弱人工智能”應用過程中存在著大量令人擔憂的隱患環(huán)節(jié)。
二、人工智能高速發(fā)展有兩大風險
對人工智能的憂慮,主要源自人工智能的自身技術缺陷和技術潛在濫用兩個方面。在自身技術缺陷方面,其體現(xiàn)主要集中于兩點。
第一,當前的機器學習本質(zhì)上是一項黑盒技術,其訓練過程具有難以解釋、不可控制的特點,且隨著人工智能的應用復雜度、數(shù)據(jù)需求量的指數(shù)式增長,機器學習尤其是基于多層神經(jīng)網(wǎng)絡的深度學習,其復雜程度愈發(fā)超出人類理解和控制的范疇,在快速進化過程中極易偏離人類為其預設的軌跡。例如,微軟發(fā)布的人工智能推特Tay,在與網(wǎng)友聊天過程中很快就學會臟話,甚至學會了種族歧視的言論,導致微軟被迫緊急下線該產(chǎn)品。
第二,機器學習模型訓練過程完全依賴于海量數(shù)據(jù),數(shù)據(jù)的好壞將直接決定人工智能技術效能,訓練數(shù)據(jù)的任何偏差都將在人工智能應用中如實反映。例如,亞馬遜的智能簡歷篩選系統(tǒng),由于用于模型訓練的簡歷具有男多女少的特點,因此學會了性別歧視,一旦抓取到簡歷中“女”這一關鍵詞,便會降低應聘者的考核分數(shù)。
在技術濫用方面,隨著人工智能應用領域的快速延伸,人工智能技術觸及人類道德倫理底線,乃至威脅人類自身安全的事件不斷出現(xiàn)。例如,斯坦福大學的研究人員2017年發(fā)布了一種依靠面部圖像識別來判斷性取向的算法,該算法判斷男同性戀和女同性戀的準確率分別高達91%和83%。因此,該應用只需提取人類上傳在社交網(wǎng)絡的照片即可判斷其性取向,這無疑是嚴重侵犯個人隱私的行為。
此外,人工智能在黑客網(wǎng)絡攻擊,甚至大規(guī)模殺傷性武器等方面可能的濫用行為,更將引發(fā)難以估量的嚴重后果。
三、防范人工智能風險已經(jīng)“在路上”
伴隨著“AlphaGo戰(zhàn)勝李世石”等標志性事件接連出現(xiàn),人工智能引發(fā)的憂慮也隨之加深,人類開始從法律法規(guī)、道德準則、技術等多個角度,探索防范人工智能潛在風險的手段。
在法律法規(guī)方面,2017年,歐美等國家和地區(qū)提出要積極開展人工智能相關立法研究。例如,英、美分別在《人工智能:未來決策制定的機遇與影響》、《人工智能未來法案》中強調(diào),要密切關注人工智能可能的負面影響,并提出要確保人工智能威脅的最小化。在道德準則方面,2018年3月,谷歌因參與人工智能項目而引發(fā)內(nèi)部員工強烈反對,最終被迫發(fā)布了11條運用人工智能技術的“不作惡”準則。2018年12月,歐盟發(fā)布人工智能道德指南草案,提出了規(guī)范人工智能應用的幾大問題。
此外,在技術方面,加拿大學者2018年8月公布的人臉檢測動態(tài)擾亂系統(tǒng)也并非反人工智能的首次技術嘗試。此前,美國MIT的研究人員就曾嘗試通過構建3D對抗樣本來欺騙圖像識別系統(tǒng)。此外,生成對抗網(wǎng)絡(GANs)的創(chuàng)造者伊恩·古德費洛曾在2017年牽頭組織對抗攻擊防御競賽,引導研究人員開展人工智能算法的攻防比拼,以期引起各方對反人工智能技術的關注和研究。從某種意義上講,當人類出于自身福祉考慮開發(fā)出的人工智能令人擔憂,而相關法律法規(guī)和技術倫理又大為滯后時,相比于法律道德的“防君子不防小人”,在技術層面實實在在地開發(fā)人工智能對抗技術顯然更能讓人心安。
因此,雖然現(xiàn)在的人工智能技術還很弱,但反人工智能的出現(xiàn)也是必然的。
反人工智能仍處于起步探索階段
一、反人工智能歷經(jīng)兩大階段
截至目前,反人工智能技術的發(fā)展經(jīng)歷了兩個階段。早期,反人工智能技術主要聚焦于通過污染訓練數(shù)據(jù)來攻擊機器學習模型。這是一種簡單直接的反制方法。但由于機器學習模型一般都在封閉環(huán)境中開展訓練,很難受到外部干擾,因此這類技術并未獲得進一步發(fā)展。2014年,伊恩·古德費洛提出的生成對抗網(wǎng)絡為反人工智能技術開辟了第二條技術路徑,研究人員可基于生成對抗網(wǎng)絡對源數(shù)據(jù)施加微擾,從而構造動態(tài)對抗數(shù)據(jù),這一微擾難以被用戶感知,但卻能使機器學習模型在檢測識別時做出錯誤判斷。該方法與人工智能技術相同,都屬于機器學習算法。
二、反人工智能技術效能仍然較低
與人工智能尚處于初級階段相比,反人工智能在技術效能和應用領域等方面處于更加早期的階段。從技術效能看,構造對抗數(shù)據(jù)的方法易于被有效防御。只要在人工智能模型訓練初期利用已知的對抗性數(shù)據(jù)進行訓練,就能提升模型辨別良性、惡性數(shù)據(jù)的能力,進而抵御對抗性數(shù)據(jù)對模型系統(tǒng)的壓制。從應用領域看,由于反人工智能技術亦基于機器學習,因此與人工智能技術在圖像和語音識別領域發(fā)展最成熟類似,反人工智能技術也集中在這兩個領域。在自然語言處理、認知推理等其它人工智能應用領域,尚無可行的反人工智能解決方案。此外,此類方法只能在人工智能模型系統(tǒng)的推斷環(huán)節(jié)實施干擾,無法在訓練環(huán)節(jié)發(fā)揮作用。
三、反人工智能也須“三思而后用”
反人工智能技術的出現(xiàn),反映了人類對人工智能發(fā)展的憂慮,但該技術的發(fā)展與應用一樣需要審慎。本質(zhì)上,人工智能和反人工智能都是基于機器學習算法的技術,只是在技術效能上構成相互對抗的關系,即以人工智能對抗人工智能。因此,反人工智能在某種程度上與人工智能同樣具有不可靠性,也同樣面臨著不可控、被濫用的風險。例如,自動駕駛高度依賴人工智能的圖像識別技術,倘若反人工智能技術被非法運用在自動駕駛領域,就可能導致自動駕駛汽車無法有效識別道路信息,從而引發(fā)災難性后果。因此,在人工智能演進路徑尚不清晰的情況下,要審慎思考人工智能與反人工智能的關系,發(fā)展和運用人工智能與反人工智能技術的同時注重綜合性和互補性,以最大程度確保人工智能在造福人類時可控、可靠、可信。
對策建議
一、前瞻布局反人工智能技術研究
圍繞確保人工智能技術可控、可靠、可信的總體目標,加快推進反人工智能的基礎理論研究和應用技術研發(fā),爭取掌握未來技術發(fā)展的主動權。一是支持開展基于生成對抗網(wǎng)絡的反人工智能技術研發(fā),提升反人工智能技術的抗干擾能力和實用性,防止其被人工智能技術“反對抗”。二是在開展圖像識別、語音識別領域反人工智能技術研發(fā)的同時,積極探索在自然語言處理、認知推理等領域的反人工智能技術研究。三是支持開展針對人工智能機器學習模型訓練環(huán)節(jié)的反人工智能技術的理論研究和技術開發(fā)。四是前瞻布局適用于反人工智能技術研發(fā)的基礎理論,探索機器學習以外的革新性技術路徑。
二、探索反人工智能應用場景
面向人工智能應用過程中潛在風險防控的現(xiàn)實需求,推動反人工智能技術的落地應用,積極探索人工智能與反人工智能的協(xié)同發(fā)展路徑。一是圍繞智能終端、云端軟件系統(tǒng)等各類人工智能應用模式,支持將反人工智能技術作為風險防控模塊嵌入現(xiàn)有的人工智能產(chǎn)品服務,提升其可靠和可控度。二是針對用戶隱私保護、敏感系統(tǒng)防護等特定場景,將反人工智能技術作為獨立產(chǎn)品,探索信息安全防護產(chǎn)品服務的開發(fā)與應用。三是積極推動現(xiàn)有圖像識別對抗系統(tǒng)、語音識別對抗系統(tǒng)等反人工智能成熟技術的商業(yè)化落地。
三、深化人工智能與反人工智能理論研究
從確保人工智能健康發(fā)展、造福人類的根本立場出發(fā),在理論、倫理等層面加強對人工智能、反人工智能的綜合性研究。一是前瞻布局腦科學、計算機科學、哲學等領域的跨領域基礎理論研究,探索人工智能發(fā)展的客觀規(guī)律和根本目標。二是積極開展人工智能的系統(tǒng)研究,提高對人工智能與反人工智能兩者之間關系及本質(zhì)的認識,明確人工智能與反人工智能的研發(fā)標準、認證體系、應用范圍。三是積極參與國際合作,共同開展人工智能道德倫理準則研究,推進相關法律法規(guī)的研究制定,加快完善人工智能和反人工智能的管理規(guī)范和監(jiān)管手段。