李 浩 杜燕波
時下,許多學者對人工智能的認識模糊不清而又盲目樂觀,仿佛有了人工智能便可風馳電掣、手眼通天、無所不能。這種不切實際的錯誤認知屏蔽了人工智能的本質(zhì)特征、實現(xiàn)路徑和不同時期人工智能的可能性、可達性,屏蔽了人們正確認識客觀事物的可能性,不僅不利于人工智能本身的發(fā)展,也不利于新時代智能化軍事變革。作為推動智能化軍事變革的一個本原性問題,切實搞清楚人工智能的功能邊界與時空邊界非常必要。
2005年,美國未來學家雷·庫茲維爾在《奇點臨近》一書中預測:2045年將出現(xiàn)計算機智能超越人類的“奇點”。這就是著名的“奇點理論”。近來,人工智能不斷取得令人瞠目結舌的新突破,如人工智能在圍棋對弈中戰(zhàn)勝人類頂尖圍棋高手,人們不禁要問:庫茲維爾所說的“奇點”是否真的在悄悄逼近?人工智能是否會如社會媒體宣傳的那樣一直狂飆突進,最終真的將人類湮沒呢?
這實際上涉及一個基本的邊界問題,即人工智能究竟能干什么、不能干什么?它擴張的邊界在哪兒?北京郵電大學劉偉教授的新作《人機融合:超越人工智能》強調(diào)搞清楚人(人類智慧)、機(人工智能)之間的本質(zhì)區(qū)別才是人機融合的前提— 順著這個思路,作者探討了人工智能的局限性。將劉偉教授研究成果拓展可得出結論:四個根本性問題決定了人工智能永遠趕不上人類智慧。一是人類智慧附著在生命體上,人工智能則是無生命的、死的。正如一位外國學者所說,別看人工智能厲害,拔了電它便瞬間完蛋。二是人類是感情動物,是有價值取向的,而人工智能是一種無感性、無理性的工具,它沒有愛恨情仇,沒有喜怒哀樂,不會感恩、懺悔和反思。三是人工智能的基石是算法,算法的本質(zhì)是數(shù)學,數(shù)學則是對客觀復雜世界的結構化、邏輯化數(shù)理描述。但是作為“萬物之靈長”,人類智慧遠非結構化、邏輯化可以描述,而是表現(xiàn)出極大的無序性、躍變性與不可捉摸性。四是人的思維是發(fā)散式、跳躍式的,善于由一種事物聯(lián)想到其他事物、由當下聯(lián)想到過去和未來,善于對掌握的情況進行綜合分析判斷。人工智能在算法的指引下是高度聚斂的,它固然可以采集大量數(shù)據(jù),但最終歸宿是通過計算逐漸收斂,尋求一個或多個最優(yōu)解,因此也就沒有人類那種“統(tǒng)觀全局”的本領。
2016年3月,阿爾法圍棋與圍棋世界冠軍、職業(yè)九段棋手李世石進行圍棋人機大戰(zhàn),以4比1的總比分獲勝
給人們造成“人工智能將要超越人類智慧”的假象的,大概率是因為人工智能在某些狹窄的功能領域(如下棋、模擬空戰(zhàn))展現(xiàn)出超過人類的能力。但是正如劉偉教授所說:“AlphaGo再怎么厲害,始終都是在設定規(guī)則下,為達既定目標而進行的系列自動計算和應對?!笨梢赃@樣認為,人類智慧是人工智能一切功用的源頭;人工智能依附于人類智慧,是人類智慧借科技之手的拓展或延長。換言之,沒有人類智慧便沒有人工智能,那么又何來“人工智能超越人類智慧”的說法呢?退一步講,就算人工智能可以超越人類智慧,那么這種超越必然造成人類智慧的萎縮,反過來這種萎縮又勢必構成對人工智能的否定。因此,“奇點理論”只是個噱頭,沒有立得住足的理論基礎。那種將人工智能描述為無所不能的說法,是沒有道理的。
人工智能起源于20世紀40年代。1948年,計算機科學、密碼學的先驅(qū)阿蘭·麥席森·圖靈在其論文《計算機器與智能》中描述了“會思考的機器”,并預言創(chuàng)造出真正智能機器的可能性,被視為人工智能的源頭。圖靈還提出著名的“圖靈測試”,即:如果電腦能在5分鐘內(nèi)回答由人類測試者提出的一系列問題,且超過30%的回答讓測試者誤以為是人類所答,則電腦通過測試??梢哉f,“圖靈測試”給人工智能確立了一個不懈努力的目標,同時也為人工智能提供了一道可供檢測的功能邊界。人們不禁要問,是否有一道人工智能無法逾越的絕對邊界呢?將來某一天人工智能是否真的會擁有人類一樣的智慧呢?某種程度講,“圖靈測試”成為人工智能發(fā)展60多年來人們反復追問的一個終極問題。
2011年,IBM公司研制的人工智能系統(tǒng)“沃森”參加綜藝類節(jié)目《危險邊緣》,并獲得冠軍。2014年6月7日,在圖靈逝世60周年紀念日,英國皇家學會的舉行“2014圖靈測試”大會上,一個名為“尤金·古特曼特”的聊天程序成功地讓人類相信它是一個13歲的男孩,成為有史以來首臺通過圖靈測試的計算機。這被認為是人工智能發(fā)展史上一個里程碑事件。時至今日,市場上涌現(xiàn)出大量會與人類聊天的電子產(chǎn)品,如“小愛”“小度”音響及各型車載智能系統(tǒng)。在許多人看來,人工智能在邁向人類智慧的道路上迅猛發(fā)展,可謂前途無量?!拔稚眾Z冠時,研制團隊一度宣稱,“沃森能夠理解自然語言的所有歧義和復雜性”。但事實并非如此。此后“沃森”在大膽進軍醫(yī)療保健領域時,遭遇慘敗。它曾多次提出“不完全或不正確的治療建議”,嚴重影響了人們對它的信心。另一項研究表明,谷歌公司的機器翻譯系統(tǒng)在為非英語患者翻譯醫(yī)療說明時出現(xiàn)重大錯誤。此外,研究人員還曾嘗試通過手工編寫的代碼,幫助計算機理解新聞故事、小說或人類撰寫的其他文檔。然而,人們最終發(fā)現(xiàn),如同“沃森”的遭遇一樣,計算機程序不可能理解文本背后的“所有不成文的事實、規(guī)則和假設”。
這些例子均表明,“圖靈測試”本身是一個相對概念;能否通過“圖靈測試”,某種程度上取決于提問者及涉及的問題域。因此,是否通過“圖靈測試”只可作為一個參照,并不具有絕對意義。換言之,對于某個特定的人工智能系統(tǒng),一定存在某些“黑障”是它無法穿越的,它不具備人類那樣的環(huán)境適應性和應變能力。針對人工智能的這種漏洞,美國斯坦福大學計算機科學家特里·維諾格拉德曾提出一種測試方法,號稱“維諾格拉德挑戰(zhàn)模式”。這種模式充分利用“it”(它)在英語世界中的多指性,使人工智能無法得出正確答案。例如 “跑車比卡車跑得更快,是因為它的速度更快”與“跑車比卡車跑得更快,是因為它的速度更慢”兩個句子— 對于人而言,很容易知道究竟誰跑得更快;但對于機器而言,它就很費解。在2016年舉辦的一場人工智能大賽中,舉辦方運用這種“維諾格拉德挑戰(zhàn)模式”,結果就連獲勝的程序也只答對58%的句子,幾近盲猜。以至于一位研究人員打趣道,“人工智能(AI)連一句話中“it”指的是什么都無法確定,居然還有人指望它統(tǒng)治整個世界?”
尤金·古特曼特聊天程序
當然,經(jīng)過大型語料庫訓練的語言模型可以掌握“跑車”與“快”、“卡車”與“慢”之間的聯(lián)系,并憑借這種相關性給出正確答案。但這并不代表人工智能真正理解這句話的含義,也無法由此保證人工智能能夠通過所有的“維諾格拉德挑戰(zhàn)模式”。在這種模式下,一個人工智能研究所的研究人員共提出4.4萬個類似的句子用于測試。這就意味著,人工智能固然可以通過網(wǎng)絡搜索和語言訓練不斷攻克一些難題,但是在人工智能前面總有許多它無法涉渡的“暗海”。究其原因,根本在于:要想理解人類語言就需要理解這個世界,而只接觸語言的機器顯然無法獲得這樣的理解能力。
以上講的是人工智能在自然語言理解領域的運用情況,而人工智能對自然語言的理解正是它在其它領域有所作為的首要基礎。倘若人工智能在自然語言理解領域尚存在一些結構性、根本性缺陷,還怎么指望它在其它領域有完美的表現(xiàn)?又怎么敢在其它領域放任人工智能的發(fā)揮呢?我們無意貶低人工智能的強大功能,但只有明確人工智能能干什么、不能干什么,才能在實踐中更好地應用人工智能。正如《孫子兵法》所云:“不盡知用兵之害者,則不能盡知用兵之利也。”
人工智能在如自動駕駛等相對封閉的應用場景中有出色表現(xiàn)
功能邊界:人工智能能干什么、不能干什么?如上所述,人工智能的基石是算法,算法的本質(zhì)是數(shù)學,數(shù)學則是對客觀復雜世界的結構化、邏輯化數(shù)理描述。人工智能在算法的指引下是高度聚斂的,它固然可以采集大量數(shù)據(jù),但最終歸宿是通過計算逐漸收斂,尋求一個或多個最優(yōu)解,因此也就沒有人類那種觸類旁通、不斷反思、迭代改進、統(tǒng)觀全局的本領。人工智能是死的,它按照人類設定的算法程序機械地運行,沒有人類的發(fā)散式、跳躍式思維,不具備人類那樣在連續(xù)的復雜環(huán)境下時時處處都有的強大應變能力。這決定了,人工智能可以在狹窄的、要素較少、相對封閉的應用場景中有出色表現(xiàn),如人臉識別、目標識別、自動駕駛、智能客服、搜索推薦、語音助理等領域。而一旦遷移到相對復雜、要素眾多、對“常識”要求很高的領域,人工智能便勉為其難了。例如,現(xiàn)在國內(nèi)外做機器翻譯的公司很多,但成功的機器翻譯產(chǎn)品并不多,尤其是在軍事、醫(yī)藥等專業(yè)性很強的行業(yè),機器翻譯很難派上用場,最多只能作為輔助。特別是在軍事領域,好的翻譯作品都出自外語、軍事專業(yè)兼修的研究人員,而不是翻譯機器。由于人工智能計算機程序很難理解文字背后復雜的假設、情景,也不掌握豐富的軍事知識,至少從目前看,這種現(xiàn)狀很難改變。
具體到軍事領域,當前美軍共有近600項與人工智能密切相關的項目,主要集中于指控平臺、網(wǎng)絡安全、目標識別、情報處理、模擬訓練、后裝保障六大領域,每個具體項目又聚焦于狹窄的功能領域。以網(wǎng)絡安全領域為例:網(wǎng)絡攻擊方面,美國防部正在開發(fā)“高級持續(xù)性威脅”(APT)攻擊系統(tǒng),該系統(tǒng)在人工智能的輔助下可以不間斷搜索作戰(zhàn)對手網(wǎng)絡系統(tǒng)的漏洞,并發(fā)動自主攻擊;網(wǎng)絡防御方面,美國防部下屬國防信息系統(tǒng)局(DISA)從美國家安全局(N S A)接手Sharkseer項目,該項目旨在通過機器學習等方法,分析潛在惡意軟件的運行規(guī)律,達到檢測并阻止惡意軟件運行的目的。可以發(fā)現(xiàn),所有這些項目都不會深入復雜的、特別是摻雜社會因素的場景。哪怕是開發(fā)指控平臺,美軍也是謀求利用人工智能處理海量情報信息,為指揮員提供決策支持,而絕不會將所有環(huán)節(jié)都交給人工智能。
時間邊界:人工智能的發(fā)展階段。人工智能的發(fā)展遵循歷史唯物主義辯證法。如果不清楚這個歷史唯物主義過程,非專業(yè)人員很容易被帶入一種莫名的人工智能狂熱。在過去六十多年中,人工智能的發(fā)展經(jīng)歷了幾個主要的發(fā)展階段。第一次高潮期是1956年—1974年,在達特茅斯會議后,研究人員在搜索式推理、自然語言、機器翻譯等領域取得一定成果。第一次低谷期是1975年—1980年,隨著計算機運算能力的不足、計算復雜性較高、常識和推理實現(xiàn)難度較大等原因造成機器翻譯項目失敗,人工智能開始受到廣泛質(zhì)疑和批評。第二次高潮期是1981年—1987年,具備邏輯規(guī)則推演和在特定領域解決問題的專家系統(tǒng)開始盛行,以日本“第五代計算機計劃”為典型代表;第二次低谷期是1988年—1993年,抽象推理不再被繼續(xù)關注,基于符號處理的智能模型遭到反對。發(fā)展期是1994年—2012年,“深藍”等人工智能系統(tǒng)的出現(xiàn)讓人們再次感受到人工智能的無限可能。爆發(fā)期是2013年至今,機器學習、移動網(wǎng)絡、云計算、大數(shù)據(jù)等新一代信息技術引發(fā)信息環(huán)境和數(shù)據(jù)基礎變革,運算速度進一步加快且成本大幅降低,推動人工智能呈現(xiàn)爆發(fā)式增長。
機器學習示意圖
上面是從人類的角度看人工智能發(fā)展的,而任何一支軍隊在智能化軍事變革中,又要遵循自身發(fā)展規(guī)律這個“特殊性”。如果超脫于自身實踐,而基于對人工智能前景的模糊認識和最大化想象發(fā)展軍事理論、推動變革實踐,不僅無益于、甚至會有損于軍隊現(xiàn)代化轉型發(fā)展。換言之,在軍事智能化變革中,一定要立足本國人工智能發(fā)展階段及現(xiàn)實情況。只有給軍隊轉型實踐這雙“腳”穿一雙合適的人工智能的“鞋子”,才能確保“健步如飛”。
空間邊界:如何界定人工智能在人機環(huán)系統(tǒng)中的角色。人工智能由人類創(chuàng)造,又服務于人類。作為一種高級工具,人工智能的產(chǎn)生、演化與運行都應當以人為核心,以追求效益為根本目的,以轉型實踐為唯一的檢驗標準。劉偉教授提出:未來智能化發(fā)展方向應當是“人—機—環(huán)境系統(tǒng)在高速運行的同時保持協(xié)調(diào)發(fā)展”。人工智能應當在這樣一個大框架下尋求職能定位,理想的情況應當是:在人的理性、智慧的規(guī)約下發(fā)展人工智能,將人工智能的功能嵌套到人的思維范式內(nèi),讓人工智能作為人類智慧的補充、拓展、延長。這里,人(人類智慧)、機(人工智能)應當是有主有次、相輔相成的關系,而不應將兩者對立或等同起來看待。
具體到智能化軍事變革,首先要厘清人(人類智慧)、機(人工智能)之間的根本區(qū)別,綜合考慮什么地方可以用人工智能、什么地方不適合用人工智能、什么地方用人工智能效益最高。實踐中,人工智能的引入并不會必然地帶來良好收益,有時候帶來的可能是低效、混亂與無序,以至于得到適得其反的效果。這絕非危言聳聽。人、機在智能化軍事轉型實踐中的理想關系,應當如同坦克的履帶與齒輪(誘導輪、負重輪、主動輪與托帶輪)緊密嚙合、共同驅(qū)動車體高速運動一樣。這反過來也對人工智能的操作者、使用者、管理者和維護者提出非常高的要求。