僑亞
“我是阿爾法也是歐米茄,第一個也是最后—個,是開始也是結(jié)束?!边@一段出自《新約-啟示錄》的簡單文字,在今天讀來,卻有了別開生面的注腳。就在3個月之前,谷歌公司開發(fā)的智能圍棋程序AlDha Go以4比1的壓倒性優(yōu)勢,擊敗了人類頂尖棋手之一、韓國圍棋冠軍李世石,一躍占據(jù)了世界圍棋排名的第二把交椅,使得長久以來普遍認(rèn)為機器不可能戰(zhàn)勝人類的世人為此改觀,對現(xiàn)代人工智能(A1)的發(fā)展有了新的看法。而在6月27日,美國辛辛那提大學(xué)的官網(wǎng)上公布了一個最新的人工智能研究成果,卻令有心人不禁產(chǎn)生了古人可能一語成箴的感慨。根據(jù)辛辛那提大學(xué)發(fā)布的信息,該校人員主持開發(fā)的人工智能程序在高保真空戰(zhàn)模擬器對抗中,成功擊敗了擁有豐富空戰(zhàn)經(jīng)驗、并長期協(xié)助空戰(zhàn)人工智能程序研發(fā)的退役美國空軍上?;鳌だ?,湊巧的是,這個空戰(zhàn)人工智能程序也被設(shè)計者命名為A1Dha。
勝利者AIpha
空戰(zhàn)人工智能程序AIpha是辛辛那提大學(xué)工程與應(yīng)用科學(xué)學(xué)院的博士研究成果,主持Alpha程序創(chuàng)建和項目工具開發(fā)的是2015年畢業(yè)的博士研究生尼克.恩內(nèi)斯特,以及大衛(wèi)-卡羅爾,如今他們創(chuàng)立了Psibemetix公司,用以支持Alpha空戰(zhàn)程序的后續(xù)工作推進,恩內(nèi)斯特是公司總裁和首席執(zhí)行官,而卡羅爾是程序主管。另外,他們還得到了退役空軍上?;鳌だ畹暮献?,以對程序的實際作戰(zhàn)能力進行測試和評估,辛辛那提大學(xué)的航空航天學(xué)教授凱利.科恩以及博士研究生蒂姆-阿內(nèi)特也是主要的協(xié)作者,最后,也是最重要的是,空軍研究實驗室為本項目的實施提供了20萬美元的經(jīng)費贊助。
Alpha空戰(zhàn)程序能夠獲得空軍研究實驗室的大力支持并非偶然,事實上,空軍研究實驗室秉承“雞蛋不能放在同一個籃子里”的傳統(tǒng)信念,同時支持了許多個人工智能空戰(zhàn)程序的開發(fā),而Alpha空戰(zhàn)程序在早期的版本時,就已經(jīng)擊敗了包括空軍研究實驗室的基準(zhǔn)空戰(zhàn)程序在內(nèi)的其他競爭對手。在去年十月,AIpha空戰(zhàn)程序的成熟版本推出之后,其對抗的對手變成了前空軍上校基恩·李,令人震驚的是,李非但從未能在反復(fù)嘗試中擊落Alpha,相反的是,在每次模擬對抗中,李都被AIpha形成穩(wěn)定截獲——換句話說,被踢出局了。這是從未有過的現(xiàn)象!
正如世人熟知的美國海軍航空兵“T00Gun”一樣,李是擁有與之相似能力的空軍飛行精英,畢業(yè)于美國戰(zhàn)斗機武器學(xué)校-(相當(dāng)于獲得了空戰(zhàn)戰(zhàn)術(shù)和戰(zhàn)略的進階能力),具有多種戰(zhàn)斗機的飛行資歷,曾與數(shù)以干計的美國空軍飛行員進行過對抗訓(xùn)練,具有豐富的對抗經(jīng)驗,同時,在其參與空軍研究實驗室工作之后,對美國空軍從上世紀(jì)80年代以來所使用的智能空戰(zhàn)程序都有了深入的研究。
“我對它的感知和反應(yīng)能力感到非常吃驚,當(dāng)我在飛行中做出改變時,它似乎知道了我的意圖并立即做出反應(yīng),以避開我的導(dǎo)彈殺傷區(qū)。它知道如何讓我的攻擊失敗,它在防守和進攻行動之間的變換幾乎是瞬間完成,而且無懈可擊?!闭f起與Alpha空戰(zhàn)程序的對抗,仍可感覺到李的震撼:“(在與傳統(tǒng)AI對抗時)一位有經(jīng)驗的飛行員可以擊敗它們,只要你能夠清楚知道自己的行動,當(dāng)你找到空戰(zhàn)程序的弱點時,你就可以‘擊落它,在此之前,空戰(zhàn)程序根本無法提供像實戰(zhàn)一般場景的真正壓力和節(jié)奏?!?/p>
說起與Alpha空戰(zhàn)程序進行以小時計的模擬真實飛行任務(wù)長時間對抗,李說道:“我回家時感覺像剛過了一遍水的樣子我感到疲憊,癱倒,心力交瘁。這就是人工智能,但它代表了一個真正的挑戰(zhàn)?!?/p>
對于Alpha空戰(zhàn)程序,李的評價是:“這是迄今為止,我所見過的最有攻擊性、最敏捷、變化最多、(仿真)最可信的Al。”
值得注意的是,Alpha空戰(zhàn)程序并非僅僅在一對一的模擬空戰(zhàn)中取勝,在為本次研究發(fā)表的論文中,研究者們選取的案例是—個2vs4的小機群作戰(zhàn),這也是現(xiàn)代戰(zhàn)機和導(dǎo)彈能力獲得顯著提高以來,常見的空戰(zhàn)模式。在這個案例中,李和另一位空軍精英扮演入侵的藍方,有預(yù)警機支持,而Alpha空戰(zhàn)程序則操縱紅方防御的4架戰(zhàn)機,每架藍方戰(zhàn)機攜帶4枚遠距空空導(dǎo)彈和4枚近距空空導(dǎo)彈,而每架紅方戰(zhàn)機僅攜帶4枚中距空空導(dǎo)彈,藍方具有單機火力上的優(yōu)勢,除了這些差別之外,雙方戰(zhàn)機的其他能力被設(shè)定為一致(耐人尋味的是,在案例中,紅方的戰(zhàn)機圖標(biāo)是蘇-27,而藍方的戰(zhàn)機圖標(biāo)是F-22)。
研究者們之所以選取這個案例,也許是因為其指出了—個令人沮喪的可能性。一直以來,人們都認(rèn)為,具有預(yù)警機進行目標(biāo)探測,并實施指揮的—方,會在空戰(zhàn)中獲得顯而易見的優(yōu)勢,然而,本案例的結(jié)果已經(jīng)指出,這很可能是—場迷惑了幾代^的美麗誤會。其癥結(jié)所在,只不過是人類大腦的計算速度不夠,所以往往無法在對方具備預(yù)警機(這同時也意味著具備更多的大腦)時,產(chǎn)生足以正確對抗的解算結(jié)果,如果考慮到作站動對人體的生里影響,則缺少警機.一方的失敗幾乎是必然的。
對于Alpha空戰(zhàn)程序而言,以超過2400千米/小時的相對速度和1.2萬米的飛行高度接近對手時,并不會產(chǎn)生任何“生理”上的影響,而人類飛行員在這種決策時間需要以微秒計的行動中,其擁有的“技能”和“空戰(zhàn)藝術(shù)”都會大打折扣,往往只能憑“直覺”來進行機動和攻擊,犯錯的成本是很高的,很可能要付出生命的代價。事實上,與只有單一變量,而且與允許較長時間計算的智能圍棋程序Alpha Go不同,Alpha空戰(zhàn)程序具有多達約150個輸入變量,包括雙方速度、高度、航向、機動態(tài)勢、導(dǎo)彈發(fā)射包線、導(dǎo)彈殺傷區(qū)等,AIpha可以匯集各種傳感器的數(shù)據(jù),迅速組織、創(chuàng)建一個完整的戰(zhàn)斗場景映射,并在不到1毫秒的時間內(nèi),改變4個紅方戰(zhàn)機的作戰(zhàn)決策和飛行機動。AIpha的速度是如此之快,在需要考慮和協(xié)調(diào)最佳戰(zhàn)術(shù)計劃和精確響應(yīng)的動態(tài)環(huán)境中,Alpha每秒鐘能夠解算發(fā)出的操作指令可達人類飛行員的約250倍,可見其解算速度還是遠遠超過了人類,在這種情況下,Alpha即便做出了錯誤的判斷,也會迅速得到糾正。
研究者們給大家?guī)淼牧硪粋€令人沮喪的壞消息(同時也是令人振奮的好消息)是,在測試中能力表現(xiàn)得如此強大的AIpha,其實是在一臺500美元級別的家用電腦上運行的,換句話說,AIpha的能力還有巨大的擴展余地。
未來的展望
Alpha空戰(zhàn)程序之所以具備如此強大的能力,是因為其采用了遺傳模糊算法。遺傳算法是經(jīng)典的人工智能算法,是模擬生物進化論的自然選擇和遺傳學(xué)機理的計算模型,通過模擬自然進化過程的隨機化搜索方法,根據(jù)限定的條件和目標(biāo)不斷求取最優(yōu)解,非最優(yōu)解則不斷被迭代淘汰??贫鹘忉屨f:“(AIpha的進化)在很多方面跟空戰(zhàn)沒什么不同,首先,有一大群飛行員,他們(互相戰(zhàn)斗)誰存活到戰(zhàn)爭結(jié)束,誰就是精英。”這些自動生成的Alpha版本不斷“培育”下一代,性能更好版本的不斷出現(xiàn),而目前使用的Alpha版本是當(dāng)前性能最強的。
但是,遺傳算法有一個很大的缺陷,就是需要極大的計算量,正如生物進化經(jīng)過了無數(shù)代的進化一般,這就導(dǎo)致其通常需要較長的解算時間,這對于要求反應(yīng)速度以毫秒計的空戰(zhàn)程序是極其不利的。為了克服這個致命的障礙,研究者同時引入了模糊算法,與傳統(tǒng)算法需要得出精確解不同,模糊算法并不需要精確解,而只需要求出一個傾向。這就使得遺傳算法跟模糊算法的優(yōu)點有機的結(jié)合起來,滿足了AIpha空戰(zhàn)程序既要時間短,又要最優(yōu)解的苛刻要求。
歐內(nèi)斯特對此做了一個形象的解釋:“我可以描述遺傳模糊樹系統(tǒng)的最簡單方法是,它更像是人類如何思考問題。就像一個足球場上的錄像機,當(dāng)它升級了進行球賽評價的功能之后,它不會這樣算:這個賽季里,某某進行了多少次沖刺、多少次傳球、多少次突破。它不需要展現(xiàn)所有的具體統(tǒng)計數(shù)據(jù),而只需要給出評價:(這個動作)非常好。”另外,這個動作的歷史記錄也不會是唯一的變量,其他的變量也可能加入,這時候,評價就變?yōu)榱恕埃ㄟ@個動作)非常好,比我更高,但我可以更快?!?/p>
在未來的空戰(zhàn)中,Alpha的能力將大有用武之地,美國空軍和海軍都明確表示過,未來作戰(zhàn)飛機中,無人機(UAV)將占有重要的比例,但人類飛行員必須處于控制地位,所以,未來由Alpha駕駛的無人僚機將會是有人機的重要臂助。人類飛行員只需要發(fā)出指令,掌管無人僚機的Alpha將自動處理傳感器信息,形成態(tài)勢感知,判斷正確的機動方式,選擇合適的攻擊戰(zhàn)術(shù),管理和更換適當(dāng)?shù)拇驌粑淦?。Alpha將從對敵人戰(zhàn)術(shù)和能力的觀察中進行學(xué)習(xí),并與友機協(xié)調(diào)行動,避開敵方數(shù)以十計的導(dǎo)彈攻擊,并準(zhǔn)確的對多個目標(biāo)實施打擊。正如科恩所說的:“Alpha將是一個非常容易配合的AI隊友,它可以連續(xù)不斷的確定最佳的方式來執(zhí)行有人戰(zhàn)機指令的任務(wù),并在飛行任務(wù)中持續(xù)提供戰(zhàn)術(shù)和態(tài)勢的信息和建議?!睆拈L遠來看,攜手人工智能將使得美國軍隊的空中作戰(zhàn)能力獲得一個革命性的飛躍。
對于Alpha的未來發(fā)展,歐內(nèi)斯特說:“Alpha在面對模擬環(huán)境時,已經(jīng)是一個致命的對手,我們的目標(biāo)是繼續(xù)開發(fā)Alpha,要與其他訓(xùn)練的飛行員一起,不斷擴展其功能,并進行進一步的測試。仿真度也需要增加,這會通過使用更真實的空氣動力學(xué)和傳感器模型的形式來實現(xiàn),Alpha完全能夠容納這些升級,我們和Psibernetix公司都期待著項目的繼續(xù)發(fā)展?!?/p>
人工智能的隱憂
然而,迄今為止,人類發(fā)明的人工智能算法都具有較大的局限性,主要是偏向于某種特定的目標(biāo)求取最優(yōu)解,而不能像人一樣具有道德情感的約束。這會不會導(dǎo)致毫無人性的人工智能最終將人類滅絕?有識之士們紛紛提出了自己的憂慮,并提出了一些解決方案。
這其中最著名的解決方案,就是美國著名作家阿西莫夫提出的“機器人三定律”:一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。這組定律提出之時,是在1942年,當(dāng)時自動制導(dǎo)武器剛剛開始萌芽,按照現(xiàn)代人工智能的分類法,屬于弱人工智能的最低級別,僅僅相當(dāng)于生物的初級刺激反應(yīng)。但隨著制導(dǎo)武器“智能化”的不斷發(fā)展,“機器人三定律”很顯然已經(jīng)被不斷突破,干瘡百孔。英國巴斯大學(xué)的喬安娜·布賴森教授評論說:“(阿西莫夫)定律本身就表明了,簡單的道德規(guī)則是無法運作的。如果你讀過三大定律,你會發(fā)現(xiàn)每條定律都說不通,阿西莫夫定律是不切實際的?!?/p>
這種憂慮,也是為何美軍一直堅持無人機必須要有人參與控制的原因,這也是美國法律的要求,非經(jīng)審判或者授權(quán),不得剝奪人的生命權(quán)。即便如此,2011年9月底,在對恐怖分子的定點清除行動中,由于情報失誤,操作者在控制無人機發(fā)動攻擊時,誤殺了一名美國公民,而情報失誤在接下來的10月中旬弄出了更大的漏子,無人機攻擊了一個餐廳外的車隊,導(dǎo)致十余人喪生,最終證明全都是無辜平民,而需要攻擊的恐怖分子當(dāng)時在另外一個地點。這兩次誤擊(特別是第二次)導(dǎo)致了廣泛的抗議,在強大的輿論壓力下,美國人被迫暫時取消了對無人機打擊的授權(quán)。然而報應(yīng)來得好快,2012年9月,美國駐班加西領(lǐng)事館遭到民兵的圍攻,當(dāng)時雖然有一架“捕食者”無人機趕到現(xiàn)場,卻因為沒有攜帶武器而無法發(fā)動打擊,最終有4名美國人喪生,包括美國駐利比亞大使史蒂文斯。
事實上,在有人參與控制的情況下,無人機僅僅起到了延伸打擊距離的作用,已經(jīng)引發(fā)了如此之強的不良反應(yīng),而現(xiàn)在各國軍隊普遍開始裝備的具有殺傷武器的小機器人,就更加令人感到不安了,因為這意昧著AI已經(jīng)獲得了軍方的殺人許可,如果湊巧這個Al像AIpha那么聰明強大,甚至比Alpha聰明強大一萬倍,對人類會產(chǎn)生怎么樣的威脅呢?英國物理學(xué)家史蒂芬·霍金認(rèn)為,人工智能的潛在威脅,絕不僅僅是像電影《終結(jié)者》里描繪的那種夢魘,他認(rèn)為,目前的人工智能正在走向錯誤的軌跡。
但是,人類歷史上面臨的危機已經(jīng)不是一次兩次了,即便是在當(dāng)下,人工智能的威脅也似乎不如地球環(huán)境污染對人類的威脅大,以自動駕駛為代表的人工智能更是大大有利于人類的生活和發(fā)展,未來人工智能究竟如何發(fā)展,也許是現(xiàn)在的人們無法斷言的。
責(zé)任編輯:王鑫邦