高飛
人工智能正以無比迅捷的速度成為科技圈最熱的話題,有越來越多的人討論人工智能與人類之間的問題。著名物理學家霍金就發(fā)出過警告,人工智能未來必將威脅到人類的生存,引發(fā)很多人的恐慌。但其實霍金等人的警告是有很重要的前提的,更重要的是,真正的人工智能其實離我們還非常遙遠。
在2015年大連的達沃斯會議的人工智能論壇上,主持人拋出了這樣三個問題:如果你作為嫌疑人出現(xiàn)在法庭上,你希望法官是人類還是人工智能;如果你得了一種威脅你生命的疾病,你希望做出診斷的是人類還是人工智能;如果國家之間爆發(fā)戰(zhàn)爭,你希望機器人做士兵(人工智能驅動的)還是人類做士兵?
沒有人工智能
對于這三個問題,無論是現(xiàn)場的觀眾,還是之前網(wǎng)上征集的答案,關于前兩個問題,都有比較大的爭議,有人或許因為醫(yī)患關系不佳信任機器人醫(yī)生,也有人更相信“老大夫”式的人類智慧。有人相信自己和人類法官更能說得清楚自己沒有犯罪,有人則對機器人的客觀公正更有把握。唯獨對第三個問題,希望機器人做士兵還是人類做士兵,答案卻很一致:所有人都認為還是機器人做士兵可能更好一些。
這三個答案其實已經(jīng)體現(xiàn)了人類對人工智能(或者說機器人)的態(tài)度和定位,在公眾的內(nèi)心里,其實根本沒有所謂人工智能,只有類似“狗智能”或者說是“警犬式的智能”。人工智能的定義有很多,但是共性的描述都包括,讓機器擁有人類一般的智能、思考能力、自我認知能力和智慧的進化能力。不過我們能看到的情況是,現(xiàn)在所有關于人工智能的產(chǎn)業(yè)化研究,都沒有涉及到這樣的人工智能。
這一方面是因為技術水平還沒有達到這個層次,讓機器掌握自我進化的智慧多少超出了我們現(xiàn)在掌握的科學水平。另一方面,正如剛才所提及的,雖然大家每天都在說人工智能,但是沒有人希望或者相信有人工智能,也就是如人一般的智能,或者說能夠取代人的智能?,F(xiàn)在所有在研發(fā)的人工智能(或者說機器人),多數(shù)只是作為人類的一個補充存在。這些機器人所從事的工作,或體現(xiàn)的作用,只是人類自己不希望或者不愿意做的事情,而非真的將機器人作為另外一種智能去承認。
比如工業(yè)生產(chǎn)線機器人,它解決人力成本越來越高的問題,做的是人類不再喜歡做重復性勞動的工作;礦井的探測機器人的研發(fā),是因為工作環(huán)境太過惡劣,無人愿意從事的緣故。士兵機器人,更是因為人類將自身生命看得非常寶貴,所以愿意齊刷刷選擇機器人上戰(zhàn)場。雖然也有一些場合,機器起到了主體作用,比如科學運算,但這和人類選擇狗作為警犬的道理如出一轍,我們選擇狗作為警犬,不是因為狗有多智能(盡管狗在動物界也算聰明),只是因為狗的鼻子比人類靈敏(如同機器的純數(shù)學運算速度快于人腦),這只能說明機器的天然優(yōu)勢,而并非人類承認人工智能可以和人的智能平起平坐。正如人不會因為狗的鼻子比人類靈敏,大家就會承認“狗權”能等于,甚至大于人權。
既然現(xiàn)狀如此,為何開篇提到的霍金等人會對人工智能如此疑慮呢?其實,霍金對人工智能的擔憂是有特定指向的。在包括霍金、哲學家喬姆斯基和馬斯克(特斯拉創(chuàng)始人)等專家和意見領袖的公開信中,他們對人工智能的擔憂主要體現(xiàn)在人工智能用于“自主性武器”,通俗的說就是機器士兵。這個有指向性的擔憂并非完全沒有道理,我們在達沃斯論壇也看到了,公眾實際上對機器士兵是持歡迎態(tài)度的。但是,人們只看了機器士兵可以替人類賣命,卻忽視了它可能存在的威脅。機器士兵,只會根據(jù)設定好的邏輯進行攻擊判斷,不像人類一樣會考慮自身安危。讓我們假設一下,如果把一個大國的核武器發(fā)動按鈕由機器士兵來保管,那么1962年的古巴導彈危機大概不會持續(xù)13天,而只是13小時,甚至13分鐘之內(nèi),一瞬間核武器就已經(jīng)在美蘇之間發(fā)射了。因為機器做決策,只有零和一,沒有妥協(xié)性的中間地帶。
盡管機器士兵的威脅對人類確實存在,我們也必須看到,這種人工智能產(chǎn)生的威脅,和日常在科幻電影里看到的人工智能的威脅,完全不是一回事。在電影《終結者》中,天網(wǎng)就是一種機器士兵,它對人類的圍剿是有主動性的,天網(wǎng)認為人類是一種威脅,所以發(fā)動了對人類的戰(zhàn)爭。而在《黑客帝國》中,機器則因為人類決定消滅機器人這一族群而發(fā)動了一場反侵略戰(zhàn)爭。但霍金眼中的威脅,并不屬于以上的情況。自主性武器所帶來的威脅,更像是一種放大后的意外。自主武器因為誤判了戰(zhàn)場情況,發(fā)動了不該發(fā)動的大規(guī)模殺傷武器,導致整個人類面臨威脅,和人工智能判斷人類本身是應該消除的敵對勢力完全是兩種情況。雖然這兩種情況都可能造成人類生存危機,但是緣由是完全不同的。一種是主動為之,另一種是城門失火殃及池魚。
人工智能沒有機會長大
既然人工智能具備智慧產(chǎn)生的威脅才是真正的威脅,這種境地離我們是否也已經(jīng)不遠?可以說,在目前產(chǎn)業(yè)界只是將人工智能定義為“警犬智能”的立場下,這種真正的人工智能威脅的距離還相當遙遠。原因在于,人工智能得不到像人類一樣的成長環(huán)境。
讓我們回顧一下人類的成長過程吧,這實際上是一個充滿了犯錯和糾錯的發(fā)展史。我們碰翻了開水,知道了燙的傷害,我們不小心跌倒,知道了失去平衡的痛苦滋味。如果開車出現(xiàn)了交通事故,則知道了注意力不集中,或者酒精對人腦帶來的損害。這樣不斷地犯錯,也是一個不斷學習的過程,也是人類對世界的認知不斷進步的過程。所以,幾乎所有的法治國家,都對未成年人的錯誤持寬容態(tài)度,甚至未成年人犯罪,還會網(wǎng)開一面,就是對“人犯錯”的正面認識。
可是人類對人類的態(tài)度,不會出現(xiàn)在人類對機器身上。根據(jù)聯(lián)合國的一項數(shù)據(jù)統(tǒng)計,全世界每年因交通事故死亡的人數(shù)超過了100萬。這些事故中,固然有很多是天氣和機械失靈的原因,但是相當一部分是駕駛員(人類)操作不當導致。但是我們并沒有因此取締汽車這一交通工具,而是試圖以更嚴格的法律和駕駛培訓來解決這樣的問題??扇绻覀冇脵C器換位思考一下,情況截然不同?,F(xiàn)在谷歌等公司正在道路上測試的無人駕駛汽車,不用說發(fā)生人類駕駛員可能犯的百萬次錯誤,如果僅僅每年因為人工智能誤判發(fā)生10起致人死亡的事故,相信也足以讓交通管理部門叫停谷歌這一測試。人類對自身是寬容的,而對待機器(異類)是嚴苛的。正是這種嚴苛,雖然科學家和技術公司對人工智能的研究如火如荼,但是如果不能讓人工智能得到人類一樣的糾錯機會,不能獲得人類一樣的成長環(huán)境,人工智能很難真正“長大成人”。
當然,人工既然是計算機產(chǎn)生的智慧,或許也可以利用虛擬現(xiàn)實作為一種訓練方法,正如《黑客帝國》中,尼奧也在一個小型的“Matrix”中學會了功夫。但現(xiàn)實世界的變量遠遠不是虛擬世界能夠去完全模擬的。沒有一個“良好”的成長環(huán)境,出生在一個犯錯就會被“砍頭”的教育環(huán)境里,我們很難相信真正的人工智能能夠通過機器學習實現(xiàn)自我成長。在很長一段時間里,相信我們見不到人工智能,只能看到有一技之長的“狗智能”。
人工智能的未來
那么,“狗智能”是否就是人類所能創(chuàng)造的機器智慧的最高境界呢?答案也不會那么簡單。這里有兩個變數(shù)存在。首先,每個科幻電影里都有一個瘋狂的科學家,現(xiàn)實世界當中,很難說不會發(fā)生這樣的情況。在正常的學術環(huán)境(倫理要求)下,人工智能無法得到的成長環(huán)境,在一些極端環(huán)境下,是可能出現(xiàn)的。不說戰(zhàn)爭,和人類較為遙遠的外太空探索就可能讓科學家和政府作出一定程度上的讓步。
另一方面,雖然像人工一樣的智能很難出現(xiàn),但是人工+智能卻不那么遙遠。手機和可穿戴設備的到來,讓人與機器之間的距離前所未有的貼近。而接下來植入人體的智能硬件,則讓人工+智能(機器)成為現(xiàn)實。雖然,人工+智能的初衷,是讓機器作為人的助手,幫助人提高效率,做決策的還是人,但是未見得機器智能不會反客為主。因為是人工+智能,人表面上掌握了決策的最終決定權,所以在這個外衣的掩護下,機器犯了錯,也不一定歸罪于機器,正如人類駕駛員開車出了事故,不能去責怪汽車一樣。這種寬容,可能讓機器實現(xiàn)了某種程度的在真實世界成長的機會,而不是犯錯后就扼殺在搖籃里。這個進程,取決于碳基生命(人類)和硅基生命(機器)之間結合的速度。
這樣看來,人工智能的威脅確實未能完全避免。不過退一步思考,人工智能真的對人類產(chǎn)生威脅,應該不會比人類對人類自身的威脅更大。讓我們再搬出這個定義吧:人工智能,是指像人類一樣的智能。所以人工智能,歸根結底模仿的是人類的言行。人類危險,機器自然也可能危險。現(xiàn)在機器對人類文本學習的理解能力的技術進步速度是相當快的,其實這就是比較危險的一件事,因為機器可以讀到的人類史,就是一部戰(zhàn)爭不斷的沖突史。上行下效之下,一個剛讀完二戰(zhàn)史的人工智能,將如何看待閃電戰(zhàn)和原子彈在戰(zhàn)爭中的作用呢?
所以人工智能是否會產(chǎn)生威脅,實際上與“智能”本身無關,而僅與“人工”有關?!度w》一書中,三體人說,我們 “消滅你,與你無關”。而如果有一天人工智能真的有了威脅,那恐怕是,消滅你,是因為你教我這么干。