沙恩?萊格
科幻小說中最永恒的威脅之一就是人工智能所帶來的恐懼:人們設(shè)想計(jì)算機(jī)總有一天會變得非常聰明,實(shí)際上會有自我意識……接著就試圖接管世界。
從HAL9000到天網(wǎng),再到《機(jī)械姬》里的Ava,你看過這些以后若是對人類在宇宙中長久以來的地位感到隱隱不安,那也情有可原。但是,我們真的需要擔(dān)心什么嗎?還是那些只是駭人聽聞的傳聞?
從根本上說,人們擔(dān)憂的一大問題是,隨著人工智能不斷提升,我們終將迎來所謂的“奇點(diǎn)”——屆時人工智能將變得非常聰明,足以進(jìn)行自我改進(jìn)。
如果一臺機(jī)器能夠不斷創(chuàng)造出更完善的自己,那就仿佛在技術(shù)上脫韁失控:計(jì)算機(jī)很快會變得非常聰明,以至于我們不僅無法控制它們,我們?nèi)跣〉纳锎竽X甚至也完全無法理解它們在做什么或者它們是如何做的。有點(diǎn)嚇人,不是嗎?
我們是否應(yīng)該擔(dān)心人工智能失控呢?科技界的許多大佬就此發(fā)表了看法。
“我們可以想象,這種技術(shù)會擊敗金融市場,在發(fā)明創(chuàng)造上蓋過人類研究人員,在玩弄權(quán)術(shù)上勝過人類領(lǐng)導(dǎo)者,制造出我們甚至無法理解的武器,”物理學(xué)家斯蒂芬·霍金及其同事在英國《獨(dú)立報》上撰文稱,并進(jìn)一步說道,“雖然人工智能帶來的短期影響取決于誰來控制它,但長期影響則取決于其是否可控。”
美國特斯拉公司首席執(zhí)行官、億萬富翁埃隆·馬斯克對人工智能失控可能引發(fā)的后果十分擔(dān)憂,于是付諸實(shí)際行動,向研究如何使人工智能安全的生命未來研究所捐資1000萬美元。
比爾·蓋茨也發(fā)表意見說:“我屬于對超級智能感到擔(dān)憂的那一派。一開始,機(jī)器能給我們干好多活兒,又不是太聰明。管理得當(dāng)?shù)脑?,這是件好事。可幾十年后,這種智能就會強(qiáng)大到令人擔(dān)憂?!?/p>
目前計(jì)算機(jī)到底有多聰明呢?
實(shí)際上,全球大多數(shù)最大的科技公司現(xiàn)在都在努力設(shè)計(jì)越來越聰明的機(jī)器。Google Now和Siri就已經(jīng)融合了多種復(fù)雜技術(shù),比如自然語言處理(聽懂我們在說什么)和語義文本識別(知道我們的文字到底是什么意思)。
最近有很多這樣的智能技術(shù)出現(xiàn),其原因在于計(jì)算能力、云計(jì)算和存儲技術(shù)在持續(xù)快速提高,促進(jìn)了模仿人腦內(nèi)同一類連接的先進(jìn)的“神經(jīng)網(wǎng)絡(luò)”的發(fā)展?!吧窠?jīng)網(wǎng)絡(luò)”將在任何“奇點(diǎn)”中發(fā)揮重要作用,因?yàn)榻屉娔X學(xué)習(xí)就是在教它們進(jìn)化。
人工智能最近的重大新聞是谷歌取得了又一個劃時代的成就:在復(fù)雜程度超過國際象棋很多倍的圍棋對弈中,AlphaGo擊敗了人類最優(yōu)秀的棋手。
那么我們該擔(dān)心嗎?或許沒必要。所有上面提到的著名人物有一個共同點(diǎn):他們都不是人工智能領(lǐng)域真正的專家。如果你向?qū)<野l(fā)問,他們給出的意見會略有不同。
金史密斯學(xué)院從事認(rèn)知計(jì)算研究的馬克·畢曉普教授并不認(rèn)為在不遠(yuǎn)的將來會出現(xiàn)人工智能“失控”的情況,并對此做出了解釋。
畢曉普教授深知人工智能的潛在危害,特別是“自主戰(zhàn)爭機(jī)器”的發(fā)明,比如會根據(jù)算法而非人類決定進(jìn)行射擊的無人機(jī)。他擔(dān)心我們可能即將開始一場軍事機(jī)器人軍備競賽。去年,他聯(lián)名簽署了一封由生命未來研究所發(fā)布的警告這一危險的公開信。
但至于人工智能會不會完全統(tǒng)治地球,畢曉普教授倒是不那么擔(dān)心。他向techradar網(wǎng)站表示:“該公開信的一些支持者的說法有些脫離實(shí)際,比如斯蒂芬·霍金對‘奇點(diǎn)的擔(dān)憂,或是埃隆·馬斯克所設(shè)想的不到十年人類就會創(chuàng)造出一個人工智能惡魔。對于這些觀點(diǎn),我保持懷疑。”
但這并不是說沒有潛在的問題?!拔耶?dāng)然認(rèn)為武裝和部署致命性自主武器系統(tǒng)存在極為嚴(yán)峻的危險,或許關(guān)乎人類存亡?!碑厱云战淌谘a(bǔ)充道。
人工智能教授克斯騰·多騰哈恩也不相信我們正在走向人工智能主宰一切的世界末日?!拔也粨?dān)心人工智能會威脅到人類,或是統(tǒng)治世界,”她告訴我們,“人工智能20世紀(jì)50年代就出現(xiàn)了,而直到最近才有了重大的發(fā)展,出現(xiàn)了更好、更快的計(jì)算機(jī)和計(jì)算設(shè)備?!?/p>
多騰哈恩教授指出,這些進(jìn)步目前局限于“特定領(lǐng)域”。換句話說,盡管過去70多年來計(jì)算機(jī)技術(shù)取得了巨大進(jìn)步,但驅(qū)動Siri的人工智能還是不能驅(qū)動武器系統(tǒng),而這兩項(xiàng)工作人類大腦都能勝任。這表明計(jì)算機(jī)代碼的智能程度受限——如果計(jì)算機(jī)的學(xué)習(xí)受限,“奇點(diǎn)”就不會出現(xiàn)。
“即便有一套具備學(xué)習(xí)和適應(yīng)能力的系統(tǒng),其能力范圍也是由編寫代碼和構(gòu)建系統(tǒng)的程序員或研究人員劃定的,”多騰哈恩教授解釋說,“沒有任何科學(xué)證據(jù)表明人工智能遲早會威脅到人類。”
多騰哈恩教授說,更大的威脅來自我們這些討厭的人類?!叭祟惒回?fù)責(zé)任地使用人工智能——這才是真正的威脅。使用新技術(shù)的方式總是有好有壞,如何使用人工智能,其決定權(quán)在人類手中?!?/p>
因此,“奇點(diǎn)”可能不會徹底毀滅人類,但人工智能的發(fā)展仍然可能非常危險。
不可能完成的挑戰(zhàn)
多騰哈恩教授還認(rèn)為,人工智能要在生活的方方面面取代人類并最終掌管一切,還面臨另一重限制因素:互動。人類顯然是極好的交流者,而讓機(jī)器完全理解人類互動的確是異常困難。
“我們同計(jì)算機(jī)和機(jī)器人進(jìn)行的互動往往是受人與人之間互動的啟發(fā),”她解釋道,“這么說理由很充分:美國和其他國家的研究清楚顯示,人類傾向于采取像對待人一樣的社交方式來對待包括機(jī)器人和計(jì)算機(jī)在內(nèi)的交互式系統(tǒng)。”
換言之,我們希望機(jī)器人更像我們自己。多騰哈恩教授說,這就是為什么語音和手勢識別成為那么多研究的焦點(diǎn),但是這種技術(shù)的發(fā)展仍然嚴(yán)重不足。她指出:“我們還沒有一套系統(tǒng)可以就我們選擇的任一話題在噪音環(huán)境下,像人一樣自然流暢地進(jìn)行語音交流?!?p>
智能計(jì)算機(jī)WAtson(中)在參加問答比賽
與此同時,畢曉普教授似乎指出了一個更為根本的問題:支撐我們理解人工智能的復(fù)雜的哲學(xué)論點(diǎn)。他認(rèn)為這終將歸結(jié)為計(jì)算機(jī)無法完成的三項(xiàng)主要任務(wù):模仿人的意識,真正像我們一樣去“理解”,表現(xiàn)出“真正的數(shù)學(xué)洞察力或創(chuàng)造性”。所以,雖然機(jī)器人有可能在電視問答競賽中獲勝,就像2011年IBM公司的智能計(jì)算機(jī)Watson那樣,但如果畢曉普教授說的沒錯,我們就不能指望機(jī)器人開始創(chuàng)作交響曲或執(zhí)導(dǎo)戲劇。
簡而言之,人類總會在某個方面勝過計(jì)算機(jī),或者就像畢曉普教授用更具哲學(xué)性的語言所說的那樣:“在我看來,正是由于這些缺陷,機(jī)器人這樣的計(jì)算系統(tǒng)永遠(yuǎn)無法自主實(shí)施有目的性的操作,而只能作為一種工具按照主人或設(shè)計(jì)者的命令行動。這樣的系統(tǒng)不能故意違抗命令,就像牛頓的蘋果不能故意抗拒地心引力而不落到地面一樣?!?/p>
我們應(yīng)該擔(dān)心嗎?
那么機(jī)器人或人工智能會取代我們嗎?看看眼下計(jì)算機(jī)已經(jīng)承擔(dān)的工作,某種程度上這種取代已經(jīng)發(fā)生了。計(jì)算機(jī)正開著我們的車,挑選我們要讀的新聞,回答我們提出的問題。
但是我們大家擔(dān)心的并不是這樣的人工智能。按照業(yè)內(nèi)專家的說法,我們不必?fù)?dān)心機(jī)器人會統(tǒng)治世界。盡管神經(jīng)網(wǎng)絡(luò)已變得日益智能,但似乎仍有根本性的障礙阻止“奇點(diǎn)”的出現(xiàn)。
這對我們來說是個好消息。
這并不意味著我們不必承擔(dān)責(zé)任,但至少對于人工智能會不會造成危害,這或許取決于人類,而非某個算法。