專家說,即使友善機器人也會倒戈
從英國著名理論物理學家史蒂芬·霍金到特斯拉創(chuàng)始人伊隆·馬斯克等世界頂尖人工智能(AI)專家,都曾表示過AI對人類生存的威脅。
真有一天,人類會成為自己發(fā)明的機器人的受害者嗎?
加州大學伯克利分校的斯圖爾特·羅素教授是該領(lǐng)域的專家。
他在剛出版的《人類相容:人工智能與控制問題》一書中指出,這種威脅并非來自機器人開始有了自我意識,并起來反抗人類主人。
而是因為這些機器人能力變得超強,最后有可能是因為人類的疏忽,為機器人設(shè)置了錯誤的目標,讓他們無意中把我們都消滅了。
羅素教授表示,這才是我們應(yīng)該擔心的,而不是像好萊塢大片中所描繪的那樣,人工智能開始有自主意識,并向人類倒戈,最后把我們都殺光。
羅素教授強調(diào):我們應(yīng)該擔憂的不是意識,而是它們的能力。
羅素教授在接受采訪時表示,假設(shè)我們發(fā)明了一個可以用于控制氣候變化的強大人工智能系統(tǒng),并且能將大氣中的二氧化碳水平恢復到工業(yè)革命前的水平。
該人工智能系統(tǒng)經(jīng)過分析后認為,最容易的方式就是消滅人類,因為人類活動是產(chǎn)生二氧化碳的最主要來源。
當然人類可能會對機器人說,你做什么都可以但就是不能把人類全滅絕。人工智能系統(tǒng)然后可能會說服人類少生孩子,直到最后沒有人生孩子,人類慢慢滅絕為止。
這個例子是想強調(diào)與人工智能有關(guān)的風險,這些風險都是人類在創(chuàng)造人工智能前并沒有想明白的。
機器人對人類交給他們的任務(wù)越來越勝任
深藍的勝利是人工智能發(fā)展史上的一個重要時刻
羅素教授說,人類需要收回控制權(quán),否則就晚了
科幻片《2001:太空漫游》中,機器人電腦拒絕被關(guān)閉
英國劍橋大學存在風險研究中心表示,當前大多數(shù)AI系統(tǒng)都是相對“狹窄”的應(yīng)用程序,專門用于解決某一領(lǐng)域中的特定問題。
但1997年,超級電腦深藍打敗了國際象棋世界衛(wèi)冕冠軍加里·卡斯帕羅夫,成為人工智能史上里程碑。
然而,雖然深藍擊敗了世界象棋衛(wèi)冕冠軍,但深藍卻可能連一場簡單的跳棋游戲都贏不了。因為深藍的設(shè)計者是專門讓它下象棋的。
但這才僅僅是開始,隨著人工智能的發(fā)展和進步,阿爾法圍棋的最新版AlphaGo Zero在經(jīng)過短短3天跟自己練習之后,已經(jīng)達到了超人水平。
AlphaGo Zero通過深度學習,已經(jīng)不太需要太多的人工程序。它成為圍棋、國際象棋以及將棋(又稱日本將棋)的高手。
這里,最讓人感到震驚的是,AlphaGo Zero完全是自學成才。
劍橋大學存在風險研究中心表示,隨著人工智能逐漸強大,它可能會成為超級智能。它會在許多,或是幾乎所有領(lǐng)域都超越人類。
羅素教授說,這就是為什么人類需要收回控制權(quán)。
羅素說,賦予人工智能更明確的目標并不是解決這一難題的方法,因為人類自己都無法確定這些目標是什么。
羅素表示,人們應(yīng)該徹底改變建立人工智能系統(tǒng)的整體基礎(chǔ),例如,不再給機器人一個固定目標,而是讓人工智能系統(tǒng)必須明白,它不知道目標是什么。
一旦人工智能系統(tǒng)以這種方式運作的話,它就會聽從于人類的指揮。在執(zhí)行任務(wù)之前,它會尋求人類的許可,因為它不確定這是不是你想要的。
羅素教授表示,最至關(guān)重要的是,它們(AI)會樂意接受被隨時關(guān)閉的選擇,因為它們也希望避免做那些你不喜歡的事情。
羅素說,我們現(xiàn)在發(fā)明的AT系統(tǒng)有點像傳說中的神燈中的精靈一樣,你輕拍神燈,燈里的精靈出來了。你對精靈說:“你給我做這件事吧?!?/p>
“如果AI系統(tǒng)足夠強大,它就會完全按照你的要求去做,你也會得到你所要求的一模一樣的結(jié)果。”
但羅素表示,問題是跟神燈中的精靈故事那樣,第三個愿望總是要求精靈“取消前面的那兩個愿望”,因為我們無法確定自己到底想要什么。
其結(jié)果就可能造成,那個試圖完成錯誤指令的機器人實際上變成了人類的敵人,一個比我們強大得多的敵人。到那時,一切就太晚了。(摘自英國廣播公司新聞網(wǎng))(編輯/華生)