齊芳
摘要:人工智能不是人類和其他動物展示的自然智能,而是機器展示的智能?,F(xiàn)在,它成了我們生活中的一個熱點。但是,現(xiàn)在有一些反對意見。物理學(xué)家史蒂芬霍金接受英國廣播公司采訪時說:“我認為人工智能的發(fā)展最終會對人類發(fā)展造成巨大影響。”特斯拉創(chuàng)始人埃隆·馬斯克(Elon Mask)也表示贊同此意見。
關(guān)鍵詞:人工智能;人工智能的現(xiàn)狀;依靠人工智能的支撐業(yè)務(wù);阿爾法狗
在談到人工智能的威脅之前,我們應(yīng)該先看看人工智能的現(xiàn)狀。最近,麻省理工學(xué)院科技評論了50家最智能科技公司的名單。據(jù)外媒統(tǒng)計,今年以來,13家企業(yè)首次依靠人工智能支撐業(yè)務(wù),占榜單的20%以上。這些公司包括Nvidia、Facebook、Line、Microsoft、Enlitic、IBM、Tesla、Untibable、Fanuc、Alphabet、Bosch、Drop Trip。
計算機或其它機器執(zhí)行被認為需要智能的動作的能力。其中包括邏輯推理和推理、創(chuàng)造力、根據(jù)過去的經(jīng)驗做出決定的能力或信息不足或沖突的能力,以及理解口語的能力。一個致力于人工智能研究的實驗室解釋了它們的作用:“我們的目標(biāo)是了解智能的本質(zhì),并設(shè)計出展示智能的系統(tǒng)?!蹦憧赡軙J為計算機是智能的,但實際上它非??斓刈裱较?。一個真正的智能設(shè)備將更加靈活,并將參與人們真正做的那種“思考”。視覺就是一個例子。傳感器網(wǎng)絡(luò)與解釋數(shù)據(jù)的系統(tǒng)相結(jié)合,可能產(chǎn)生一種我們認為理所當(dāng)然的模式識別,即看到和理解我們看到的東西。事實上,開發(fā)能夠識別物體之間細微差別的軟件(比如我們在兩個人的臉上看到的)是非常困難的。我們不需要刻意的努力就能察覺到的差異需要大量的數(shù)據(jù)和仔細的人工智能系統(tǒng)識別指南。計算機對人工智能是必要的,因為它們允許研究人員管理所有需要的數(shù)據(jù),試圖模仿真正的智能。創(chuàng)造人工智能的嘗試應(yīng)該能使人們更好地理解人腦。畢竟,如果你不知道它是如何工作的,你就不能復(fù)制它。
機器人三定律是科幻作家艾薩克·阿西莫夫設(shè)計的一套規(guī)則。這些規(guī)則是在他1942年的短篇小說《逃跑》中引入的,盡管這些規(guī)則已經(jīng)在一些早期的故事中有所預(yù)兆。這三條法律似乎可以防止人工智能對我們造成傷害。事實上,這些法律中存在漏洞。首先,人類的定義是不確定的。機器人被告知,只有講太陽系口音的人是人類。這使得他們的機器人在傷害非太陽系人方面沒有道德困境。根據(jù)基金會和地球的時間段,揭示了機器人已經(jīng)將自己改造成一個不同于人類的物種——變兩性和遙動,并包含能夠單獨驅(qū)動和控制機器人的整個復(fù)合物的生物器官。因此,索拉里亞的機器人只尊重與索拉里亞的“人類”有關(guān)的三條法律。目前還不清楚所有的機器人是否都有這樣的定義,因為只有監(jiān)督者和守護者機器人被明確地證明擁有這些定義。在《機器人與帝國》一書中,較低級的機器人受到監(jiān)督者的指導(dǎo),了解某些生物是否是人類。
其次,機器人可能沒有意識到它是一個機器人。我們可以從尼古拉·凱薩羅夫斯基的《機器人第五定律》中看到,“機器人必須知道它是一個機器人”:假定一個機器人對這個術(shù)語有一個定義,或者說是一種將它應(yīng)用于自身行為的方法。尼古拉·凱薩羅夫斯基(Nikola Kesarovski)在寫一個可以殺死一個人的機器人的文章時就利用了這個想法,因為他沒有意識到這是一個機器人,因此這個機器人的行為不適用機器人學(xué)的定律。
AlphaGo是第一個擊敗專業(yè)的人類圍棋玩家的計算機程序,也是第一個擊敗圍棋世界冠軍的程序,可以說是歷史上最強的圍棋玩家。阿爾法戈的第一場正式比賽是在2015年10月對陣3次歐洲冠軍范輝。它5-0的勝利是有史以來第一次對一個職業(yè)選手的比賽,結(jié)果在國際期刊《自然》上發(fā)表了完整的技術(shù)細節(jié)。隨后,阿爾法戈繼續(xù)與傳奇球員李賽多競爭,李賽多獲得了18個世界冠軍,被廣泛認為是過去十年中最偉大的球員。2016年3月,阿爾法戈在韓國首爾以4比1獲勝,全世界有2億多人觀看了這場勝利。這是一項里程碑式的成就,專家們一致認為這比它的時代提前了十年,并為AlphaGo贏得了9 daN的專業(yè)排名——這是計算機Go玩家首次獲得此榮譽。據(jù)說AlphaGo可以預(yù)測下棋的25步。我們可以指出,當(dāng)人們開始擔(dān)心這是否會對我們構(gòu)成威脅時,阿爾法戈可能會故意輸?shù)暨@場比賽。
另一個預(yù)測是,人工智能可能無法通過阿蘭·圖靈于1950年開發(fā)的圖靈測試,這是一個測試機器是否有能力表現(xiàn)出智能行為的能力。
但問題是圖靈測試不能測試高度智能的行為,例如解決困難問題的能力或提出最初的見解。事實上,它特別需要機器部分的欺騙:如果機器比人類更聰明,它必須故意避免顯得太聰明。如果要解決一個人類幾乎不可能解決的計算問題,那么詢問者就會知道程序不是人類的,而機器也將無法通過測試。因為它不能測量超出人類能力范圍的智能,所以測試不能用于構(gòu)建或評估比人類更智能的系統(tǒng)。因此,提出了幾種能夠評估超級智能系統(tǒng)的測試方案。
近幾年來,基于人工智能的無人駕駛機器逐漸興起。它們可以自動搜索和跟蹤目標(biāo),獨立識別地形,選擇前進方向,獨立完成偵察、補給和攻擊任務(wù)。
綜上所述,近年來人工智能的快速發(fā)展令人欣喜。目前,特定領(lǐng)域的人工智能技術(shù)已經(jīng)取得了突破性進展,甚至在單點突破和局部智能水平單點測試方面都超過了人類智能。在戰(zhàn)爭中,我們在計算機和大腦中一路前進,但“一般智能”是其應(yīng)用的最大障礙。如果能夠突破這一限制,人工智能將進入一個新的領(lǐng)域。
人工智能將給人們的生活帶來便利,在世界氣候建模問題上,復(fù)雜的災(zāi)害分析手段解決了醫(yī)學(xué)和環(huán)境方面的問題,并被廣泛應(yīng)用于國防、醫(yī)療、工業(yè)、農(nóng)業(yè)、商業(yè)、金融、教育、公安等領(lǐng)域,“人工智能”“疏忽”將成為創(chuàng)新的時尚。人們現(xiàn)在習(xí)慣的許多工作將被人工智能取代,例如工人、侍者、教師、司機等等。
參考文獻:
[1] 羅素.斯圖爾特(2009).人工智能的現(xiàn)代啟示.Upper Saddle River,New Jersey:Prentice Hall.ISBN 0-13-604259-7..
[2] 大衛(wèi)、保羅.溫蒂(1998).電腦中的智慧.New York:Oxford University Press.ISBN 0-19-510270-3.
[3] 溫斯頓.亨利(1984).讀懂人工智能:Addison-Wesley.ISBN 0-201-08259-4.
[4] 克萊韋.丹尼爾(1993),人工智能在生活領(lǐng)域的延申,New York,NY:BasicBooks,ISBN 0-465-02997-3.
(作者身份證號碼:110222199711030341)