劉瀟
觀看阿爾法狗與李世石的“人機(jī)大戰(zhàn)”后,相信很多人都會(huì)和我一樣,對(duì)九段的李世石被一臺(tái)冰冷的智能機(jī)器恣意碾壓而心存幾分兔死狐悲之感。更多的人恐怕還會(huì)想到:如果有一天,機(jī)器人全面超越人類,碾壓的不單是人類的軀體,甚至是智商,人類是否也會(huì)像今天坐在阿爾法狗對(duì)面的李世石一樣束手無策?
其實(shí)人類有這樣的憂慮并非始于今日,那些富于幻想的文學(xué)家、藝術(shù)家們?cè)谏蟼€(gè)世紀(jì)甚至上上個(gè)世紀(jì)就已經(jīng)借助小說或影視的形式表達(dá)出同樣的隱憂。比如英國詩人雪萊的妻子瑪麗·雪萊創(chuàng)作于19世紀(jì)的科幻小說《弗蘭肯斯坦》以及拍攝于上個(gè)世紀(jì)的科幻電影《2001太空漫游》《終結(jié)者》等一系列作品,都從一個(gè)側(cè)面反映出人類潛意識(shí)中對(duì)人工智能這一人類創(chuàng)造出的“最終有可能毀掉它的創(chuàng)造者的東西”的深深憂慮。
或許有人會(huì)說,上述隱憂純屬文學(xué)家、藝術(shù)家們的神經(jīng)過敏或多愁善感所致。殊不知,今天已有不少科學(xué)家在面對(duì)不斷發(fā)展進(jìn)步的人工智能技術(shù)時(shí),也步入了悲觀和憂慮者的行列。英國著名物理學(xué)家霍金便是“悲觀派”中的一員。
霍金因患有肌肉萎縮性脊髓側(cè)索硬化癥難以與人正常交流,正是人工智能系統(tǒng)推測(cè)他想要表達(dá)的語言詞匯,幫助他大大提升了打字和發(fā)郵件的速度?;艚鸨硎?,人工智能系統(tǒng)可以幫助他更好地演講、撰寫文章,也可以幫助他更方便地與親人和朋友交流。即便這樣,霍金還是對(duì)人工智能的發(fā)展心存疑忌,甚至認(rèn)為創(chuàng)造“能思考”的機(jī)器的努力將威脅到人類自身的生存。他認(rèn)為“對(duì)完全人工智能的發(fā)展可能會(huì)招致人類歷史的終結(jié)”,因?yàn)椤叭斯ぶ悄芸赡軙?huì)自發(fā)地開始進(jìn)化,而且以前所未有的速度重新設(shè)計(jì)自己。受限于緩慢的生物進(jìn)化過程的人類,根本無法與人工智能相比,最終會(huì)被它們超越”。
我們可以推測(cè),隨著經(jīng)濟(jì)、科技的發(fā)展,人類在未來一定能制造出“完全人工智能”機(jī)器。因?yàn)殡m然人類在相當(dāng)長的一段時(shí)間內(nèi)將保持對(duì)人工智能技術(shù)的掌控,但是誰也不能保證,某一天不會(huì)因?yàn)橐粋€(gè)偶然的設(shè)計(jì)錯(cuò)誤,或“可以自發(fā)進(jìn)化”的人工智能機(jī)器出現(xiàn)“逆反心理”而給它的“主人”以致命一擊。
未來的人工智能技術(shù)或許就像火一樣,成為人類最重要的工具之一,無法舍棄。但是切記,在火不為我們所掌控時(shí),它完全可以將我們化為灰燼。人工智能同樣如此,如果理性地使用它將造福良多;一旦脫離了人類的控制,后果將不堪設(shè)想。
我們的科技工作者應(yīng)當(dāng)把霍金的話當(dāng)作一種告誡,一種警醒,從而理性地、人道地、合法地開發(fā)和利用人工智能,千萬莫讓那些擔(dān)憂之語一語成讖!
【作者系江蘇省鹽城市亭湖高級(jí)中學(xué)學(xué)生,指導(dǎo)教師:王淦生】