石安寧
升級(jí)版的“阿爾法狗”戰(zhàn)勝了60位人類頂尖圍棋大師,這讓不少人對(duì)人工智能的迅猛發(fā)展感到無比的擔(dān)憂。其實(shí)這樣的擔(dān)憂更像是杞人憂天,因?yàn)檫@些人遲早會(huì)發(fā)現(xiàn),人工智能是無法阻擋的未來。
英國著名物理學(xué)家史蒂芬·霍金曾說:“成功制造一臺(tái)人工智能機(jī)器人將是人類歷史上的里程碑,但不幸的是它也可能成為我們歷史上最后的一個(gè)里程碑?!边@話似乎為“人工智能威脅論”提供了佐證,但如今人工智能的發(fā)展已成為人類追求科技進(jìn)步的一個(gè)重要領(lǐng)域,霍金聳人聽聞的言論也阻擋不了其發(fā)展。
從不久前公布的人工智能發(fā)展的數(shù)據(jù)來看,隨著計(jì)算機(jī)技術(shù)的快速發(fā)展,人工智能正以指數(shù)級(jí)增長的速度迅速壯大,只要人類不刻意中斷對(duì)人工智能領(lǐng)域的探索和研究,那么“超人工智能”的誕生只是遲早的事。如今因?yàn)椤叭斯ぶ悄芡{論”的出現(xiàn),有些科學(xué)家放棄了對(duì)人工智能的研究,這會(huì)使人工智能發(fā)展的速度減緩但不會(huì)中斷,因?yàn)榭茖W(xué)技術(shù)是互相滲透的,其他科學(xué)技術(shù)領(lǐng)域的發(fā)展必然會(huì)推動(dòng)人工智能的發(fā)展。
地球并不是永生的,太陽系、銀河系同樣會(huì)滅亡,出于生存的需要,人類在未來必然會(huì)實(shí)行“火種計(jì)劃”,也就是向太空移民,而這樣的計(jì)劃需要高科技的支撐。從這一點(diǎn)上來說,人類是絕對(duì)不會(huì)放棄人工智能這個(gè)已經(jīng)被發(fā)現(xiàn)且隱藏著無數(shù)可能性的領(lǐng)域,就算人類中斷對(duì)人工智能的研究,那在其他領(lǐng)域的科技發(fā)展到人類所認(rèn)為的極點(diǎn),但仍無法達(dá)成計(jì)劃目標(biāo)時(shí),人工智能領(lǐng)域就將成為人類生存的一線生機(jī)。此外,人類對(duì)未知事物的好奇心和對(duì)人工智能所能帶來的好處的無限期待,也使得人工智能的研究根本無法被完全中斷,因?yàn)樗褪俏磥怼?/p>
越來越多的頂級(jí)科學(xué)家都不得不承認(rèn)人工智能比人類更加聰慧,如今人類對(duì)這個(gè)領(lǐng)域發(fā)展研究的抵觸情緒,其實(shí)緣于人類的不自信和對(duì)未知世界的憂慮。說得更直白一點(diǎn),那就是人類的害怕緣于對(duì)強(qiáng)者的恐懼:“超人工智能”在未來無疑將比人類更加聰明更加強(qiáng)大,這也導(dǎo)致作為弱者的人類對(duì)強(qiáng)者產(chǎn)生恐懼,害怕自己無法控制“超人工智能”,或者擔(dān)心它也會(huì)如同人類一般產(chǎn)生惡念。一方面,人們期待著人工智能能給人類帶來更加舒適而便利的生活;另一方面,人工智能的發(fā)展也可能會(huì)帶來人類無法承擔(dān)的后果。人類最害怕的便是人工智能最終取代人類,進(jìn)而終結(jié)人類這一物種。
其實(shí),每一項(xiàng)科學(xué)技術(shù)飛速發(fā)展的背后都可能隱藏著人類無法承擔(dān)的后果,人工智能也不例外。但若因此對(duì)未來產(chǎn)生恐懼,進(jìn)而限制人工智能的發(fā)展,則是完全沒有必要的。因?yàn)闊o論怎樣的未來都是由人類自己創(chuàng)造的。所以,人類如果能戰(zhàn)勝自我,剔除人性中的黑暗面,并始終堅(jiān)信善念終將戰(zhàn)勝惡念,正義終將戰(zhàn)勝邪惡,那么由人工智能所代表的未來便是值得憧憬與期待的。
點(diǎn)評(píng)
本文作者從時(shí)事熱點(diǎn)切入,開門見山地表達(dá)了自己對(duì)人工智能的看法:人工智能是無法阻擋的未來??芍^擲地有聲。隨后從“科學(xué)技術(shù)是互相滲透的,其他科學(xué)技術(shù)領(lǐng)域的發(fā)展必然會(huì)推動(dòng)人工智能的發(fā)展”“人工智能代表了未來,人類出于生存的的需要必定無法中斷其研究”等方面來論證觀點(diǎn),邏輯清晰而嚴(yán)密,頗具說服力。結(jié)尾在坦承人工智能存在風(fēng)險(xiǎn)的同時(shí),亦給出了解決之道——人類需要戰(zhàn)勝自我,剔除人性中的黑暗面。觀點(diǎn)辯證,立意高遠(yuǎn),耐人尋味。