文 萬成
近日,特斯拉創(chuàng)始人埃隆·馬斯克、著名物理學家斯蒂芬·霍金等百余位科學家、企業(yè)家聯(lián)名簽署了一封公開信。
據(jù)悉,這封公開信是由名為生命未來研究所的主旨發(fā)出的。公開信表示,隨著人工智能研究的發(fā)展,它對社會的影響可能也會越來越大。由于人工智能具有巨大的潛力,研究如何在規(guī)避潛在威脅的同時從中獲益便十分重要。
“我們的人工智能系統(tǒng)必須按照我們的意愿工作。”信中稱。它提醒人們需要關注人工智能的安全性與社會效益。
近年來,隨著人工智能的發(fā)展,越來越多的的人開始擔心機器的智能會超越人類,從而搶走人們的工作,乃至威脅到人類的生存。
前文提到的兩位公眾人物便是其中的代表。早在去年,霍金就曾發(fā)出過警告。他稱人類正面臨來自智能技術的威脅,隨著技術體自身開始學會自我思考,并學會適應環(huán)境,我們?nèi)祟悓⒚鎸Σ淮_定的未來。
霍金認為,智能電子助手如Siri,Google Now,以及Cortana等都僅僅是一個開端,在未來將會出現(xiàn)的技術面前這些都將顯得蒼白無力。不過霍金也承認這類電子技術的發(fā)展也將對人類產(chǎn)生助益,甚至可以幫助根絕戰(zhàn)爭、疾病以及貧困。
他表示:“成功制造出一臺人工智能機器人將是人類歷史上的里程碑。但不幸的是,它也可能會成為我們歷史上最后的一個里程碑,除非我們能學會如何去規(guī)避這種風險。”
同樣,馬斯克也曾多次公開表示過對人工智能的擔憂,他認為不受控制的人工智能比核武器還危險。
當然,與霍金等人持相反觀點的人也不占少數(shù)。百度首席科學家吳恩達就提到,對人工智能的負面擔心,是毫無必要的炒作。
那么,人工智能是否會進化、衍生為“終結者”?現(xiàn)在來看,誰都給不了答案。