美國《麻省理工科技評論》2017.5
去年,芯片制造商英偉達(Nvidia)在美國新澤西州的僻靜道路上對一款無人駕駛汽車進行了測試。初看之下,這輛車和通用、谷歌、特斯拉等公司正在測試的無人汽車并無二致,其實不然。英偉達的這款車并非遵循工程師或程序員設(shè)定好的指令來行動,而是通過觀察人類開車并進行自發(fā)的深度學(xué)習(xí)后,形成了一套運算法則。這樣充滿科幻色彩的汽車讓人著迷,但是同時讓我們也有些不安,因為沒有人清楚地知道人工智能是如何進行決策的。
無人車的傳感器掃描獲取周圍信息后,傳遞給人工神經(jīng)元網(wǎng)絡(luò),這一網(wǎng)絡(luò)在分析處理收到的數(shù)據(jù)后,發(fā)出相應(yīng)指令。聽起來,好像跟人類的行動機制沒太大區(qū)別,但事實是,人類現(xiàn)階段并未完全掌控人工智能。一旦其做出什么反常舉動或錯誤指令,即使是深度學(xué)習(xí)系統(tǒng)的開發(fā)者,也很難給出合理的解釋。
人工智能所普遍采用的深度學(xué)習(xí)機制,近幾年已經(jīng)在聲音識別、語言翻譯、圍棋對弈、醫(yī)療等方面展現(xiàn)了威力,并且擁有改變行業(yè)的巨大潛力。不過,大范圍推廣人工智能還不是時候,因為我們首先要讀懂它的心。