時(shí)事引讀
2018年4月,韓國科學(xué)技術(shù)院(KAIST)與韓國頂尖財(cái)團(tuán)合作開設(shè)的人工智能武器試驗(yàn)室引發(fā)世界輿論關(guān)注。4月4日,全球超過50名人工智能研究人員聯(lián)名提出抵制,原因在于該機(jī)構(gòu)試圖研發(fā)自主武器。4月9日,聯(lián)合國《特定常規(guī)武器公約》政府專家小組在瑞士日內(nèi)瓦召開會(huì)議,討論致命自主武器系統(tǒng)研發(fā),也就是常說的“殺手機(jī)器人”可能帶來的影響。有媒體表示,韓國此舉必然會(huì)造成毫無道德、倫理限制的殺人機(jī)器四處橫行,而人類卻束手無策的情況。對此,世界各地網(wǎng)友都表示“千萬不要打開這個(gè)潘多拉魔盒”,否則人類將有滅絕可能。
素材聚焦 聯(lián)合國黑名單
據(jù)英國《金融時(shí)報(bào)》報(bào)道,2018年2月以來,KAIST一直在進(jìn)行四項(xiàng)實(shí)驗(yàn),分別是:基于人工智能的指揮和決策系統(tǒng)、水下無人機(jī)導(dǎo)航算法、基于AI的智能飛行器訓(xùn)練系統(tǒng)、基于AI的對象跟蹤和識(shí)別技術(shù)。就學(xué)術(shù)界來說,這些實(shí)驗(yàn)看上去很正常。但不正常的地方在于,KAIST進(jìn)行的研究是與韓國軍工企業(yè)“韓華Systems”合作的,而韓華Systems的母公司韓華集團(tuán)(Hanwhua)因?yàn)橹圃旒鴱椝幰驯宦?lián)合國列入黑名單。提出抵制的這50多位學(xué)者擔(dān)心,KAIST研發(fā)自主武器將會(huì)加速AI軍備競賽,導(dǎo)致更大規(guī)模的戰(zhàn)爭加速到來。不過,KAIST總裁Sung-Chul Shin表示:“KAIST沒有任何意圖參與開發(fā)致命的自主武器系統(tǒng)和殺手機(jī)器人。作為一個(gè)學(xué)術(shù)機(jī)構(gòu),我們非常重視人權(quán)和道德標(biāo)準(zhǔn)?!?/p>
素材拓展 自主武器
自主武器并不等于智能武器,也不等于自動(dòng)化武器。后兩者現(xiàn)在已經(jīng)存在,比如自動(dòng)瞄準(zhǔn)裝置、導(dǎo)彈定位系統(tǒng)、無人機(jī)等。但無論是哪種武器,其最終決定權(quán)都在人類手中。而自主武器,屬于強(qiáng)人工智能范圍,它把武器是否對人類進(jìn)行毀滅性打擊行為的決策權(quán)交給機(jī)器,這無疑是十分危險(xiǎn)的做法。以人工智能為例,當(dāng)前已經(jīng)出現(xiàn)過一些類似的“失控”事件,涉及種族歧視、性別歧視等。比如微軟的聊天機(jī)器人Tay曾在Twitter上發(fā)表涉及種族歧視的言論,導(dǎo)致其上線一天就被迫關(guān)閉。總之,禁止自主武器的開發(fā),并不是要妨礙人工智能技術(shù)的發(fā)展,也不妨礙其被正常用于軍事領(lǐng)域,其中的關(guān)鍵就在于,人類是否擁有控制權(quán)。
【考場仿真試題】請根據(jù)以上材料,寫一則150字左右的微評論。
【范文示例】科學(xué)進(jìn)步的意義,應(yīng)是給人類帶來生活的便利。研制“殺人機(jī)器人”,非但不能給人們創(chuàng)造出更安全舒適的生活環(huán)境,反而有可能給人類帶來毀滅性的打擊,這樣的“科學(xué)”于世界何益呢?在世界新形勢下,我們每個(gè)人、每個(gè)地區(qū)都應(yīng)樹立人類命運(yùn)共同體意識(shí),不能自掘墳?zāi)?,要合理發(fā)展,爭取共贏!
其他適用話題 人工智能;社會(huì)秩序;人類未來