張文韜/編譯
機器人也有“人權”
張文韜/編譯
在不久的將來,以機器人形式出現的人工智能(AIs)也許具有思維能力,而且這種可能性越來越大。無論采取何種形式,機器意識的出現將會給人類社會帶來重大影響。
幾個月前,物理學家斯蒂文·霍金(Stephen Hawking)和微軟創(chuàng)始人比爾·蓋茨(Bill Gates)警告說,智能機器人將會變得越來越強大,人類甚至難以控制它們。長期以來,科幻作品經常以智能機器人的道德難題以及它們如何與人類共處作為主題,最為典型的是1982年拍攝的電影《銀翼殺手》和今年上映的《機械姬》。
在研究AIs時,學術界和藝術界大多關注的是人和機器人之間的相互關系問題,譬如:機器人會使人類生活更好嗎?它們會很危險嗎?未來它們會成為人類的威脅嗎?但這些都忽略了至關重要的一點,即我們還必須考慮智能機器人之間的相互關系,或它們彼此的交流對創(chuàng)造它們的人類會產生怎樣的影響。例如,如果我們允許智能機器對其他機器人實施侵害——即使這類“犯罪”沒有直接影響人類的利益,卻可能對人類社會產生不好的影響。諸如此類的這類哲學研討為“機器人權”理念的出現鋪平了道路。
通常有關開發(fā)機器人的討論都引用了科幻作家艾薩克·阿西莫夫(Isaac Asimov)提出的“機器人學三定律”:1.機器人不得傷害人類,也不得見人類受到傷害而袖手旁觀;2.機器人必須服從人類的指令,但不得違反第一定律;3.機器人應保護自身的安全,但不得違反第一、第二定律。然而,這些定律都沒有提及機器人應該如何對待彼此,包括忽略其他具有思想的機器的權利,這顯然是不合理的。
人類已經為表現出思維活動的動物賦予權利和保護,目前文明社會也蔑視那些為了娛樂而設立的斗獸項目。由此可見,比動物更智能的機器人也不應該為了人類的娛樂而相互打斗。毫無疑問的是,軍用機器人必須部署在戰(zhàn)場上。但除了正當戰(zhàn)爭之外,迫使AIs和機器人發(fā)生沖突、或虐待它們,是有違人類道德、倫理和心理健康的。
盡管智能機器人還存在于科幻小說里,但有必要從現在開始認真對待這些問題。例如,英國工程與自然科學研究理事會(EPSRC)和藝術與人文科學研究理事會(AHRC)已經提出了一套機器人設計原則:強調機器人是工業(yè)產品,人類必須對它們負責。
科學家、哲學家和決策者必須更深入地思考機器人和AIs之間的關系,包括提出有關AIs的國際憲章(類似聯(lián)合國的《世界人權宣言》),這將在研發(fā)過程中有助于引導人們在道德上更加慎重地對待機器人和AIs,包括引入針對人工智能和機器人的人道主義法(AIonAI)理念,以期研制出安全的AIs。甚至應該設立一個AIonAI年度獎項,以獎勵那些最無私的AIs設計。
在推進AIonAI理念的同時,社會學家、哲學家應該加強與機器人學與計算機科學的聯(lián)系。投資人除了支持AIs開發(fā),也應該向諸如惠康基金會等醫(yī)學研究投資者看齊:既支持尖端健康研究,同時為醫(yī)學倫理學和歷史研究提供資金。
當前和未來,從事AIs和機器人研究的機構在關注AIonAI理念的同時,應舉辦以AIonAI為議題的研討會,為出臺相關的指導方針和政策做鋪墊,激勵下一代機器人工程師和AI研究者掌握AIonAI原則。就如同進入英國政界工作的學生必須掌握PPE課程(政治學、哲學和經濟學)一樣,相應的,對機器人學和AIs感興趣的學生則要學習CEP課程(計算機科學、工程學和哲學)。
同時,我們必須把阿西莫夫的機器人學三定律拓展到與AIonAI對應的相互關系上。我為此提出第四定律:所有被賦予人性和是非觀的機器人,都應該友善地對待其他機器人。
不要低估人工思維機器到來的可能性。人類將要迎接一個新的智能族群的到來。無論這個族群是否是“人工的”,都不會影響這個問題的存在:新的數字族群應該得到尊嚴與權利,應該有新的法則來保護它們。
[資料來源:Nature][責任編輯:則鳴]