朱楠
摘 要:人工智能技術誕生于20世界50年代,隨著科學技術的不斷發(fā)展,人工智能在人類社會的應用中取得了積極地成效。但同時,人工智能體的出現(xiàn)也引發(fā)了人類對人工智能體道德的思考。聚焦人工智能體道德主體問題研究,討論人工智能體能否成為道德主體,成為道德主體的具體條件有哪些,以及是否應該為人工智能體植入道德機制,這些問題有助于使人類更容易理解道德問題,以及促進與人工智能體和諧共處的美好生活。
關鍵詞:人工智能 道德主體 倫理反思
2017年10月,沙特阿拉伯正式授予機器人“索菲亞”公民身份,這一舉動顛覆了只有人能作為公民的認知,因為能夠成為公民,就說明其本身必須是道德主體,能夠承擔一定的責任和義務。但是在近幾年,人工智能的發(fā)展十分迅速,隨著人工智能與人類越來越像,人工智能與人的界限就更加模糊,人工智能的道德主體性問題成為主要爭論問題。那么人工智能是否能夠成為像人一樣的道德主體?成為這樣的道德主體所需要的條件是什么?人類該如何與人工智能共處?本文整合了一些文章的觀點,對人工智能的主體性進行剖析,并進行反思。
一、人工智能概述
人工智能(Artificial Intelligence,簡稱 AI),一般公認為是起源于1956年的達特茅斯會議。自人工智能發(fā)展以來,尚未有統(tǒng)一定義。在李開復[1]等人的《人工智能》一書中,從人工智能發(fā)展史的角度對人工智能下了不同的定義。早期,人們對人工智能的認識缺乏時,大多數(shù)普通人認為,人工智能就是機器可以完成人們不認為機器能勝任的事。而后仿生學發(fā)展時,人工智能則是被定義為能遵照思維里的邏輯規(guī)律進行思考的計算機程序。實用主義者則是認為只要計算機與人類行為相似,那么它就可以被稱為人工智能了。隨后機器學習技術在計算機領域?qū)崿F(xiàn)了驚人的突破,人們從中受益,認為人工智能就是會學習的計算機程序。而在此書中,最后一個定義則是對前幾個定義的一個總結(jié)歸納,即人工智能就是根據(jù)對環(huán)境的感知,做出合理的行動,并獲得最大受益的計算機程序。
根據(jù)智能水平不同,各位學者將人工智能分為三種:弱人工智能、強人工智能以及超人工智能。弱人工智能是基于大量數(shù)學推演,進行問題求解的機器學習算法,程序設計者預測會出現(xiàn)的情況,然后做出應對方案,由機器判斷符合條件與否并加以執(zhí)行,但是不具備自我學習能力,無法與人類智慧相比。強人工智能通常來說,已經(jīng)具備了自己的思維,并且能夠?qū)ν獠看碳ぷ龀鱿鄳磻?,能夠進行自我決策或者行動,基本等同于“人類”[2],并且能夠自我學習、自我完善,具有與人類智慧相當?shù)哪芰Α3斯ぶ悄軇t是更進一步,基于強人工智能的學習能力,提升為自我進化能力,具有遠遠超越人類智慧水平的人工智能。
二、道德的主體性
道德與人類活動的本性是相互規(guī)定的,人的行為中包含著道德的因素,道德的因素也同樣在人的行為中體現(xiàn)。因此,我們通常說什么是道德或者不道德的,在評判過程中所討論的就是人與人的關系的行為、人與社會的關系的行為。也就是說,道德是人的道德,人是道德的主體。
既然如此,人與道德的關系就是密不可分的,在馮建軍[3]的文章中總結(jié)了人作為道德主體的五個主體性,即:
(1)為“我”性:個人為了完成自己的利益而與他人交往成達成了某種“平衡”。
(2)求善性:在不損害他人利益的情況下,合理的通過某種方式達到自己的利益。
(3)內(nèi)在超越性:追求自身的升華,不斷地完善自我的精神世界,努力朝著至善的方向發(fā)展。
(4)自由意志性:主體具有自由選擇的行為的意志,道德必須是主體自由意志的選擇。
(5)自我約束性:主體具有能夠控制本能、欲望和情感的理性,只有通過理性來約束自己,才可以實現(xiàn)意志自由。
對于人能夠作為道德的主體還有其他說法,當代行為理論認為,只有符合以下條件時,人的行為才能被認為是適用于道德判斷的行為[4]:
(1)一個具有欲望、信念和其他有意識狀態(tài)的主體。有意識狀態(tài)是構(gòu)成行為的理由。
(2)有一個外在的、客觀存在的具體物體即主體產(chǎn)生行為。
(3)內(nèi)部的心理狀態(tài)是產(chǎn)生外部事件的原因,也就是說身體產(chǎn)生的運動是受內(nèi)部心理狀態(tài)支配的。
(4)外部行為(按照合理的方向產(chǎn)生結(jié)果)具有外部效應。
(5)最后,效果必須在目標身上呈現(xiàn),例如一個行動的接受者。
總的來說,人之所以能成為道德的主體,主要是因為人具有自由選擇意志,并且能夠通過理性在面對選擇是做出利于自己或者能夠滿足自己意愿的決定,并運用身體產(chǎn)生相應行為,而這一行為能夠與其他主體進行互動并產(chǎn)生相應的
效果。
三、人工智能體能否成為道德主體
人工智能體能否成為道德主體,就要看人工智能體是否能夠滿足上述五個條件。
3.1人工智能體的自由意志
在傳統(tǒng)的觀念來說,人工智能體的自由意志似乎是不存在的,他們只會依靠著程序員的代碼進行機械的行為,他們不會自主選擇去做某些事情。例如掃地機器人,他只能夠根據(jù)主人的放置的范圍進行清掃,而不會自主選擇區(qū)域。但是,10月19日,谷歌下屬公司Deepmind報告新版程序AlphaGo Zero:從空白狀態(tài)學起在無任何人類輸入的條件下它能夠迅速自學圍棋并以100:0的戰(zhàn)績擊敗“前輩”,可見人工智能體具有自由意志似乎并不是科幻小說中才能見到的事情。雖然AlphaGo Zero只是在圍棋方面能夠進行自我決策,但是這就說明在未來的某一天,人工智能體可能會具有自由意志。
3.2人工智能體的行為決策
行為決策能力,體現(xiàn)在推理能力上,例如人們在某一情景下做出選擇,往往是因為他能夠根據(jù)自己當前所處狀態(tài)以及所有能力而對做出行為決策后的結(jié)果進行推理,并選擇一個受益較大或者受損較小的行為。《道德機器》[5]中提到一種決策支持工具(DSTs)——APACHE,它是一個基于計算機的決策支持工具模型,幫助為重癥監(jiān)護病房的病人確立治療方案。這個人工智能體根據(jù)數(shù)據(jù)庫里的數(shù)據(jù),會為病人進行評估,并為患者提供一個治療方案,當然最終治療方案是需要醫(yī)生進行確立的。只是在這一過程中,人工智能體充分發(fā)揮了它的決策功能,節(jié)省了大量的成本并提高了醫(yī)生工作效率,隨著科學技術的發(fā)展,人工智能體將會在沒有任何人類決策行為直接參與的情況下進行決策。
3.3 人工智能體的行為主體
人類能夠產(chǎn)生行為,是因為人類能夠控制自己的身體去完成某些事情。那么人工智能體呢?拿最常見的機器人來說明的話,他已經(jīng)具備了一個“身體”,這個“身體”可以支持他去完成一些活動,不論是家用掃地機器人還是軍事戰(zhàn)爭機器人,他們都具備這個能力。當然,還有另一種人工智能體,那就是以網(wǎng)絡為載體的人工智能助手,如蘋果的siri,Google Duplex等等,他們雖然無法移動自身,但是他們可以連接網(wǎng)絡,而達成某些行為,只不過這種行為被局限在了網(wǎng)絡終端。但是不論怎么說,人工智能體都具有一個能夠承載他“思維”的載體,因此,人工智能體具有行為主體。
3.4 人工智能體的行為對象
人與其他動物一樣,最開始都處于一種與環(huán)境的不自覺的關系之中,依本能與自然環(huán)境發(fā)生交往[6]。但是當人成為人之后,人的意識能夠讓人成為關系的中心,道德之所以能夠產(chǎn)生,是因為人與人之間,通過“意識”產(chǎn)生的社會關系。
對于人工智能體來說,他們還不能夠形成社會,但是他們已經(jīng)處于人類社會之中了,例如索菲亞,她能夠自然的和人類進行交流并作出相應的回應(暫且不說是否是因為程序設定)。如果是人類與人類進行互動,那就是社會行為,可以進行道德判斷,那么人工智能體在于人類互動時,他們的角色是什么呢?僅僅是工具嗎?很多人工智能體是為了減輕人類負擔或者更好的服務于人類而設計的,也就是說,他們有行動對象,他們的行為具有互動性。
3.5 人工智能體的行為效果
道德行為,不是單純的軀體活動,而是在一定的規(guī)則或準則意義上的活動,例如你決策今天吃什么,這種活動是不具備道德意義的,但是你為了吃某樣東西而插隊,這一行為就具有道德判斷意義。同樣,如果一個人工智能體的行為,沒有對他的行為對象造成影響,那么這一行為就不具有道德意義。因此,單純的代替人們重復勞動的機械臂這種機器人,他們的行為是不具備行為效果的。但是,如果作為一個看護機器人,他對兒童或老人的照顧行為,則會產(chǎn)生明顯的行為效果。
四、對人工智能主體性的反思
針對上述五個條件,可以發(fā)現(xiàn),弱人工智能明顯不具備成為道德主體的能力,他們只能說是人類用以延伸自己的思維、體力的高級工具。但是對于強人工智能和超人工智能來說,他們具備成為道德主體的能力。
我們需要再人工智能技術發(fā)展到超出控制之前,做好道德預防,即為人工智能植入道德機制。人工智能技術會隨著發(fā)展而逐漸融入生活,而他們在融入生活時,一些道德問題就順應而生,因此,為人工智能置入道德程序是有必要的,也是必然趨勢。同時植入道德機制,能夠防止人工智能技術濫用所造成的危害,并且能夠提升公眾對人工智能的信任,從而促進人與機器的和諧共處??偟膩碚f,道德機制的植入,會讓人工智能變得更好,也能讓我們在為機器植入道德時,能夠?qū)Φ赖庐a(chǎn)生更加深刻的理解。
五、總結(jié)
那么我的觀點是,目前的人工智能不能也不能滿足成為道德主體要求。目前的人工智能不具備自主意識,不會有因其自由而產(chǎn)生的行為的意圖。但是它們可以成為道德主體的組成部分,它們可以成為人類對自身功能的一種延伸,也可以是人類道德行為的結(jié)果。也就是說,人工智能可以是道德實體,但不是獨立的、自主的道德主體,人工智能技術使人類打破了自身的限制,使很多不可能成為可能,但是如果沒有人類的操控,現(xiàn)有的人工智能技術并不具備獨立行動的能力。
但是現(xiàn)在的人工智能技術發(fā)展迅速,又沒有能夠明確區(qū)分強弱人工智能的方法,為了確保人工智能技術更好的發(fā)展,需要對人工智能技術進行道德植入,提前對人工智能進行道德預防,以達成人機和諧相處的美好愿景。
參考文獻:
[1] 李開復,王永剛.人工智能[M].北京:文化發(fā)展出版社有限公司,2017.3.
[2] 賀倩.人工智能技術發(fā)展研究[J]. 現(xiàn)代電信科技, 2016, 46(2):18-21.
[3] 馮建軍.人的道德主體性與主體道德教育[J]. 南京師大學報(社會科學版), 2002(2):84-89.
[4] Johnson D G. Computer systems: Moral entities but not moral agents[J]. Ethics & Information Technology, 2006, 8(4):195-204.
[5] 道德機器:如何讓機器人明辨是非[M].北京:北京大學出版社,2017.
[6] 龔群.現(xiàn)代倫理學[M].中國人民大學出版社,2010.
基金項目:中央高?;究蒲袠I(yè)務專項資金資助(2018-ZY-175)。