劉月
【摘 要】 人工智能是當(dāng)下人們熱切討論的話題之一。人工智能的出現(xiàn)極大地方便了人們的生活,但近年來,隨著Tesla、Uber等公司自動駕駛汽車事故的出現(xiàn),其背后所反映的人工智能倫理問題也逐漸躍入大眾視線中。對人工智能倫理問題進(jìn)行探討,有利于人們更加深入了解人工智能所能帶來的倫理問題,也可以為如何規(guī)避人工智能倫理問題提供參考和方向。
【關(guān)鍵詞】 人工智能 倫理 規(guī)避
一、人工智能發(fā)展概述
人工智能(Artificial Intelligence,AI)起源于1956年的達(dá)特茅斯會議。AI一詞一經(jīng)提出,就引起了眾多學(xué)者的關(guān)注與研究,人們致力于讓機(jī)器像人一樣具有智能,能夠與人進(jìn)行自然的人機(jī)交互[1]。
人工智能的發(fā)展經(jīng)歷了三次跨越式發(fā)展階段:第一次發(fā)展是使智能系統(tǒng)基本實現(xiàn)了問題求解,實現(xiàn)了人工智能簡單的邏輯推理功能;第二次發(fā)展是實現(xiàn)了智能系統(tǒng)與機(jī)器及外部環(huán)境進(jìn)行自動交互的功能,可以實現(xiàn)從陌生的環(huán)境中獲取有用信息完成設(shè)定的推理工作;第三次發(fā)展是追求類人的思維和認(rèn)知能力,使得智能系統(tǒng)與機(jī)器能夠發(fā)現(xiàn)、創(chuàng)造和運(yùn)用新知識,能夠?qū)?shù)據(jù)進(jìn)行分析和挖掘等功能[2]。
人工智能變得越來越強(qiáng)大,越來越深入到重要的社會系統(tǒng)中,為它們編寫一個內(nèi)置倫理框架的程序就變得越來越重要。用Picard(1997:134)的話來說,“機(jī)器越自由,就越需要道德標(biāo)準(zhǔn)”[3]。舉一個例子,自動駕駛汽車的發(fā)展將人工智能置于生死攸關(guān)的境地,包括倫理困境,比如當(dāng)碰撞不可避免時,人工智能司機(jī)必須決定發(fā)生哪種危險碰撞(Lin 2016)[4]。這種情況的結(jié)果可能取決于AI設(shè)計決策,這使得AI開發(fā)人員有責(zé)任仔細(xì)選擇內(nèi)置的道德規(guī)范。
隨著人工智能系統(tǒng)(如機(jī)器人、聊天機(jī)器人等)從被視為一種工具轉(zhuǎn)變?yōu)楸灰暈樽灾鞔砗完犛?,研究和開發(fā)的一個重點(diǎn)是了解這些系統(tǒng)的倫理影響。人工智能系統(tǒng)做決定意味著什么?他們的行為和決定所帶來的道德、社會和法律后果是什么?人工智能系統(tǒng)能對其行為負(fù)責(zé)嗎?這種商業(yè)系統(tǒng)的自主創(chuàng)新應(yīng)該被允許嗎?應(yīng)該如何規(guī)范使用和開發(fā)?這些和許多其他與人工智能有關(guān)的問題是目前備受關(guān)注的焦點(diǎn)。社會和相關(guān)產(chǎn)品系統(tǒng)處理這些問題的方式將在很大程度上決定我們的信任水平,并最終決定人工智能對社會的影響,以及人工智能的存在。
二、人工智能發(fā)展過程中的倫理挑戰(zhàn)
(一)人工智能會帶來道德決策風(fēng)險。隨著人工智能技術(shù)的發(fā)展,人工智能系統(tǒng)被賦予越來越多的自主決策權(quán),導(dǎo)致人工智能會引發(fā)道德決策風(fēng)險。例如在自動駕駛汽車上可以很好地體現(xiàn)這一倫理問題。2016年5月,一輛特斯拉電動車在美國佛羅里達(dá)州以自動駕駛模式行駛時與一輛橫穿公路的貨車相撞,導(dǎo)致電動車車主喪生。而自動駕駛汽車在這場事故中是否能夠規(guī)避這起事故?是否有更好的決策可以不用付出生命?對于自動駕駛系統(tǒng)所做出決策伴隨的風(fēng)險應(yīng)該由誰承擔(dān)?如何確定自動駕駛系統(tǒng)所做出的決策是最佳的?是否存在最佳決策,其判斷依據(jù)是什么?這些問題我們尚不可知。
(二)人工智能會引發(fā)責(zé)任歸屬的倫理問題。伴隨著人工智能系統(tǒng)被賦予越來越多的自主決策權(quán),人工智能在觸發(fā)道德決策風(fēng)險時,其應(yīng)該承擔(dān)什么樣的責(zé)任應(yīng)該是我們需要討論的問題。例如特斯拉自動駕駛汽車導(dǎo)致電動車車主喪生的事故在經(jīng)過長時間的調(diào)查后,2017年1月,美國公路交通安全管理局(NHTSA)公布了調(diào)查報告,結(jié)果顯示,事故原因與特斯拉的自動駕駛系統(tǒng)無關(guān),這也意味著特斯拉公司無需承擔(dān)相應(yīng)法律責(zé)任。但這一結(jié)果引發(fā)了大眾的激烈討論,自動駕駛汽車不需承擔(dān)責(zé)任的判斷依據(jù),以及在這場事故中自動駕駛系統(tǒng)的不同決策所要承擔(dān)的責(zé)任是否相同,都值得我們深思。
(三)人工智能會引發(fā)社會倫理問題。在生態(tài)方面,開發(fā)人工智能所產(chǎn)生的廢料對環(huán)境會產(chǎn)生污染;在醫(yī)療方面,人工智能如醫(yī)療機(jī)器人會在一定程度上緩解醫(yī)院的壓力,但其昂貴的價格并不是所有人都能接受的,且患者的信息也存在被泄露的風(fēng)險;此外人工智能的出現(xiàn)為人們的生活學(xué)習(xí)都提供了更多的便利,但同時,人工智能技術(shù)的出現(xiàn)也取代了某些崗位員工的工作,使得人們面臨下崗、就業(yè)難的困境。
三、結(jié)語
人工智能近年來取得了高速發(fā)展,大眾對人工智能也是高度關(guān)注,而伴隨人工智能所產(chǎn)生的倫理問題也迎來了業(yè)內(nèi)的激烈討論。人工智能的初衷是為了更好地服務(wù)人類,便捷人們的生活工作,因此其所能產(chǎn)生的倫理問題需要我們合理地解決才能更貼近其初衷。不論是從法律層面、技術(shù)層面或是其他層面去制定相關(guān)政策,都要先明確人工智能可能帶來的倫理問題有哪些,才能夠“對癥下藥”,規(guī)避這些問題。
【參考文獻(xiàn)】
[1] 劉偉,趙路.對人工智能若干倫理問題的思考[J].科學(xué)與社會,2018,8(01):40-48.
[2] 閆坤如,馬少卿.人工智能倫理問題及其規(guī)約之徑[J].東北大學(xué)學(xué)報(社會科學(xué)版),2018,20(04):331-336.
[3] Picard R (1997) Affective Computing. MIT Press, Cambridge, MA.
[4] Lin P(2016)Why ethics matters for autonomous cars.In Maurer M,Gerdes JC,Lenz B,Winner H(eds),Autonomous Driving:Technical,Legal and Social Aspects.Springer,Berlin,pp.69-85.