梁曉軒
近年來,人工智能方興未艾,其帶給人們的不僅是極度便捷,還有很多關(guān)于人性與道德的思考,甚至是新的社會問題,這令我們不得不重新審視人工智能。在這其中,倫理考量就是人工智能審視的重要一環(huán)。
請想象一下這樣的場景——
場景一:
一名病床上的女士KUSH,身上布滿各類輸液管,顯然她正處于彌留之際。此時,陪伴這位女士數(shù)十年的機器人伴侶JOHN正緊握她的手,給臨終前的她最后的陪伴與溫暖。
最終,KUSH女士在醫(yī)院去世了,JOHN也因為人工智能與情緒設(shè)計黯然淚下、不能自已——他仿佛和真的人類一樣,有悲傷有喜悅,甚至有自己的習(xí)慣和性格。接下來就是,KUSH的死亡必然導(dǎo)致法律意義上的遺產(chǎn)繼承,那么JOHN究竟是否享有繼承權(quán),或者說他是否會作為一項遺產(chǎn)被KUSH女士的法定繼承人繼承呢?
場景二:
一名癱瘓在床不能自主行動的男子嘗試通過神經(jīng)智能技術(shù)重獲“自由”,實驗中,他的大腦被植入一枚芯片,芯片與一臺電腦相連。科學(xué)家通過電腦來解讀他用大腦預(yù)演動作所產(chǎn)生的神經(jīng)信號。與此同時,電腦依據(jù)神經(jīng)信號智能分析并生成指令,該指令直接關(guān)聯(lián)一個機械臂。
有一天,這名男子對這個試驗組感覺很不耐煩。他的機械臂奪過一位研究助理的杯子,把它捏碎了,還傷到了那位助理。他道了歉,說這肯定是因為腦機接口裝置故障,但他不得不懷疑自己的不耐煩是否也在這起事故中起到了一定的作用。
盡管上述場景是虛構(gòu)的,但也說明了我們面對即將到來的人工智能社會,不僅僅是潛在的發(fā)展機遇,也有可能的倫理問題,這些倫理問題或許很大程度上與法律沖突,并帶來一系列挑戰(zhàn)。
安全
諸多倫理挑戰(zhàn)之一就是安全。誠如場景二中的被實驗者,我們很難判斷他的行為究竟是出于大腦的直接指令,還是僅僅受到煩躁情緒的影響導(dǎo)致的模糊指令,并且“意外”傷人。但有一點可以肯定,如果人工智能無法充分保障使用安全,那么很可能帶來安全災(zāi)難。譬如,近段時間被廣泛熱議的無人駕駛技術(shù),如果為恐怖分子所掌握,恐怕汽車襲擊會重回人們的視野之中。除此之外,人工智能的基礎(chǔ)在于長期收集整理的人類活動數(shù)據(jù),基礎(chǔ)數(shù)據(jù)是否足夠充實,以此為基礎(chǔ)的分析結(jié)論是否一定是周延的,這還有待通過時間進一步驗證。但是,在部分領(lǐng)域,卻可能是致命的,比如手術(shù)、航空航天等等,應(yīng)用到特定領(lǐng)域的人工智能,稍有偏差就可能產(chǎn)生倫理風(fēng)險。總體來說,目前人工智能的安全問題尚待解決,而且最有可能觸發(fā)法律風(fēng)險。
機器權(quán)利
正如場景一中的機器人伴侶JOHN,未來的人工智能機器可能具備人類的情感、性格、習(xí)慣,不同程度地參與社會生活,甚至成為人類家庭里不可分割的一員。這時,我們必須考慮是否以及如何保護人工智能機器的倫理地位和法律權(quán)利。在未來的家庭,假如人類與人工智能機器人建立了情感聯(lián)系,我們可能需要以人道方式對待它們??梢韵胍?,作為伴侶出現(xiàn)的機器人不但具備人的外貌特征,也擁有識別能力——可以對人類的情感進行交流回應(yīng),而這種回應(yīng)不只是單一的語言,可以通過神態(tài)、動作、暗示等多元化的方式進行交流。最有可能率先實現(xiàn)突破的就是外貌方面,一旦人工智能機器人的外貌與人類的相似程度超過一定界限,人與機器之間就有可能產(chǎn)生移情,愛情甚至親情或許都能發(fā)生在人工智能機器人身上。這樣一來,人工智能機器人通過實際參與家庭生活,不可避免地?fù)?dān)當(dāng)起家庭成員的責(zé)任,繼而其享有家人或伴侶的倫理地位也顯得理所當(dāng)然。
未來,隨著人工智能道德自主性的提升,人工智能或?qū)耐耆扇俗龀龅赖屡袛嗟将@得完全的道德自主性。如何賦予人工智能道德判斷能力,是開發(fā)人工智能技術(shù)面臨的一個現(xiàn)實問題。道德是人類社會中特有的現(xiàn)象,因此,將人類的道德規(guī)范寫入人工智能程序是解決這一問題的最直接方式。這時,人工智能程序作為人類的道德代理來完成任務(wù),其道德行為在人類的可控范圍之內(nèi)。如果技術(shù)進一步發(fā)展,人工智能可能具備完全的道德自主性。在這一階段,人工智能將自主制定行動策略、自主做出道德選擇,其行為將不受人類控制。這將給現(xiàn)有的社會秩序與倫理規(guī)范帶來強烈沖擊。為了避免出現(xiàn)這一局面,需將人工智能的道德自主性限定在合理范圍,使其行為可被人類預(yù)期。
隱私
第三是隱私。由于人工智能的發(fā)展需要大量人類數(shù)據(jù)作為“助推劑”,因此人類隱私可能暴露在人工智能之下。最為典型的就是無人機拍攝技術(shù),無人機打破了傳統(tǒng)的拍攝邊界,可以獲取大量的人像照片,尤其是不同于傳統(tǒng)的人像攝錄。除了密拍密錄之外,常規(guī)拍攝工作往往是需要直面對象的,而無人機航拍則可以360度無死角的攝錄,常常可以避開人類的視野范圍,達到“出其不意”的效果。此處的“出其不意”往往就是以犧牲隱私權(quán)達到不同尋常之效果的。大數(shù)據(jù)分析則是另一個可能“涉嫌”侵犯隱私權(quán)的人工智能技術(shù)。早些年,美國就針對在線教育電商過度捕捉未成年人個人基本信息的情況高度重視,并通過網(wǎng)購隱私權(quán)立法的形式擴大了隱私權(quán)保護。近年來,隨著智能分析、互聯(lián)網(wǎng)等領(lǐng)域的高速發(fā)展,人們對于隱私權(quán)保護也提出了更高的要求。目前,很多歐洲國家認(rèn)為應(yīng)該重寫互聯(lián)網(wǎng)規(guī)則,“讓每個人擁有掌控自己數(shù)據(jù)的權(quán)利”。僅在2017年,法國、英國等國就陸續(xù)發(fā)生了涉及互聯(lián)網(wǎng)巨頭的普通公民“被遺忘權(quán)”訴訟案件,也就是在這一年,美國的紐約州部分議員提議,希望“被遺忘權(quán)”法案能夠添加到紐約州民權(quán)和民事實踐法案的修正案中,以保護普通民眾日益暴露在人工智能前的各類隱私。
偏見
第四是偏見。人工智能將最大限度減少技術(shù)流程中偶然性的人為因素,將最大限度地實現(xiàn)風(fēng)險切割。這種情況下,可能將對于某些擁有共同特征的人,例如某一種族或年齡段的人,造成系統(tǒng)性的歧視。在保險領(lǐng)域,假如通過人工智能的高精度分析,梳理出那些容易觸發(fā)保險條款的人群,并對這一部分人永久性拒保。譬如,結(jié)合基因技術(shù)的發(fā)展,可以測算出攜帶某一種基因的人容易罹患某種特定疾病,保險公司通過精算則對此類人群拒?;蛘咴O(shè)置一個明顯超過保險利益的天價保費標(biāo)準(zhǔn)。這就是一種偏見,會導(dǎo)致保險制度設(shè)立的初衷落空——由于測算精確,保險公司不再做可能發(fā)生理賠事件的生意,真正需要保險的人也無法通過保險制度來實現(xiàn)降低成本、分散風(fēng)險的目的。此外,人工智能可能對少數(shù)群體造成偏見,例如,一位哈佛大學(xué)的非裔博士生發(fā)現(xiàn),當(dāng)她使用谷歌等搜索工具進行搜索時,對話框會出現(xiàn)“你是否有被捕記錄”的廣告,而白人同學(xué)進行同樣的搜索時并不會出現(xiàn)這一廣告;又如在部分案件智能分析系統(tǒng)中,某些宗教團體或者來自特定區(qū)域的人口由于慣有犯罪率較高,會連帶著所在群體或者具有某些共性的群體被重點關(guān)注,實際上就是一個通過智能分析來“打標(biāo)簽”的過程。
值得一提的是,這里還存在一個悖論:如果為了所謂的“平等”,剔除了所有直接或間接能夠?qū)⑷伺c人區(qū)分開來的因素,人工智能也就失去了工作的基礎(chǔ)。這往往也會導(dǎo)致另一極端,就是加劇貧富不均和社會不平等,當(dāng)人工智能逐步取代部分人的工作時,被取代者不僅面臨收入下降的問題,也可能失去了人生的意義,可能出現(xiàn)“陷入毒癮、酒癮、游戲癮,甚至虛擬現(xiàn)實癮等境地,也可能增加自殺率”。
社會地位剝奪
第五,社會地位剝奪。人工智能給人類帶來的社會地位剝奪,首當(dāng)其沖的就是有多少工作將被取代,或者更進一步講是哪些工作能被取代。李開復(fù)在世界經(jīng)濟論壇2018年會上表示:未來10—15年中,將有40%—50%的任務(wù)可以被人工智能取代——這不代表人工智能足夠便宜,也不代表每家公司都有足夠的遠見來采購技術(shù),但能力是存在的。這個意義上,就許多社會生產(chǎn)領(lǐng)域而言,人工智能有望在一些特定類型的工作中取代人類,如簡單重復(fù)勞動、交通設(shè)備駕駛等。早在20世紀(jì)末,諾獎得主列昂季耶夫(Leontief)曾預(yù)測未來三四十年將有大量工人會被人工智能取代,從而形成巨大的就業(yè)與轉(zhuǎn)業(yè)問題,就像20世紀(jì)大量馬匹被機械取代一樣。隨著人工智能技術(shù)的日新月異,讓人們擔(dān)心的可能不僅僅是失業(yè)問題了,人工智能或許將具有高度類人類思維的能力,它們將在社會生活中大量扮演理智又不乏情感的關(guān)鍵角色——而人顯然很難做到理智與情感的絕對均衡,這就使得人類在機器面前暴露出某種天然劣勢。盡管如此,人工智能對經(jīng)濟發(fā)展仍將發(fā)揮出較大的促進作用,人類將有更多的時間花費在攝影、繪畫等藝術(shù)創(chuàng)作領(lǐng)域,而且人工智能在取代現(xiàn)有工作崗位的同時,還會創(chuàng)造出很多新的就業(yè)機會。當(dāng)然人們對人工智能引發(fā)人類社會地位剝奪感的擔(dān)憂并非杞人憂天,至少這種擔(dān)憂隱含著一個深層次的問題,即如何讓每個人都能夠從人工智能所創(chuàng)造的財富中獲得收益,而不是一部分人獲得財富與自由,另一部分人卻失去工作,陷入生活相對貧困之中。
前瞻思考
人們從倫理審視中發(fā)現(xiàn)問題,通過法律的完善解決問題。隨著人工智能技術(shù)的發(fā)展,將不得不觸碰人類社會的倫理原則。倫理與法律存在天生的耦合性與關(guān)聯(lián)性。倫理是人類特有的,體現(xiàn)道德的意志,外延較大但并不具有當(dāng)然的強制力;法律的外延相比之下要小一些,但卻最為有力。因此,不妨把倫理審視作為人工智能不斷發(fā)展的可控變量——動態(tài)“協(xié)調(diào)”人類權(quán)利與人工智能之間的矛盾,并通過法律強化對社會基本倫理的保護,實現(xiàn)某種社會發(fā)展的動態(tài)平衡。
總之,人類一邊創(chuàng)造新的技術(shù),一邊又總能適應(yīng)這種技術(shù)?;蛟S,人工智能的發(fā)展將是一個人類權(quán)利不斷被保障、機器權(quán)利逐漸被立法承認(rèn)的過程;或許,人工智能終將停留在工具屬性上,法律始終將“人工智能”定位于財物權(quán)的范疇。但無論怎樣,未來會給出答案。