謝洪明, 陳 亮, 楊英楠
(1. 浙江工業(yè)大學(xué) 管理學(xué)院,浙江 杭州 310023;2. 廣州大學(xué) 工商管理學(xué)院,廣東 廣州 510006;3. 浙江金融職業(yè)學(xué)院,浙江 杭州 310018;4. 浙江大學(xué) 工程管理研究所,浙江 杭州 310058;5. 浙江工業(yè)大學(xué) 中小企業(yè)研究院,浙江 杭州 310023)
隨著人工智能(artificial intelligence,AI)的發(fā)展,人工智能倫理在國內(nèi)外都成為了各界討論和研究的核心議題之一(Moor,2006;Wallach和Allen,2010;Greenwald,2015;杜嚴(yán)勇,2015;Lei等,2019;趙汀陽,2019)。人工智能倫理研究是人工智能時(shí)代的必然產(chǎn)物,它既包括對技術(shù)本身的研究,也包括在符合人類價(jià)值的前提下對人、機(jī)和環(huán)境之間的關(guān)系研究(劉偉和趙路,2018)。發(fā)展的不確定性帶來了新的倫理問題和風(fēng)險(xiǎn),尤其是奇點(diǎn)理論(singularity theory)提出之后,許多人對人工智能的快速發(fā)展表示了擔(dān)心,隨之而來的諸如無人駕駛汽車致人死亡、護(hù)理機(jī)器人帶來人格與尊嚴(yán)等問題更加印證了人們的這種印象。同時(shí),人工智能也帶來歧視、侵犯個(gè)人隱私、改變就業(yè)結(jié)構(gòu)、挑戰(zhàn)國際關(guān)系原則等問題,這對個(gè)人權(quán)利、政府監(jiān)管、經(jīng)濟(jì)社會發(fā)展乃至全球治理將產(chǎn)生深刻影響(Wallach和Allen,2010;Bostrom,2014;Diakopoulos,2015;杜嚴(yán)勇,2015;蘇令銀,2019)。因此,需要引起更多的人關(guān)注人工智能倫理,為未來人工智能的發(fā)展奠定道德性根基。
如何正確認(rèn)識人工智能在發(fā)展過程中出現(xiàn)的失敗案例(Yampolskiy和Spellchecker,2016)?是因?yàn)閿?shù)據(jù)爆發(fā)式增長和深度學(xué)習(xí)算法的發(fā)展,人類的決策讓渡使機(jī)器從被動(dòng)工具向能動(dòng)體(intelligent agent)轉(zhuǎn)變而具備不需要人類介入的“感知—思考—行動(dòng)”體現(xiàn)出的自我學(xué)習(xí)進(jìn)化能力,還是因?yàn)槿斯ぶ悄芟到y(tǒng)在算法引導(dǎo)下的錯(cuò)誤,以及技術(shù)的不確定性導(dǎo)致后果的難以預(yù)測和量化評估(閆坤如和馬少卿,2018)?是因?yàn)槿祟惖挠邢蘩硇砸l(fā)了人工智能的倫理風(fēng)險(xiǎn),還是說人工智能還遠(yuǎn)沒有具備倫理的屬性?這些問題在學(xué)術(shù)界還尚未形成統(tǒng)一的認(rèn)識。如何評價(jià)人工智能的行為將會直接影響人以何種方式與機(jī)器相處,因此,需要系統(tǒng)地梳理人類面對的形式多樣的倫理挑戰(zhàn),通過發(fā)展和改進(jìn)人類現(xiàn)有的倫理體系,為國家實(shí)施《新一代人工智能發(fā)展規(guī)劃》解決倫理性問題,更好地適應(yīng)人工智能的發(fā)展。
本文的目的是借助內(nèi)容分析方法,試圖厘清人工智能倫理研究的發(fā)展脈絡(luò)、現(xiàn)狀和趨勢,對現(xiàn)有研究從道德哲學(xué)、道德算法、設(shè)計(jì)倫理和社會倫理四個(gè)方面進(jìn)行評述,以期對未來的理論研究和實(shí)踐提供借鑒。行文結(jié)構(gòu)如下:第二部分對人工智能倫理相關(guān)文獻(xiàn)進(jìn)行計(jì)量分析;第三部分分析“人—機(jī)”關(guān)系引發(fā)的倫理沖突;第四部分綜述了人工智能倫理研究的視角及內(nèi)容;第五部分為國家及企業(yè)對人工智能倫理的態(tài)度;第六部分是總結(jié)和未來研究展望。
人工智能倫理的研究背景跨度寬泛,涉及計(jì)算機(jī)科學(xué)、人工智能、機(jī)器人學(xué)、倫理學(xué)、哲學(xué)、生物學(xué)、社會學(xué)、宗教等方面。本文基于Web of Science(WOS)和CNKI數(shù)據(jù)庫,以Citespace為文獻(xiàn)計(jì)量工具,以知識圖譜的形式分析人工智能倫理的研究脈絡(luò)。選擇以人工智能倫理(AI ethics)、機(jī)器道德(machine morality)、機(jī)器人倫理(robert ethics)、機(jī)器倫理(machine ethics)、道德機(jī)器(moral machine)、價(jià)值一致論(value alignment)、人工道德(artificial morality)、技術(shù)倫理(technology ethics)、人工智能安全(AI security)、友好人工智能(friendly AI)等為關(guān)鍵詞進(jìn)行搜索。為保障文獻(xiàn)的質(zhì)量,剔除影響因子較低的期刊,選取1997—2018年(共21年)期間發(fā)表在較高影響因子期刊上有關(guān)人工智能倫理研究的298篇文獻(xiàn)。將閾值設(shè)置為“Top50”,選擇每個(gè)時(shí)段出現(xiàn)頻次在前50的文獻(xiàn)形成知識圖譜。
圖1 中國人工智能2012—2017年學(xué)術(shù)、投資和輿論變化曲線
中國“人工智能”在理論研究、資本投資以及社會關(guān)注度方面呈逐年遞增的趨勢,如圖1所示。其中“學(xué)術(shù)曲線”是CNKI中“深度學(xué)習(xí)”相關(guān)論文各年份發(fā)布數(shù)量變化情況,“投資曲線”是人工智能私募股權(quán)投資市場的投資頻數(shù)變化,“輿論曲線”是百度指數(shù)中“人工智能”的搜索熱度變化。從曲線的變化趨勢來看,學(xué)術(shù)的研究熱度呈現(xiàn)持續(xù)增長態(tài)勢,大量資本進(jìn)入人工智能研究領(lǐng)域大概出現(xiàn)在2014年,公眾輿論中“人工智能”熱點(diǎn)出現(xiàn)于2016年。學(xué)術(shù)到資本市場轉(zhuǎn)化再到輿論熱點(diǎn)關(guān)注,人工智能發(fā)展趨勢與歷次新技術(shù)產(chǎn)生和發(fā)展的情況類似,可以預(yù)測人工智能及其相關(guān)領(lǐng)域未來都將是研究和關(guān)注熱點(diǎn)。
主題詞是對文獻(xiàn)的核心內(nèi)容的提煉和概括,其頻次高低也在一定程度上反映了文獻(xiàn)的研究熱點(diǎn)和趨勢。本文基于搜集的人工智能倫理文獻(xiàn),進(jìn)行了主題詞共現(xiàn)分析,如圖2所示。
圖2 CNKI和WOS數(shù)據(jù)庫關(guān)于人工智能倫理主題詞共現(xiàn)網(wǎng)絡(luò)分析
國內(nèi)外從技術(shù)、文化、倫理、制度等方面對AI進(jìn)行研究,形成了實(shí)踐智慧、互聯(lián)網(wǎng)、大數(shù)據(jù)、機(jī)器道德、機(jī)器倫理等明顯的聚類。機(jī)器道德(machine morality)關(guān)注機(jī)器人應(yīng)該擁有哪些道德性能,以及這些性能如何實(shí)現(xiàn)的問題(Malle,2016)。機(jī)器倫理(machine ethics)關(guān)注機(jī)器人在設(shè)計(jì)、應(yīng)用實(shí)踐和與人類相處等方面的問題(Anderson等,2005)。機(jī)器人倫理(robert ethics)以及路線圖的提出(Di Robotica和Veruggio,2006),促進(jìn)學(xué)者對機(jī)器人技術(shù)使用影響的跨文化討論,從倫理因素的植入程度角度來理解廣義機(jī)器倫理(Moor,2006)。
需要說明的是,機(jī)器人是目前人工智能研究最重要的載體,是多種技術(shù)的集合,因此在很多研究中將機(jī)器人倫理等同于人工智能倫理。但二者還是存在一定差異,機(jī)器人倫理是人工智能倫理的一部分,前者屬于后者研究范疇的核心,就二者關(guān)系而言屬于包含關(guān)系(莫宏偉,2018)。
國家級課題立項(xiàng)情況能夠從另一個(gè)角度反映與人工智能倫理的研究現(xiàn)狀。以“人工智能”、“機(jī)器人倫理”為關(guān)鍵詞搜索國家社科網(wǎng),相關(guān)的立項(xiàng)課題計(jì)16項(xiàng),再根據(jù)申報(bào)人信息進(jìn)行期刊論文查詢,剔除相關(guān)度不高的課題6項(xiàng)。在文獻(xiàn)查閱的過程中,另發(fā)現(xiàn)與人工智能倫理相關(guān)的課題16項(xiàng)。因此,在2002—2017年間,與人工智能倫理相關(guān)的國家級課題研究共計(jì)26項(xiàng),立項(xiàng)范圍涉及人工智能道德哲學(xué)(劉西瑞,2002;李小五,2002;胡驚雷,2015;李熙,2017;王紹源和任曉明,2017;梅亮等,2017;高兆明,2017)、技術(shù)倫理(李倫,2018;張成崗,2017)、生活倫理(徐英瑾,2006,2015;閻國華和閆晨,2017;黨家玉,2017;張吉豫,2015)、倫理解決進(jìn)路(杜嚴(yán)勇,2015;段偉文,2017;黃閃閃,2017)等內(nèi)容,這與文獻(xiàn)研究熱點(diǎn)分析保持一致,表明國家層面也在關(guān)注人工智能倫理研究。
使用計(jì)算機(jī)技術(shù)在倫理設(shè)計(jì)框架內(nèi)跨界進(jìn)行道德模型構(gòu)建并應(yīng)用于實(shí)踐時(shí),研究具有開創(chuàng)性和前瞻性(Danielson,1992)?!爸悄荏w”(agents)再加上“人工”的屬性時(shí),這種智能就屬于機(jī)器而不是生物的(Ferraz和Del Nero,2018)。智能機(jī)器通過自我深度學(xué)習(xí)擁有了工具理性,對世界中發(fā)生的事能做出判斷和預(yù)測,構(gòu)成一種全新“人—機(jī)”關(guān)系。學(xué)術(shù)和實(shí)踐領(lǐng)域?qū)Υ酥饕腥N立場和觀點(diǎn),如表1所示。
表1 人工智能發(fā)展引發(fā)對倫理問題的關(guān)注
一是以馮·諾依曼、阿蘭·圖靈為代表的“傳統(tǒng)派”。他們認(rèn)為人類始終處于支配地位,人工智能永遠(yuǎn)不會超越人類智能,這種觀點(diǎn)源自于宗教中“造物主一定比所造之物高明”。20 世紀(jì)70 年代從生物和心理學(xué)的層面得出了人工智能必將失敗的結(jié)論(Dreyfus,1972),認(rèn)為“當(dāng)前人類面臨的風(fēng)險(xiǎn),不是超智能機(jī)器的降臨,而是低智能人的出現(xiàn)”。80年代的“中文房間”(Chinese room)模型對上述觀點(diǎn)進(jìn)行了印證(Searle,1980)。
隨著人工智能的廣泛應(yīng)用,人類也逐步開始重視、反思弱人工智能與強(qiáng)人工智能,甚至超級人工智能(super intelligence)的研究以及與人類智能之間的關(guān)系問題。尼克·波斯特姆(Bostrom,2014)從“全腦仿真、生物認(rèn)知、人機(jī)交互以及網(wǎng)絡(luò)和組織”等路徑分析“超級智能”的可能性,這不同于目前廣泛應(yīng)用的“弱人工智能”(如下棋機(jī)器人、自動(dòng)駕駛技術(shù)等),而是一種能全面超越人類智能的“強(qiáng)人工智能”。但這些實(shí)現(xiàn)路徑是在人腦基礎(chǔ)上的直接迭代或高仿真,混淆了“強(qiáng)大的弱人工智能”與擁有主體性的“強(qiáng)人工智能”,并沒有深入探討人類智能現(xiàn)象的本質(zhì),對經(jīng)典的“他心問題”也無涉及,所以他提及的“超級智能”還是屬于工具性“弱人工智能”的范疇。
二是以霍金、比爾·蓋茨、馬斯克為代表的“謹(jǐn)慎派”,他們認(rèn)為人類應(yīng)該敬畏人工智能的崛起。當(dāng)機(jī)器具備自我意識(self-aware),甚至可以通過自己的“神經(jīng)”和“意識”自主做出決定,并與其他人工智能機(jī)體互聯(lián),人工智能將最終構(gòu)成一個(gè)現(xiàn)實(shí)性的威脅。
但是扎克伯格、李開復(fù)、吳恩達(dá)等人對“人工智能威脅論”提出相反的觀點(diǎn),爭議的焦點(diǎn)在于強(qiáng)人工智能是否以及何時(shí)會出現(xiàn)。馬斯克語境中主要是指“強(qiáng)人工智能”,即具備處理多種類型的任務(wù)和適應(yīng)未曾預(yù)料情形的能力,代表了公眾對強(qiáng)人工智能和超級人工智能可能失控、威脅人類未來的生存表達(dá)了擔(dān)憂;而扎克伯格所述的“人工智能”是狹義的專業(yè)領(lǐng)域人工智能能力,是產(chǎn)業(yè)界從功用和商業(yè)角度出發(fā),保持對人工智能研發(fā)和應(yīng)用的持續(xù)探索。這兩種典型的觀點(diǎn)源于對“人工智能”的不同理解。
三是以赫伯特·西蒙(Herbert A.Simon)為代表的“樂觀派”,他們認(rèn)為人工智能肯定會達(dá)到并超過人類智能。“奇點(diǎn)理論”(singularity)預(yù)言機(jī)器智能將在2045年超過人類的智能(Kurzweil,2011),“藍(lán)腦計(jì)劃”(blue brain)提出的時(shí)間更短,預(yù)言在2020年左右制造出科學(xué)史上第一臺會“思考”的機(jī)器。但是這些預(yù)言遭到了很多人的質(zhì)疑,認(rèn)為人工智能的基礎(chǔ)技術(shù)是過去技術(shù)研發(fā)的量變積累,還未達(dá)到質(zhì)變的程度。未來人工智能和人類智能將會是社會發(fā)展的兩種形態(tài),“人機(jī)共存”將成為人類社會比較理想的狀態(tài)。
雖然對人工智能的發(fā)展持樂觀態(tài)度,但人類社會在哲學(xué)、理智等各方面都還沒有準(zhǔn)備好迎接人工智能時(shí)代,需要呼吁人類正確使用人工智能,盡快制定機(jī)器人相關(guān)方面的倫理和價(jià)值體系,通過建立標(biāo)準(zhǔn)尋求“預(yù)防性原則”進(jìn)行風(fēng)險(xiǎn)評估,在此基礎(chǔ)上對危險(xiǎn)與風(fēng)險(xiǎn)再進(jìn)行評價(jià)(Wallach和Allen,2010)。
人工智能倫理是技術(shù)發(fā)展中不可回避的重大問題。但是,也有部分學(xué)者表示人工智能還遠(yuǎn)沒有倫理的概念,只是人類對倫理的理解并強(qiáng)加在機(jī)器上(劉偉和趙路,2018)。人工智能的本質(zhì)仍然是人與人之間關(guān)系的研究范疇,呈現(xiàn)的問題與危機(jī)仍屬于控制與反控制的議題,也就是說,人工智能的技術(shù)飛躍或者“智能大爆發(fā)”帶來的應(yīng)用倫理問題并不是新問題,而是一系列老問題的疊加。它會對人類既有的認(rèn)知提出挑戰(zhàn),改變社會學(xué)階層分析的經(jīng)典框架,但不是顛覆性的“消滅”(Bostrom,2014)。
國外對人工智能倫理的研究起步較早,研究領(lǐng)域主要集中在機(jī)器人的社會倫理、法律和安全方面,涉及技術(shù)性失業(yè)、致命性自主武器、算法公平、道德判斷、價(jià)值一致性等問題。國內(nèi)研究相對滯后,但人工智能與機(jī)器人的倫理責(zé)任議題也逐漸被關(guān)注,具體包括人權(quán)倫理、責(zé)任倫理、道德地位倫理、代際倫理、環(huán)境倫理以及大數(shù)據(jù)倫理與隱私等,說明國內(nèi)已從單一的技術(shù)倫理研究轉(zhuǎn)向人機(jī)系統(tǒng)交互關(guān)系的倫理問題研究,這也是研究領(lǐng)域的新突破和進(jìn)步。本文結(jié)合李倫(2018)在第四屆全國賽博倫理學(xué)暨人工智能倫理學(xué)研討會上根據(jù)國內(nèi)外人工智能倫理研究的狀況和趨勢、人工智能與社會各領(lǐng)域的關(guān)聯(lián)屬性,從人工智能道德哲學(xué)、道德算法、設(shè)計(jì)倫理和社會倫理四個(gè)方面來理解人工智能倫理的研究。
1. 機(jī)器人道德地位問題
人工智能的發(fā)展提出了機(jī)器人道德地位問題的命題(蘇令銀,2019)。唯物主義觀點(diǎn)認(rèn)為人的意識是基于大腦神經(jīng)元而產(chǎn)生的,人類的所有行為活動(dòng)都是在意識驅(qū)動(dòng)下完成的,而人工神經(jīng)網(wǎng)絡(luò)(artificial neural network)無法自動(dòng)合成“神經(jīng)蛋白”這類特殊物質(zhì),不會產(chǎn)生主觀的意識。因此,意向性(intentionality)被認(rèn)為是人工智能與人類最本質(zhì)區(qū)別之一(Boden,2017),解決這個(gè)難題涉及“他心難題”及其變種的“機(jī)心難題”,這屬于形而上學(xué)的思考,是人工智能倫理研究的基礎(chǔ)和本源。心智的邊界在一定條件下可以不依賴人類生理系統(tǒng)而通過外部物理載體來實(shí)現(xiàn)(Heersmink,2009)。因此,道德地位需要考慮的不僅是屬性問題而更多地是關(guān)系問題,即實(shí)體之間以及與人類之間的關(guān)系,尤其是主體道德地位和客體道德地位的歸屬。獨(dú)立于這些關(guān)系去定義道德地位,本身就是違背道德的,因?yàn)樗划?dāng)作了一個(gè)具有抽象“屬性”的“實(shí)體”。
機(jī)器人責(zé)任主體的界定可以表述為“自主智能機(jī)器人在人類社會中應(yīng)該扮演什么角色?”。沙特阿拉伯授予機(jī)器人索菲亞“公民身份”而備受關(guān)注,成為“機(jī)器人公民”意味著具有權(quán)利義務(wù)并對其行為負(fù)責(zé),需要承擔(dān)道德責(zé)任。但是普遍的學(xué)者卻認(rèn)為機(jī)器人作為“人工物”是沒有能力去承擔(dān)道德責(zé)任的,目前的人工智能仍然是對人類思維、行為的模仿,停留在工具和機(jī)械范疇,并不是真正意義上的人格實(shí)體與道德實(shí)體。也許隨著量子技術(shù)的發(fā)展,未來會出現(xiàn)類動(dòng)物甚至類人類AI,即強(qiáng)人工智能或超級人工智能,人類與AI的關(guān)系會發(fā)生根本性轉(zhuǎn)變,但這仍是停留在理論層面的不確定問題,未來需要科技的發(fā)展來檢驗(yàn)。經(jīng)典的圖靈測試在人工智能的“強(qiáng)弱”上也不能作為智能意識產(chǎn)生的推演依據(jù),已經(jīng)產(chǎn)生了“人工智能逆反圖靈測試”①圖靈測試表示有超過30%的測試者不能確定出被測試者是人還是機(jī)器,就表明這臺機(jī)器通過了測試,并被認(rèn)為具有人類智能。谷歌公司2018年發(fā)布的“Duplex”的人工智能系統(tǒng),其最大特點(diǎn)是系統(tǒng)能夠進(jìn)行較自然的聲音對話,這一切都讓此人工系統(tǒng)聽起來像一個(gè)真實(shí)的人。谷歌Duplex模仿人類發(fā)聲的啟示引發(fā)了社會對人工智能的擔(dān)憂,高度發(fā)達(dá)的人工智能系統(tǒng)能讓人類誤以為這臺機(jī)器就是人類,但是Yaniv Leviathan和Yossi Matias作為項(xiàng)目主要負(fù)責(zé)人,表示只關(guān)注了產(chǎn)品的技術(shù)潛力,并未意識到其存在的社會隱患。的現(xiàn)象。阿爾文·納拉亞南建議在機(jī)器人設(shè)計(jì)時(shí)需要遵循“圖靈紅色警戒”(Turing red flag law),即機(jī)器人的定位也應(yīng)當(dāng)是機(jī)器人,而不是人甚至超越人。
2. 人工道德主體邊界
“物倫理”的概念提出以后,在“人—機(jī)”系統(tǒng)交互情境下,技術(shù)倫理學(xué)出現(xiàn)了“物轉(zhuǎn)向”(thingly-turn)的趨勢,“技術(shù)人工物”(technological artifacts)在技術(shù)倫理學(xué)領(lǐng)域掀起了新的研究熱潮(Peter和Anthonie,2002)。對人的理解越來越物化和去意義化,導(dǎo)致人和“人工物”的邊界越來越模糊,人類需要思考這種邊界模糊的后果。
兩種對道德主體不同的觀點(diǎn)形成了人工道德主體邊界之爭,即實(shí)用主義(Levin,2013)和標(biāo)準(zhǔn)主義(Eshleman,2014)。實(shí)用主義認(rèn)為人工道德主體對外界產(chǎn)生某些行為和反應(yīng),需要模擬現(xiàn)實(shí)行為的部分或者全部標(biāo)準(zhǔn)。黛博拉·約翰遜(Johnson,2006)通過四個(gè)條件來設(shè)定人工道德主體的邊界②黛博拉·約翰遜(Johnson.D,2006)規(guī)定了一個(gè)人工道德主體E要成為道德主體必須具備下列條件:(1)E能夠以自己的身體引起物理事件;(2)E有一個(gè)內(nèi)在的規(guī)定I,它組成了自己的欲望、信仰和其他有意圖的規(guī)定,這些規(guī)定共同組成了E以某種方式 (理性和意識) 行動(dòng)的原因;(3)規(guī)定I是導(dǎo)致條件(1)的直接因素;(4)條件(1)中的物理事件產(chǎn)生一些具有道德重要性的影響:當(dāng)計(jì)算機(jī)系統(tǒng)運(yùn)轉(zhuǎn)時(shí),它們的行為對表達(dá)世界的其他方面產(chǎn)生影響,這些表達(dá)效果對道德施加者有害或有益。,她認(rèn)為人工物不能成為道德主體,是因?yàn)樵诩夹g(shù)上很難對人類的道德行為進(jìn)行編碼建立數(shù)據(jù)庫,缺乏可能導(dǎo)致他們行為發(fā)生的內(nèi)在心理規(guī)定。標(biāo)準(zhǔn)主義觀點(diǎn)認(rèn)為人類道德主體需要滿足特定的條件來模擬或展現(xiàn)行為的全部標(biāo)準(zhǔn),提出了人工道德主體標(biāo)準(zhǔn)所要求的狀態(tài),但同時(shí)也應(yīng)該從實(shí)用主義的角度來理解。
1. 算法歧視
算法是通過計(jì)算機(jī)一系列運(yùn)轉(zhuǎn)解決特定的問題或完成一個(gè)確定的結(jié)果(Diakopoulos,2015),人類已經(jīng)開始將部分事情的決定權(quán)轉(zhuǎn)移到具備高度智能的算法。但是算法缺乏學(xué)習(xí)、推斷、聯(lián)想等高級智能,難以解釋行為背后的決策邏輯,因?yàn)槿祟惖男袨榫哂兄饔^動(dòng)機(jī)性和意向性,需要對算法的倫理進(jìn)行分析,這也是算法設(shè)計(jì)過程中的重點(diǎn)和難點(diǎn)問題。
算法是一種相對客觀的數(shù)學(xué)表達(dá),很多人會認(rèn)為算法決策傾向是公平的。但是人類的價(jià)值觀和道德規(guī)范卻沒有納入數(shù)字系統(tǒng),對數(shù)據(jù)的管理在全球互聯(lián)的背景下更難以控制。數(shù)據(jù)和算法的不透明性反映了數(shù)據(jù)權(quán)利之間的失衡現(xiàn)象,這將不可避免導(dǎo)致算法歧視(Algorithms Bias)。美國在計(jì)算機(jī)(Joseph等,2016)、犯罪學(xué)(Goel等,2016)、政治學(xué)(Veale和Binns,2017)、人力資源管理(Gumbus,2017)等多領(lǐng)域揭示了算法歧視的規(guī)律,發(fā)掘了相關(guān)數(shù)據(jù)和證據(jù),研究層次較深。歧視的主觀傾向性難以判斷,這也致使國外學(xué)者在研究中更多采用實(shí)證和案例的研究方法來提出建議(Edelman和Luca,2014)。國內(nèi)研究主要從經(jīng)濟(jì)、法律和傳媒角度,多以介紹性和科普性為主,集中在對國外研究成果的介紹和算法歧視現(xiàn)象的評述,僅有少量做了定量分析,而其他領(lǐng)域關(guān)注較少。
2. 算法歧視產(chǎn)生的根源
個(gè)體通過數(shù)據(jù)獲得了非對稱優(yōu)勢,算法技術(shù)將對個(gè)人數(shù)據(jù)進(jìn)行重構(gòu),規(guī)則代碼化帶來的不透明、不公平、難以審查等問題對公平和正義發(fā)起挑戰(zhàn)(Veale和Binns,2017),讓網(wǎng)絡(luò)環(huán)境在定價(jià)、服務(wù)和機(jī)會等領(lǐng)域具備了歧視的可能(Helbing,2015)。
算法歧視產(chǎn)生的原因主要?dú)w結(jié)于算法技術(shù)和數(shù)據(jù)輸入兩個(gè)方面(Executive Office of the President,2016),機(jī)器完全受人工設(shè)計(jì)的結(jié)構(gòu)和學(xué)習(xí)進(jìn)程中接收的數(shù)據(jù)形成對世界的“認(rèn)知”,導(dǎo)致在特定場景下發(fā)生錯(cuò)誤決策。算法的設(shè)計(jì)是技術(shù)人員的主觀選擇和判斷,他們是否公平公正地將道德規(guī)則和法律寫進(jìn)程序是值得懷疑的,這使得算法繼承了人類決策者的種種偏見。此外,由于技術(shù)壁壘、機(jī)器學(xué)習(xí)算法的“黑箱”屬性、政策限制而產(chǎn)生不透明性,讓計(jì)算機(jī)在不被明確編程的情況下運(yùn)轉(zhuǎn),在自主系統(tǒng)中探究是否存在歧視和其原因,很難通過技術(shù)來實(shí)現(xiàn)公平。
算法離不開大數(shù)據(jù)支撐,數(shù)據(jù)的有效性、準(zhǔn)確性會影響算法決策和預(yù)測的準(zhǔn)確性。數(shù)據(jù)自身偏見缺陷、大小樣本的地位懸殊、敏感屬性都會導(dǎo)致算法歧視存在的必然性(張玉宏等,2017),帶有歧視的數(shù)據(jù)經(jīng)過運(yùn)算之后也帶有歧視傾向,創(chuàng)新也會使歧視和機(jī)會不平等的現(xiàn)象持續(xù)下去。隨著數(shù)據(jù)應(yīng)用范圍的擴(kuò)大,算法的一次小失誤或者歧視,容易形成“自我實(shí)現(xiàn)的歧視性反饋循環(huán)”,包括在警情預(yù)測、風(fēng)險(xiǎn)評價(jià)和信用評估上都存在類似問題,這會壓榨消費(fèi)者個(gè)人財(cái)富、剝奪個(gè)人自我決定權(quán)、破壞信息的多樣性,不斷蠶食消費(fèi)者剩余,甚至對個(gè)體生命構(gòu)成潛在的威脅。
3. 算法歧視的解決出路
由于算法的客觀性和人類社會倫理的發(fā)展,目前以算法為主的弱人工智能并非完全可以依賴和信任(莫宏偉,2018),需要承認(rèn)人工智能系統(tǒng)內(nèi)在歧視性,并意識到這些歧視的潛在來源。把倫理原則形式化,在機(jī)器學(xué)習(xí)中引入“歧視指數(shù)”(discrimination index)的概念,維護(hù)用戶與機(jī)構(gòu)間數(shù)據(jù)權(quán)利的平衡,倡導(dǎo)有規(guī)范的數(shù)據(jù)共享,建立基于權(quán)利的數(shù)據(jù)倫理。
算法采用的邏輯基礎(chǔ)是多語境系統(tǒng),從設(shè)計(jì)、執(zhí)行、測試到推廣采取跨學(xué)科的原則,做到更加包容性。提出設(shè)計(jì)更為“公平的”算法,從算法設(shè)計(jì)的源頭來防止歧視,使人工智能體的行動(dòng)符合相關(guān)倫理規(guī)范。保持算法的透明度,制定機(jī)會均等的設(shè)計(jì)原則,使算法的力量發(fā)揮作用,尤其需要考慮弱勢、易被忽視人群的利益。國外現(xiàn)在已經(jīng)有OpenAI等一些人工智能開源運(yùn)動(dòng),保障算法的透明性和公平性。Google在實(shí)踐中倡導(dǎo)“機(jī)會平等”(equality of opportunity),以避免一套敏感屬性的歧視。當(dāng)然,算法透明和商業(yè)秘密、國家安全之間的關(guān)系需要進(jìn)一步去平衡。
越來越多的國家、地區(qū)、組織出臺監(jiān)管措施,包括設(shè)計(jì)標(biāo)準(zhǔn)、性能標(biāo)準(zhǔn)、責(zé)任標(biāo)準(zhǔn)等,甚至擴(kuò)展到涉及人工智能算法、數(shù)據(jù)等核心的內(nèi)容。美國通過大數(shù)據(jù)報(bào)告提醒信貸、就業(yè)、教育和刑事司法領(lǐng)域等歧視問題需要從立法、技術(shù)和倫理方面予以補(bǔ)救。也有學(xué)者建議修改美國殘疾人法案,擴(kuò)大反歧視的授權(quán),禁止利用算法對身體和精神障礙預(yù)測性歧視;要求以書面形式說明數(shù)據(jù)處理者對含有健康類信息收集和處理過程;滿足公平正義和經(jīng)濟(jì)效率的前提下,保護(hù)大數(shù)據(jù)市場的競爭秩序(Townley等,2017)。
1. 人工智能設(shè)計(jì)的倫理原則
人工智能在應(yīng)用過程中對人類產(chǎn)生侵蝕和威脅的案例證明了技術(shù)異化的倫理風(fēng)險(xiǎn),研究中用“人類關(guān)切”(human-centric)來描述這種內(nèi)在價(jià)值的虧損。這種虧損是在被制造的時(shí)候缺乏精細(xì)和復(fù)雜的倫理學(xué)設(shè)計(jì)(Bostrom,2014),因此設(shè)計(jì)過程中需更多聚焦人與數(shù)據(jù)的自由關(guān)系(李倫,2018)。美國電氣和電子工程師協(xié)會(IEEE)將倫理植入設(shè)計(jì)人員的意識中,鼓勵(lì)科技人員在人工智能研發(fā)過程中優(yōu)先考慮倫理問題(Davies,2016)。
基于人權(quán)優(yōu)先、強(qiáng)調(diào)人機(jī)和諧共處,在人工智能設(shè)計(jì)中需要優(yōu)先考慮:(1)人類利益,確保人工智能和自主系統(tǒng)(AI/AS)不侵犯人類,這也是阿西莫夫(Asimov)提出的機(jī)器人的三大定律之一,后來又提出了“零律”對其做出補(bǔ)充①第一定律:機(jī)器人不得傷害人類,或者目睹人類將遭受危險(xiǎn)而袖手不管;第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存;第零定律:機(jī)器人必須保護(hù)人類的整體利益不受傷害,其他三條定律都是在這一前提下才能成立。。雖然這些規(guī)范在理論上得到了大家的認(rèn)可,但是從未在實(shí)踐中被完全實(shí)現(xiàn),因?yàn)檫@沒有給出能夠被業(yè)界所推崇的機(jī)器編碼技術(shù)路線。(2)責(zé)任,確保AI/AS是可以被問責(zé)的。在設(shè)計(jì)程序?qū)用婢哂锌韶?zé)性,強(qiáng)化機(jī)器人研發(fā)人員的職業(yè)責(zé)任(Murphy和Woods,2009),證明其為何以特定的方式運(yùn)行。(3)透明性,AI/AS的運(yùn)作必須是透明的,可以使人類發(fā)現(xiàn)機(jī)器人是如何以及為何做出特定的決定。透明至少應(yīng)該包含開放和可理解兩個(gè)方面,只有讓用戶和機(jī)構(gòu)在算法上達(dá)到平衡,才能確保用戶的數(shù)據(jù)權(quán)利。(4)教育與意識,需要強(qiáng)化AI/AS的優(yōu)勢,推進(jìn)倫理教育和安全教育意識,降低其被濫用所帶來的風(fēng)險(xiǎn)(騰訊研究院等,2017)。
2. 人工智能倫理設(shè)計(jì)進(jìn)路
人工智能作為一種技術(shù)必然帶有價(jià)值偏好,機(jī)器的自由化程度越高,就越需要道德標(biāo)準(zhǔn)。由于人工智能系統(tǒng)在自主性方面的能力的提升,在設(shè)計(jì)階段讓其采納、學(xué)習(xí)并遵循所服務(wù)的社會和團(tuán)體的規(guī)范和價(jià)值顯得至關(guān)重要,可以分步驟來實(shí)現(xiàn)將人類規(guī)范和道德價(jià)值嵌入人工智能系統(tǒng):
(1)識別特定區(qū)域范圍內(nèi)的規(guī)范和價(jià)值。社會和道德規(guī)范是特定區(qū)域范圍內(nèi)內(nèi)化于行為、語言、習(xí)俗等針對特定任務(wù)的價(jià)值觀,人工智能系統(tǒng)受到多種規(guī)范和價(jià)值約束,應(yīng)明確需要嵌入的規(guī)范和價(jià)值,避免導(dǎo)致道德過載(moral overload)問題。在人工智能價(jià)值權(quán)重設(shè)計(jì)階段,優(yōu)先考慮利益相關(guān)群體共同分享的價(jià)值體系,技術(shù)上要滿足不同空間和時(shí)間下價(jià)值和規(guī)范發(fā)生變化的可能性。
(2)將這些規(guī)范和價(jià)值嵌入人工智能系統(tǒng)。實(shí)現(xiàn)機(jī)器人倫理道德的決策設(shè)計(jì),避免機(jī)器的不當(dāng)使用威脅人類的生存,需要把倫理準(zhǔn)則變成可編程的代碼嵌入人工智能機(jī)器。倫理設(shè)計(jì)進(jìn)路包括“自上而下(top-down)”和“自下而上(bottom-up)”。TD研究方法即認(rèn)知主義,突出人類的主體地位,利用“特定的倫理理論進(jìn)行分析指導(dǎo)實(shí)現(xiàn)該理論的運(yùn)算法則和子系統(tǒng)的計(jì)算需要”的方法,提倡研究人類的策劃、推理以及解決問題的能力,在“機(jī)器人三定律”基礎(chǔ)上構(gòu)建人工道德主體的理論研究框架。BU研究方法是涌現(xiàn)主義,強(qiáng)調(diào)機(jī)器的能動(dòng)作用,即不通過任何抽象概念或推理過程,機(jī)器人對所感知到的刺激能動(dòng)做出反應(yīng),能夠從不同的社會機(jī)制中動(dòng)態(tài)地進(jìn)行集成輸入,為完善人工道德主體整體性發(fā)展提供技巧和標(biāo)準(zhǔn)。
隨著深度學(xué)習(xí)算法的提出與發(fā)展,綜合運(yùn)用TD的演繹規(guī)約路徑和BU的歸納規(guī)約路徑來對人工智能倫理問題進(jìn)行分析,提出了“混合型解決方法(hybrid resolution)”。內(nèi)部從頂層設(shè)計(jì)開始對人工智能產(chǎn)品進(jìn)行倫理設(shè)計(jì),建立人工智能的倫理標(biāo)準(zhǔn)和規(guī)范,限定存在爭議和容易引起安全問題的技術(shù)應(yīng)用范圍和智能水平。外部需要加強(qiáng)設(shè)計(jì)者的社會責(zé)任意識,加強(qiáng)對人工智能安全的評估和管理,增加公眾對人工智能的接受度(杜嚴(yán)勇,2015)。
(3)評估人工智能系統(tǒng)的規(guī)范和價(jià)值的有效性,即是否與人類社會的倫理相一致和兼容。由于設(shè)計(jì)的目的和應(yīng)用導(dǎo)向,與人類兼容的人工智能系統(tǒng)應(yīng)確立利他主義、不確定性、考慮人類三項(xiàng)基本原則。信任作為人—機(jī)交互的動(dòng)態(tài)變量,功利主義和絕對主義導(dǎo)向會做出不同的道德選擇,需要建立使用者對人工智能的信任,通過第三方評估組織需要界定價(jià)值一致性和相符性標(biāo)準(zhǔn),評價(jià)主體的價(jià)值對接問題。
對機(jī)器人進(jìn)行倫理設(shè)計(jì)旨在尋求實(shí)際的解決辦法以保障機(jī)器的行為是在人類可承受范圍之內(nèi),并將研究拓展到不同機(jī)器之間的道德規(guī)則傳遞(Anderson和Anderson,2007)。現(xiàn)將機(jī)器倫理用于實(shí)踐的應(yīng)用程序主要包括基于“倫理原則”和“實(shí)踐原則”的兩種形式,前者以Michael Anderson設(shè)計(jì)的基于邊沁功利主義的“Jeremy”程序和基于羅斯顯見義務(wù)(prima facie duties)的“W.D.”程序?yàn)榇恚笳咭訫cLaren設(shè)計(jì)的“說真話”(truth-teller)為代表(Anderson和Anderson,2007;于雪和王前,2016)。從技術(shù)領(lǐng)域通過程序來指導(dǎo)倫理決策,可以優(yōu)化機(jī)器人在無意識的情況下選擇道德的行為過程。設(shè)計(jì)過程中強(qiáng)調(diào)人工智能的人文化(humanitas),創(chuàng)造出有道德的人工智能體。這樣,人類就可以與機(jī)器人建立在一定信任程度基礎(chǔ)之上,通過邏輯性的命令保障機(jī)器人的倫理行為被約束在一定的框架范圍內(nèi),使機(jī)器人的行為最大化的符合人類社會的道德規(guī)范。
目前,就AI應(yīng)用問題還未達(dá)成更好的社會契約,人們質(zhì)疑其快速發(fā)展會給人類帶來極大的危險(xiǎn),衍生出更多的問題。國內(nèi)外聚焦在責(zé)任與安全、隱私保護(hù)等方面分析人工智能應(yīng)用產(chǎn)生的社會后果,探討如何善用人工智能造福于人類。
1. 責(zé)任與安全
國外關(guān)于機(jī)器人倫理研究中爭論的一個(gè)核心問題就是:究竟誰應(yīng)該對機(jī)器人的行為承擔(dān)責(zé)任?聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會(2015)提出了兩種對策,一是由智能機(jī)器人承擔(dān)責(zé)任。早有學(xué)者以具體的APACHE系統(tǒng)為例,闡述機(jī)器也許會承擔(dān)一些道德責(zé)任(Friedman和Kahn,1992),因?yàn)闆]人能夠承擔(dān)機(jī)器人故障的責(zé)任(Matthias,2004)。為此,已有開展賦予機(jī)器人道德責(zé)任問題的研究,提出使用某種道德測試來裁決機(jī)器人是否需要在法庭上負(fù)責(zé)。但也有學(xué)者認(rèn)為,機(jī)器人沒有能力承擔(dān)全部道德責(zé)任(段偉文,2017),因?yàn)橛?jì)算機(jī)的自主意識性與人類期望的差距仍然較大。在以人為中心的倫理框架下很難對機(jī)器人的行為做出有效界定,為此,在機(jī)器人設(shè)計(jì)中應(yīng)提倡保證算法透明性的披露方式,以利于人類對機(jī)器所承擔(dān)的道德責(zé)任保持清晰的理解。
另一種對策是讓所有參與機(jī)器人發(fā)明、授權(quán)和分配過程中的人來分擔(dān)責(zé)任。算法無法預(yù)見機(jī)器人在與人類相處過程中所出現(xiàn)的全部可能的行為,不可能對隱藏在機(jī)器人動(dòng)作中的因果鏈進(jìn)行完全掌控。因此,當(dāng)問題出現(xiàn)時(shí),程序員不會承擔(dān)全部但也不能完全免責(zé)。為了避免在事件發(fā)生時(shí)沒有人承擔(dān)全部責(zé)任,應(yīng)該推廣使用保險(xiǎn)制度,能夠讓所涉及事件的所有人共同承擔(dān)。并不斷完善當(dāng)前的法規(guī)來填補(bǔ)“責(zé)任空白”,為責(zé)任歸屬問題找到解決途徑。
2. 社會就業(yè)結(jié)構(gòu)
人工智能的廣泛應(yīng)用將人類從危險(xiǎn)、枯燥和困難的任務(wù)中解放出來,人類在分享AI帶來巨大物質(zhì)財(cái)富和生活便利的同時(shí),也承擔(dān)了巨大的心理壓力,如AI是否會造成從事勞動(dòng)力密集型、重復(fù)性、程序化等領(lǐng)域的工種的大面積失業(yè),影響人們的收入和福利,產(chǎn)生新的貧富差距和社會分化,從而會引起社會危機(jī),造成社會安全程度降低和引發(fā)動(dòng)蕩(閆坤如和馬少卿,2018)。很早就有學(xué)者反對將機(jī)器投入工作中,認(rèn)為自動(dòng)化技術(shù)將會引發(fā)人類學(xué)習(xí)動(dòng)機(jī)的下降,使人類喪失個(gè)性,造成“人腦的貶值”,從而把社會變得機(jī)械化。麥肯錫的報(bào)告預(yù)測,因技術(shù)的進(jìn)步和AI的普及,到 2030 年全世界將有3.9億人會更換工作,有8億人會失業(yè)。因此,未來因AI發(fā)展而引發(fā)的社會穩(wěn)定問題也同樣嚴(yán)峻。
雖然機(jī)器的感覺、運(yùn)動(dòng)、計(jì)算都將會遠(yuǎn)遠(yuǎn)超過人類,但人類和機(jī)器還處于非對稱交互階段,仍然存在著交互的時(shí)間差。莫拉維克悖論(Moravec’s paradox)認(rèn)為,人類獨(dú)有的高級智慧能力只需要非常少的計(jì)算能力,但是無意識的技能和直覺卻需要極大的運(yùn)算能力,這正是機(jī)器在短期無法比擬與模仿的。機(jī)器和人類的發(fā)展都是建立在對環(huán)境的改造和認(rèn)知上,環(huán)境結(jié)構(gòu)化的高低在一定程度上決定了機(jī)器對人的替代可能性,雖然未來一部分職業(yè)會被機(jī)器人取代,但是技術(shù)的發(fā)展也會改變現(xiàn)有的社會就業(yè)結(jié)構(gòu),并產(chǎn)生一些新的行業(yè)。
智能化生產(chǎn)追求的不是簡單、異化的“機(jī)器換人”,而是采用機(jī)器進(jìn)行柔性生產(chǎn),重新回到“以人為本”的組織生產(chǎn)模式,重視人在社會價(jià)值創(chuàng)造中的主體作用,實(shí)現(xiàn)企業(yè)生產(chǎn)運(yùn)營效率的提升,本質(zhì)是實(shí)現(xiàn)“人—機(jī)”協(xié)同。因此,AI不會從根本上沖擊人類的工作崗位與就業(yè)。對比第一次工業(yè)革命,蒸汽機(jī)的使用取代了許多人,但創(chuàng)造了更多的就業(yè)機(jī)會,社會整體失業(yè)率反而穩(wěn)定下來。當(dāng)然并非所有人都有能力邁過技術(shù)性和社會性壁壘,這會削減勞動(dòng)力在與資本談判中的議價(jià)能力,未來社會可能會出現(xiàn)“無用階級”,引發(fā)新的社會問題。
3. 生活中的人工智能倫理
(1)隱私問題
算法需要大量的優(yōu)質(zhì)數(shù)據(jù)支撐,各種活動(dòng)之間的數(shù)據(jù)交換變成了新的價(jià)值創(chuàng)造源,個(gè)人的數(shù)據(jù)容易被機(jī)構(gòu)的主動(dòng)收集和使用,處于相對被動(dòng)的,這會削弱個(gè)體對個(gè)人數(shù)據(jù)的控制和管理。這些數(shù)據(jù)如果被機(jī)構(gòu)披露將對個(gè)人的隱私產(chǎn)生影響,因此需要在深度學(xué)習(xí)過程中加強(qiáng)對個(gè)人隱私的保護(hù)。
隱私問題激發(fā)了更為基礎(chǔ)的倫理問題的討論,其實(shí)質(zhì)是數(shù)據(jù)濫用和數(shù)據(jù)侵權(quán)的問題,發(fā)展到極致可能導(dǎo)致數(shù)據(jù)巨機(jī)器(data megamachine)的出現(xiàn)。數(shù)據(jù)主義成為了數(shù)據(jù)巨機(jī)器的意識形態(tài),它主張絕對的數(shù)據(jù)共享,這可能有助于提高社會的運(yùn)行效率的,但是一旦數(shù)據(jù)巨型機(jī)獲得了自由,就有可能造成人與數(shù)據(jù)關(guān)系的破裂、人的自由的喪失,從而導(dǎo)致“楚門效應(yīng)”①“楚門效應(yīng)”的實(shí)質(zhì)是,消費(fèi)者在毫不知情的情況下其自主權(quán)遭到侵犯。在楚門世界,除了楚門,人人都是演員;在數(shù)據(jù)機(jī)器里,人人都是楚門,人人都是演員,無人是自己。的產(chǎn)生。
為了防止隱私問題的擴(kuò)大和惡化,需要從倫理和技術(shù)兩方面入手。建立以人的權(quán)利為中心的數(shù)據(jù)倫理,強(qiáng)調(diào)算法的透明性,消除數(shù)據(jù)孤島,提倡有規(guī)范的數(shù)據(jù)共享,防止數(shù)據(jù)濫用,旨在消除數(shù)據(jù)主義對數(shù)據(jù)自由的崇拜。在技術(shù)上,目前已經(jīng)有諸如匿名化、差別化隱私、決策矩陣等工具的應(yīng)用來實(shí)施隱私保護(hù)?!叭斯ぶ悄?區(qū)塊鏈技術(shù)+量子技術(shù)”在未來也可能會提供更加有效的解決方案,但在此之前仍需要政府、企業(yè)和民間團(tuán)體等相關(guān)主體共同努力,防止由于數(shù)據(jù)大規(guī)模泄露而產(chǎn)生的隱私問題,重建人在大數(shù)據(jù)時(shí)代的主體地位,建構(gòu)人與技術(shù)、人與數(shù)據(jù)的自由關(guān)系,消除機(jī)械論世界觀的不良影響。這些思路各有利弊,目前來看仍是一個(gè)需要展開探討的開放性問題。
(2)其他方面
人工智能放大了信息處理和知識加工的能力,人參與社會互動(dòng)的范圍和頻率可能減小,人類需求與知識之間的關(guān)系變得越來越間接。信息和知識的冗余讓人陷入選擇困境,甚至?xí)催^來支配人的需求。在司法、醫(yī)療、指揮管理等重要領(lǐng)域,研究人員也開始探索人工智能在審判分析、疾病診斷和對抗博弈方面決策上應(yīng)遵循的規(guī)范(Sikchi等,2012;Alzou'bi等,2014)。
在法律領(lǐng)域,人工智能的快速發(fā)展需要人們重視資源優(yōu)化配置與價(jià)值觀負(fù)載的制度匹配,因此亟需通過立法來規(guī)范人工智能技術(shù)。一是研究并確立因人工智能行為而產(chǎn)生的責(zé)任制度和約束機(jī)制,這樣才能在判決中明確人工智能對第三方造成損失或者違反制度而承擔(dān)的相應(yīng)法律責(zé)任;二是需要建立一套道德規(guī)范,促使技術(shù)倫理由隱性向顯性轉(zhuǎn)化,包括建立和編寫智能系統(tǒng)或機(jī)器人取代人類活動(dòng)所適用的基本規(guī)則(Ferraz和Del Nero,2018)。
在政府管理方面,人工智能技術(shù)在推動(dòng)社會進(jìn)步、提升政府組織治理效率的同時(shí),也造成了政府部門與社會的“技術(shù)鴻溝”。政府的監(jiān)管能力跟不上技術(shù)的發(fā)展,使得技術(shù)的發(fā)展在沒有告知、分析、審查和監(jiān)管的情況下繼續(xù)發(fā)展,進(jìn)而損害了公民利益。算法可能會繼承人類社會傳統(tǒng)行政管理的冗余、歧視等現(xiàn)象而出現(xiàn)非理性決策。因此,人工智能對政府治理理念、政府技術(shù)能力、政務(wù)流程、傳統(tǒng)行政倫理提出了挑戰(zhàn)。
為了更好地促進(jìn)全世界人工智能產(chǎn)業(yè)發(fā)展,應(yīng)將人工智能監(jiān)管納入戰(zhàn)略考慮,相關(guān)的法律、倫理、監(jiān)管配套制度都應(yīng)并行建立??勺匪葜贫鹊慕⒉拍茏寵C(jī)器人的行為及決策全程處于監(jiān)管之下,只有這樣人類才能占據(jù)主動(dòng)權(quán)或者事后進(jìn)行全面追蹤調(diào)查的權(quán)利。
近年來,世界各國都從國家戰(zhàn)略層面發(fā)布了人工智能發(fā)展的指導(dǎo)文件(如表2所示)。例如,2016年,美國將“理解并解決人工智能的道德、法律和社會影響”列入國家人工智能戰(zhàn)略,同時(shí)對人工智能從業(yè)者和學(xué)生加強(qiáng)道德倫理教育,并成立相應(yīng)的管理機(jī)構(gòu),負(fù)責(zé)跨部門協(xié)調(diào)人工智能的研究和發(fā)展、提出技術(shù)和政策建議、監(jiān)督各部門的人工智能技術(shù)研發(fā),進(jìn)一步促進(jìn)公平與正義。同年,英國也探討了人工智能所帶來的一系列潛在的倫理和法律挑戰(zhàn),嘗試尋找能夠?qū)崿F(xiàn)社會經(jīng)濟(jì)效益最大化的途徑,指出應(yīng)建立人工智能委員會來應(yīng)對機(jī)器人技術(shù)帶來的對社會、倫理和法律的影響。日本也制定了機(jī)器人應(yīng)用部署問題的管理方針,包括建立中心數(shù)據(jù)基地來存儲機(jī)器人對于人類造成傷害的事故報(bào)告。
表2 世界主要各國的人工智能國家戰(zhàn)略文件
中國對人工智能倫理問題也高度重視,并于2018 年開始組建人工智能倫理專委會。在中國發(fā)布的戰(zhàn)略規(guī)劃中,“人工智能倫理”這一字眼出現(xiàn)了15次之多,側(cè)重從打造平臺、構(gòu)建市場、激勵(lì)創(chuàng)新等方面進(jìn)行了闡述,并提出了“2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,2030年建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”的建設(shè)目標(biāo),但是對于監(jiān)管原則、監(jiān)管體系和相關(guān)監(jiān)管機(jī)構(gòu)的建設(shè)還沒有提及。
2017年,人工智能濫用、算法公平、人工智能倫理、人工智能監(jiān)管和責(zé)任等進(jìn)入更廣泛的公眾討論視野,相應(yīng)的標(biāo)準(zhǔn)和規(guī)范相繼出臺。歐盟簽署《人工智能合作宣言》,共同面對人工智能在倫理、法律方面的挑戰(zhàn),成立統(tǒng)籌人工智能監(jiān)管的政府機(jī)構(gòu),專門研究與機(jī)器人和人工智能相關(guān)的法律問題,并呼吁制定“機(jī)器人憲章”。聯(lián)合國發(fā)布的《關(guān)于機(jī)器人倫理的研究報(bào)告》中提供了物理形態(tài)下人工智能系統(tǒng)全新路徑研究的新視角,提出了人工智能發(fā)展的基本原則,包括保障人類利益和基本權(quán)利、安全性、透明性、推動(dòng)人工智能普惠和有益發(fā)展。聯(lián)合國犯罪和司法研究所(NUICRI)在海牙成立第一個(gè)聯(lián)合國人工智能和機(jī)器人中心,教科文組織和世界科學(xué)知識與技術(shù)倫理委員會(COMEST)聯(lián)合發(fā)布了《關(guān)于機(jī)器人倫理的初步草案報(bào)告》(2015),其中討論了在機(jī)器人的制造和使用過程中產(chǎn)生的社會與倫理問題,并列舉了相應(yīng)的措施:數(shù)據(jù)和隱私保護(hù)、構(gòu)建機(jī)器人設(shè)計(jì)者與機(jī)器人之間的責(zé)任分擔(dān)制度、在實(shí)景中對機(jī)器人進(jìn)行測試、建立全新的針對機(jī)器人的保險(xiǎn)制度、智能機(jī)器人的退出機(jī)制,并進(jìn)一步提出在機(jī)器人及機(jī)器人技術(shù)的倫理與法律監(jiān)管中確立可追溯性,保證機(jī)器人的行為及決策全過程處于監(jiān)管狀態(tài)。
由于技術(shù)發(fā)展和利益誘惑帶來的驅(qū)動(dòng)效用,國內(nèi)外知名的互聯(lián)網(wǎng)企業(yè)如Microsoft、Google、Facebook、百度、騰訊等不斷加大對人工智能領(lǐng)域的投資,預(yù)計(jì)未來10年內(nèi)將創(chuàng)造巨大的財(cái)富價(jià)值。但人工智能技術(shù)的發(fā)展可能最終導(dǎo)致世界所依賴的各種機(jī)器為數(shù)據(jù)和算法所驅(qū)動(dòng)且不受倫理或哲學(xué)規(guī)范約束。面對公眾的擔(dān)心和憂慮,科技巨頭們也開始采取行動(dòng),將倫理考量納入到企業(yè)社會責(zé)任框架中。
Microsoft闡述了包括公平、可靠性、保護(hù)隱私、包容性、透明性和可責(zé)性6項(xiàng)人工智能系統(tǒng)原則,確保人類的利益不受損害。Google還明確列出了“不會追求的人工智能應(yīng)用”。Facebook在經(jīng)歷數(shù)據(jù)泄露丑聞之后也開始成立人工智能倫理團(tuán)隊(duì),負(fù)責(zé)防止人工智能軟件中的歧視。從其官網(wǎng)可以發(fā)現(xiàn),正在招聘人工智能政策、倫理、法律等方面的人員,表明其開始重視人工智能倫理相關(guān)的工作。
這些企業(yè)在人工智能倫理上采取的行動(dòng),歸納起來主要包括:一是開展人工智能倫理與社會研究,將人工智能與人文社會科學(xué)結(jié)合起來,研究人工智能對社會、法律、組織、民主、教育和道德的深遠(yuǎn)影響,這是科技企業(yè)負(fù)責(zé)任研發(fā)與創(chuàng)新的體現(xiàn);二是提出人工智能價(jià)值觀,美國、英國、歐盟等致力于達(dá)成國家層面的人工智能倫理準(zhǔn)則,未來生命研究所(FLI)主導(dǎo)提出了“阿西洛馬人工智能原則”、IEEE希望推動(dòng)形成行業(yè)層面的人工智能倫理共識,谷歌、微軟等科技公司提出建立全球性參與平臺(global participatory platform)的設(shè)想,構(gòu)建數(shù)據(jù)和算法模型構(gòu)成的公共商店(Helbing,2015),提出企業(yè)層面的人工智能價(jià)值觀以贏得公眾的信任;三是成立人工智能倫理委員會,通過行業(yè)實(shí)踐,建立健全監(jiān)管機(jī)制,配套法規(guī)制度,明確監(jiān)管主體,樹立具有行業(yè)特色的行動(dòng)規(guī)范。
本文選取影響因子較大的國內(nèi)外期刊,回顧了1997—2018年期間與人工智能倫理相關(guān)的研究文獻(xiàn),補(bǔ)充完善了現(xiàn)有的人工智能倫理研究框架,如圖3所示。無論是人工智能應(yīng)用在現(xiàn)有倫理基礎(chǔ)上產(chǎn)生的問題,還是影響人類行為引發(fā)的全新倫理問題,弱人工智能和強(qiáng)人工智能上的不同表現(xiàn)引發(fā)了倫理研究的必要性和迫切性。二者是人工智能發(fā)展過程中的兩個(gè)階段,人類對人工智能都應(yīng)持有一定的憂患意識和風(fēng)險(xiǎn)意識,對前者應(yīng)該大力研究和發(fā)展,對后者應(yīng)該加以限制。雖然個(gè)別學(xué)者認(rèn)為人工智能還不具備倫理意識,但按照目前的研究成果與趨勢,人工智能的倫理意識只是時(shí)間和技術(shù)問題。因此可以認(rèn)為人工智能在“強(qiáng)弱”上的差別是其是否具備倫理屬性的分水嶺。
人工智能倫理研究需要建立新的倫理范式,從人工智能倫理的普遍性問題(道德哲學(xué)、道德算法)出發(fā),分析不同領(lǐng)域引發(fā)的倫理問題(社會倫理),提出倫理問題的解決路徑(設(shè)計(jì)倫理、國家和企業(yè)的制度)。為了確保人類與人工智能系統(tǒng)和諧相處,人類已經(jīng)在理論突破、立法研究、倫理準(zhǔn)則、安全標(biāo)準(zhǔn)、監(jiān)管體系等方面取得了一定成果,但是對人工智能倫理的研究還不夠系統(tǒng)、完善,未來可以從以下角度進(jìn)一步探討和思考:
倫理是具有情境性的,在一個(gè)環(huán)境下能正常接受的倫理,當(dāng)遷移到另一種情境可能就會變得難以接受。人工智能的發(fā)展是一個(gè)全球性的過程,對現(xiàn)行國際秩序?qū)⒃诎踩献?、可持續(xù)發(fā)展和創(chuàng)新治理上產(chǎn)生深刻影響。因此,解決人工智能倫理的跨情境問題是未來需要思考的重點(diǎn)之一。以Wallach為代表的學(xué)者從個(gè)體提出了人工智能倫理必要性的研究,引發(fā)了國際社會的廣泛關(guān)注。不同的組織、企業(yè)和國家也分別提出了各自的人工智能倫理準(zhǔn)則,這些準(zhǔn)則的建議已基本達(dá)成共識。未來需要從全球的層面來建立人工智能倫理體系,即沿著“個(gè)體→組織(國家)→全球(全人類)”的路徑對人工智能倫理開展“意識→準(zhǔn)則→體系”的研究。
圖3 人工智能倫理主要研究框架
雖然不同國家和組織提出了人工智能倫理的戰(zhàn)略指導(dǎo),但更廣泛的信息交流和參與程度仍相對停滯,在某種程度上是割裂和分散的,呈碎片化狀態(tài),沒有形成統(tǒng)一的范式,不足以形成全局性的行業(yè)共識和最佳實(shí)踐。制定政策、法規(guī)或道德和操作標(biāo)準(zhǔn),需要把技術(shù)進(jìn)步納入到一個(gè)全球視域的、生態(tài)可持續(xù)的、政治上公平的社會愿景中,服務(wù)于全人類的利益而不是國家主義或者民族主義。
怎樣建立全球范圍內(nèi)統(tǒng)一的人工智能倫理體系具有非常重要的研究價(jià)值。僅考慮道德倫理、法律法規(guī)和社會影響框架(ELSI)是不夠的,文化在預(yù)測未來技術(shù)的發(fā)展軌跡上具有關(guān)鍵性的作用。不同區(qū)域的不同政治制度、文化制度和社會意識形態(tài)看待人工智能倫理的標(biāo)準(zhǔn)也不相同,文化多樣性應(yīng)該體現(xiàn)在互動(dòng)之中,在文化的沖突、融合、發(fā)展中促進(jìn)人類意識的趨同性。這就是全球范圍內(nèi)的文化差異應(yīng)該成為人工智能倫理討論的核心的原因所在。
在全球范圍內(nèi)深化人工智能的國際合作,搭建關(guān)聯(lián)政府、企業(yè)、公共組織以及個(gè)人的平臺來促進(jìn)人工智能政策、技術(shù)和文化間的交流與互動(dòng),將科技公司自發(fā)形成的人工智能原則轉(zhuǎn)變?yōu)楣沧R并用以形成對人工智能創(chuàng)新及應(yīng)用的倫理約束。將倫理問題納入ESG(環(huán)境、社會和治理)框架,從人類命運(yùn)共同體的高度構(gòu)建全球化的人工智能治理新秩序,共同探討全球通用的人工智能倫理法則,人工智能價(jià)值觀才能發(fā)揮其作用。
在新興技術(shù)飛速發(fā)展的背景下,由于缺乏相應(yīng)的監(jiān)管機(jī)制、法律規(guī)范,倫理問題的研究往往滯后于技術(shù)的發(fā)展(如基因編輯嬰兒),相關(guān)的社會反應(yīng)出現(xiàn)一定的延遲也成為不可避免的現(xiàn)象。目前對人工智能倫理展開研究的主體很多,但是從哪個(gè)階段開始考慮人工智能的倫理、法律及社會影響尚未形成統(tǒng)一認(rèn)識,人文社科研究者和政策法律群體認(rèn)為應(yīng)該從人工智能的基礎(chǔ)研究階段開始考慮倫理、法律、社會影響,而科學(xué)家、企業(yè)家和技術(shù)人員則認(rèn)為從產(chǎn)品化、服務(wù)化之后社會使用和實(shí)施階段開始。社會對人工智能的關(guān)注缺乏整體性的思考和討論,目前仍集中在技術(shù)與經(jīng)濟(jì)方面,就倫理挑戰(zhàn)和社會問題而言,這些討論更多地還停留在理論研究,尚未達(dá)到公共政策層面,而且討論的重點(diǎn)多集中在“強(qiáng)人工智能”這樣相對遙遠(yuǎn)的議題。
前瞻性的探索非常重要,倫理研究缺乏前瞻性,就會導(dǎo)致政策的真空。高校和研究機(jī)構(gòu)開展前瞻性的科技倫理研究,為相關(guān)規(guī)范和制度的建立提供理論支撐,明確人工智能技術(shù)研發(fā)應(yīng)用的合理邊界,這既包括人工智能的技術(shù)倫理研究,也包括“人—物”、“人—機(jī)”、人際與環(huán)境之間關(guān)系的探索。“人—機(jī)”關(guān)系不能僅停留在人與機(jī)器、機(jī)器人的層面,更應(yīng)包括社會運(yùn)作的機(jī)制、機(jī)理,需要從倫理學(xué)的視角來促進(jìn)人文科學(xué)與自然科學(xué)的統(tǒng)一,構(gòu)建同時(shí)具備理論探索和實(shí)踐指導(dǎo)的倫理價(jià)值體系。人們設(shè)計(jì)制定人工智能道德規(guī)范,并積極反思人工智能與人類之間的關(guān)系,但是考慮人工智能對未來社會影響的不確定性,還需要全世界和各國政府的共同努力,制定人工智能開發(fā)和應(yīng)用的倫理規(guī)范和政策方向,采取一些新的監(jiān)管和認(rèn)證程序,分別從倫理、政策、法律三個(gè)層面推動(dòng)各項(xiàng)政策的落地。建立保障人工智能健康發(fā)展的倫理道德框架和法律法規(guī),重點(diǎn)需要建立人機(jī)協(xié)作的倫理框架,完善立法和明確人工智能法律主體,在弱人工智能的細(xì)分領(lǐng)域加快制定相應(yīng)法規(guī),為強(qiáng)人工智能的到來奠定法律基礎(chǔ)。
在人工智能研發(fā)和政策的應(yīng)用過程中始終要圍繞以人為本的核心,滿足人類全面發(fā)展的需求,促進(jìn)社會的公平和可持續(xù)發(fā)展。人工智能倫理研究將面對智能信息技術(shù)發(fā)展與跨學(xué)科的共同挑戰(zhàn),正確認(rèn)識人工智能倫理,引導(dǎo)技術(shù)研發(fā)方向,注重源頭設(shè)計(jì)與開發(fā),在技術(shù)推進(jìn)中注入人文理性,這需要哲學(xué)家、藝術(shù)家以及社會科學(xué)各界從不同視角審視倫理問題。在技術(shù)變革中積極參與,及時(shí)發(fā)現(xiàn)技術(shù)當(dāng)中隱含的道德議題、社會議題,向科學(xué)界、技術(shù)界和企業(yè)界傳遞他們的觀點(diǎn),構(gòu)建開放的公共研究平臺進(jìn)行多領(lǐng)域交叉研究。
多種類型的主體共同參與治理,需要各國政府與社會各界從人類命運(yùn)共同體的高度予以關(guān)切和回應(yīng)。以政府、企業(yè)、社會機(jī)構(gòu)、行業(yè)組織、社會大眾等社會各界需要共同參與來塑造人工智能的社會角色,確立行業(yè)標(biāo)準(zhǔn),建立健全相關(guān)法律法規(guī),采取統(tǒng)籌監(jiān)管和分散監(jiān)管的方法,改變經(jīng)濟(jì)、政治和教育系統(tǒng)的優(yōu)先順序,使人類在與人工智能的競爭中保持和諧共處。在這樣一種多利益相關(guān)方合作的模式之上,人們才能最大程度地理解并控制人工智能的倫理和社會影響,在人類社會進(jìn)步和技術(shù)創(chuàng)新之間實(shí)現(xiàn)協(xié)同效應(yīng)。
人工智能發(fā)展的過程會對現(xiàn)有倫理學(xué)構(gòu)成挑戰(zhàn),同時(shí)也會產(chǎn)生更多的未知新倫理問題,內(nèi)含的技術(shù)和社會雙重屬性及其矛盾將會越來越突出。解決人工智能引發(fā)的各種倫理問題,需要樹立“發(fā)展的倫理和倫理的發(fā)展”觀點(diǎn),通過自然科學(xué)和社會科學(xué)的路徑來認(rèn)識和解決人工智能倫理問題,人類更需要在機(jī)器人廣泛使用的社會中轉(zhuǎn)變當(dāng)前的工作觀念。為了確保人類精神在一個(gè)與人工智能并存的世界中同步發(fā)展,需要改變哪些傳統(tǒng)觀念?如何克服觀念轉(zhuǎn)變過程中的障礙和困難?新的倫理觀念是否能匹配新的社會形態(tài)?這些問題需要人類建構(gòu)可持續(xù)發(fā)展的發(fā)展倫理和基于健全理性的科技倫理來回答。