韓東旭
(華南理工大學(xué) 馬克思主義學(xué)院,廣州 510641)
隨著大數(shù)據(jù)技術(shù)以及各種信息技術(shù)的不斷突破、充分運(yùn)用,人工智能技術(shù)的發(fā)展迎來了一片新的發(fā)展天地。顯然,在我們工作和生活的方方面面,人工智能技術(shù)都充分滲透,并日益扮演著關(guān)鍵性的角色。偉大天才圖靈曾經(jīng)警告人們,人工智能技術(shù)的發(fā)展必然會(huì)帶來重大的威脅和隱患。結(jié)合如今的種種現(xiàn)狀來看,這位天才的警告并不是杞人憂天。我們務(wù)必在問題不斷積累積累和嚴(yán)重之前,進(jìn)行更好的處理,比如從立法上做出制度安排就是關(guān)鍵的一環(huán)。在人工智能技術(shù)的充分發(fā)展運(yùn)用中,如今已經(jīng)在司法方面表現(xiàn)出很多的糾紛和法律問題,比如機(jī)器人的著作權(quán)是否成立;對(duì)于人工智能技術(shù)所造成的傷害事故,怎樣判定和執(zhí)行。對(duì)于這些問題的處理和回答,都需要我們在法律方面、責(zé)任方面、權(quán)責(zé)劃分方面,給出更加深入而細(xì)致的明確,進(jìn)行更加嚴(yán)謹(jǐn)?shù)囊?guī)定。
近年來,基于人工智能技術(shù)的各種產(chǎn)品極大地提升了人類對(duì)大自然的征服能力,建立了一種新的智能生產(chǎn)模式和應(yīng)用模式,便利了人們生產(chǎn)生活,也引起了人們的擔(dān)憂。很多學(xué)者認(rèn)為,人工智能將在各個(gè)方面影響人類生活的同時(shí),在很大程度上會(huì)給現(xiàn)有的人類倫理規(guī)范帶來挑戰(zhàn)。
隨著科學(xué)技術(shù)的不斷進(jìn)步,人工智能產(chǎn)品朝著高精尖的方向突破,智能機(jī)器可以執(zhí)行的動(dòng)作更為多樣,他們可以完成的任務(wù)更加復(fù)雜。在一些場合下,智能機(jī)器就如同人一樣,可以完成很多看似匪夷所思的、不能勝任的任務(wù),讓人們感嘆技術(shù)的強(qiáng)大。比如人工智能技術(shù)可以快速而準(zhǔn)確地計(jì)算、分析,可以寫文章,可以畫畫,可以代替人們參與各種工作。在這種新的環(huán)境下,更多的人開始思考,對(duì)于人工智能到底應(yīng)該如何去看待,作為人的主體?作為一種機(jī)器或者技術(shù)?或者是缺乏思考的人?而假如我們將人工智能視為人一樣的主體,此時(shí)其從事的工作,就會(huì)涉及到背后的權(quán)利以及責(zé)任劃分問題。相反,假如人工智能技術(shù)不具備這種主體資格,那么關(guān)于責(zé)任和權(quán)益的問題將會(huì)無從談起。
在很多場合中,人工智能技術(shù)僅僅是工具的作用,無法進(jìn)行思考以及決策,所以談及責(zé)任的問題有一些不切實(shí)際。打一個(gè)并不是很貼切的比喻,個(gè)體利用刀來進(jìn)行傷害行為,或者利用刀來殺魚,此時(shí)背后需要負(fù)責(zé)的是人,并非是作為工具的刀。假如從這個(gè)角度思考,人工智能技術(shù)就不涉及到責(zé)任的問題,因?yàn)檫@是背后人的因素。但是在人工智能技術(shù)參與決策時(shí)對(duì)其責(zé)任究竟該如何判定呢?或者說,智能技術(shù)在進(jìn)行一些行為時(shí),其生產(chǎn)設(shè)計(jì)者或者執(zhí)行者,該承擔(dān)怎樣的責(zé)任?對(duì)于這一問題的回答,在不同時(shí)代不同社會(huì)可能有不同的結(jié)果。而對(duì)于這一問題的分析,我們需要基于成本收益的概念進(jìn)行考慮。舉一個(gè)十分經(jīng)典的例子:在鐵路大量使用的前后,美國社會(huì)的侵權(quán)法發(fā)生了重大變化。在使用之前,車輛遇到行人前,需要讓行,倘若出現(xiàn)交通事故,那么駕駛需要履行相應(yīng)的責(zé)任。而在列車出現(xiàn)后,此時(shí)的規(guī)則出現(xiàn)了重大變化,行人需要禮讓列車。假如打破了這個(gè)規(guī)則而出現(xiàn)了事故,那么行人自負(fù)結(jié)果。而對(duì)于這一變化也不難理解,假如作為公共交通工具的列車需要不時(shí)禮讓行人,那么將會(huì)十分低效,也難以實(shí)現(xiàn)。所以在進(jìn)行規(guī)則調(diào)整后,社會(huì)運(yùn)行的效率得以提升,也更好地維護(hù)了公眾的利益。因此,探討人工智能技術(shù)的責(zé)任問題,我們需要基于成本收益的角度而非傳統(tǒng)視角思考。
從法律方面來看,目前最為緊要的就是要明確人工智能技術(shù)的法律人格問題,也就是其是否具備完善的法律角色。運(yùn)用人工智能技術(shù)盡管給人們創(chuàng)造了諸多的便利,讓人們盡享技術(shù)帶來的福利,但是也給我們留下了傷痛的一幕幕,不得不引人深思。比如在1978年,日本廣島一家摩托車修理企業(yè)機(jī)器人毫無預(yù)兆地轉(zhuǎn)身抓住工人并造成該名工人當(dāng)場死亡,這是世界上第一宗機(jī)器人殺人事件。[1]2018年美國亞利桑那州坦佩市一名49歲女性在過馬路時(shí)被正在進(jìn)行道路測試的優(yōu)步自動(dòng)駕駛SUV撞倒而不治身亡,這是世界上首例無人駕駛車撞人致死事件。[2]無論是見諸報(bào)端的新聞事實(shí),或者是很多不為人察覺的事故,人工智能技術(shù)產(chǎn)生了和正在產(chǎn)生著方方面面的“侵權(quán)”事件。當(dāng)然,出現(xiàn)了侵權(quán)的案例必然涉及到賠償?shù)膯栴},那么在這些事件中該如何劃分責(zé)任主體呢?如今在這些問題判定上還存在不少的爭議,司法方面也有空白等待填補(bǔ)。在侵權(quán)主體的研究上,我們需要解決好人工智能技術(shù)的法律地位問題,而對(duì)于這些問題的回答,人們已經(jīng)進(jìn)行了較為深入的研究,形成了多種不同的觀點(diǎn)。代表性觀點(diǎn)為工具說、代理人說等等。
如果沒有倫理規(guī)范而任由人工智能技術(shù)發(fā)展,未來圖景可能將是機(jī)器掌控世界。機(jī)器智能超越人類智能,機(jī)器可以在無人監(jiān)督的情況下自主學(xué)習(xí)、自行決策甚至自動(dòng)升級(jí),人類的命運(yùn)因此可能在很大程度上為機(jī)器所掌握。如果機(jī)器智能在功能上超越人類智能,甚至從其心智中涌現(xiàn)出意識(shí)和自我意識(shí),那么人類是否會(huì)被機(jī)器消滅,取決于人類賦予機(jī)器智能的倫理架構(gòu)是否能在終極意義上使智能機(jī)器遵循“機(jī)器人三定律”等倫理義務(wù)或絕對(duì)的道德命令。即使機(jī)器智能在功能上超越了人類,也不可能生成意識(shí)和自我意識(shí),但卻很可能因?yàn)槿藢?duì)機(jī)器的依賴越來越強(qiáng),而將越來越多和越來越復(fù)雜的任務(wù)交給機(jī)器處理,最終越來越無力掌控維持人類社會(huì)運(yùn)轉(zhuǎn)的復(fù)雜決策和行動(dòng),而不得不逐漸將命運(yùn)在事實(shí)上完全托付給機(jī)器。[3]在此不可逆的未來情境中,即便人類覺悟到不應(yīng)該由機(jī)器掌控世界,也會(huì)因?yàn)閷?duì)機(jī)器的高度依賴而失去主導(dǎo)權(quán)和主體性。
隨著人工智能技術(shù)的充分發(fā)展以及運(yùn)用,其對(duì)于人類社會(huì)的正面影響是顯而易見的。為了使這種技術(shù)更好地造福人類,我們需要關(guān)注其引發(fā)的倫理道德問題。首先是算法問題。
算法是客觀的數(shù)學(xué)計(jì)算以及表達(dá)方式。而人類不一樣,具有明顯的偏好以及情感訴求,也更易受到外部因素的影響。算法也有類似的情況。比如圖像識(shí)別技術(shù)的使用中, 曾經(jīng)將黑人設(shè)定為“黑猩猩”,比如一些聊天軟件在開發(fā)中涉及到女性歧視或者種族歧視的問題。此外,算法的區(qū)分和使用可能形成一些負(fù)面的影響。比如將算法運(yùn)用在一些信用評(píng)估、犯罪等場合中,此時(shí)將會(huì)對(duì)相關(guān)主體的權(quán)益形成侵犯。另一個(gè)方面來看,深度學(xué)習(xí)就屬于一類“黑匣子”算法,就算是研發(fā)以及設(shè)計(jì)人員,也可能無法掌握算法將會(huì)進(jìn)行怎樣的決策?;诩夹g(shù)層面而言,對(duì)于系統(tǒng)以及程序中是否具有歧視等問題,是難以進(jìn)行明確判定的。
為什么算法難以客觀,且存在一些歧視現(xiàn)象?在很多情形中,算法決策體現(xiàn)了預(yù)測的概念,其通過數(shù)據(jù)信息來預(yù)測未來的發(fā)展方向。通過不同的算法模型以及數(shù)據(jù)信息輸入,從而明確可能發(fā)生的事情、可能形成的結(jié)果。從某種角度來看,算法根本上可以理解為 “用數(shù)學(xué)或計(jì)算機(jī)代碼表達(dá)的視圖”。其含有設(shè)計(jì)、任務(wù)以及信息使用等,此類都是研發(fā)人員自行部署設(shè)計(jì)的。在研發(fā)環(huán)節(jié)中,相關(guān)工作人員可能有意或者無意地將一些失真信息輸入到算法中。另一個(gè)角度來看,數(shù)據(jù)信息的有效性和精確性將會(huì)直接關(guān)系到算法決策效果以及最后的偏差。舉例說明,數(shù)據(jù)體現(xiàn)了社會(huì)的實(shí)際情況,訓(xùn)練數(shù)據(jù)自身存在一定的差異。通過一些訓(xùn)練的過程,此時(shí)人工智能技術(shù)將會(huì)具有一定歧視傾向。在一些案例中,數(shù)據(jù)信息可能存在偏誤或者不完整的情況。顯然,假如人工智能技術(shù)系統(tǒng)是多數(shù)的,那么必然對(duì)一定主體的利益形成侵犯。此外,具有自學(xué)習(xí)等特征的算法,在交互環(huán)節(jié)中可以得到良好運(yùn)用。在和實(shí)際場合進(jìn)行互動(dòng)時(shí),人工智能系統(tǒng)可能難以區(qū)分是否存在歧視情況。
此外,算法更強(qiáng)調(diào)進(jìn)一步區(qū)分。這說明區(qū)別、差異自身就存在于算法中。在進(jìn)行決策的過程中,可以通過歷史的信息來預(yù)測未來。因此將錯(cuò)誤的輸入部分設(shè)定為相應(yīng)的反饋,此時(shí)形成的錯(cuò)誤問題將會(huì)更加嚴(yán)重。所以前面的區(qū)分合并在相應(yīng)的算法中會(huì)不斷得到強(qiáng)化。在最后,算法決策除了會(huì)引進(jìn)一些以往的歧視性做法,同時(shí)還會(huì)基于實(shí)際,獲得 “自我實(shí)現(xiàn)的歧視性反饋回路”,將其運(yùn)用到犯罪風(fēng)險(xiǎn)評(píng)估等各種問題場合中。最后,算法決策對(duì)于未來的想象是較為缺乏的。但是我們社會(huì)的發(fā)展,務(wù)必要得到想象力的支撐。如今以深度學(xué)習(xí)為代表的很多人工智能技術(shù),基本都是從海量的數(shù)據(jù)信息中進(jìn)行學(xué)習(xí),很多算法的運(yùn)行也離不開數(shù)據(jù)信息。伴隨著各種信息技術(shù)的使用,智能技術(shù)的應(yīng)用涉及到更為嚴(yán)重的數(shù)據(jù)保護(hù)的問題。這是因?yàn)椋谏疃葘W(xué)習(xí)的環(huán)節(jié)中將會(huì)運(yùn)用很多敏感的數(shù)據(jù)信息,此時(shí)對(duì)于隱私保護(hù)將會(huì)有一定的負(fù)作用。此外,不同系統(tǒng)以及平臺(tái)之間的數(shù)據(jù)信息交互造成信息技術(shù)持續(xù)流動(dòng),使人們更難管理、控制數(shù)據(jù)。盡管有一些技術(shù)來做改善隱私管理,比如匿名化設(shè)計(jì),但是我們?nèi)匀恍枰伎己芏鄦栴},比如技術(shù)和倫理的關(guān)系認(rèn)定。
人工智能與人的關(guān)系問題在人工智能研究之初就受到了高度重視,但是各抒己見最終并沒有明確。人工智能是人類創(chuàng)造出來的與人類具有高度相似性的智能體,這種智能體不同于人類創(chuàng)造出來的非智能機(jī)器,它具有很多曾經(jīng)被認(rèn)為僅有人類才有的能力。例如,人工智能具有非常強(qiáng)的邏輯推理能力,在很多情形下能夠代替人類做出決策。人工智能也能夠?qū)Ω鞣N機(jī)器進(jìn)行自如的操控;人工智能還能夠理解人類的自然語言,并做出類似于人類的響應(yīng)。這些特征給人工智能與人類關(guān)系問題帶來了倫理挑戰(zhàn),如人工智能的身份問題、情感問題、命令與服務(wù)問題等。程素梅、張帆等人指出:“網(wǎng)絡(luò)數(shù)據(jù)被轉(zhuǎn)移和操控,智能機(jī)器人被使用,自媒體的廣泛宣傳效應(yīng)……這說明無論是在個(gè)人層面、社會(huì)層面還是國家層面,都打開了有關(guān)隱私和匿名議題的潘多拉魔盒。物聯(lián)網(wǎng)創(chuàng)造了把人、物和自然界聯(lián)系起來的網(wǎng)絡(luò),也引發(fā)了一系列亟待解決的倫理問題、社會(huì)問題甚至法律問題。技術(shù)上的可能性不意味著倫理上的必然性,哲學(xué)上的反思和預(yù)見會(huì)讓人工智能的發(fā)展少走很多彎路?!盵4]81
依照目前人類社會(huì)的科技水平和社會(huì)發(fā)展趨勢,我們的社會(huì)離不開人工智能技術(shù),很多領(lǐng)域都需要人工智能技術(shù)的充分發(fā)展,包括一些領(lǐng)域也呼喚著人工智能產(chǎn)品能夠代替人類完成精確而高難度的工作,這樣可以規(guī)避我們的一些倫理問題。比如2011年3月11日的日本9.0級(jí)地震海嘯引發(fā)了福島核泄漏事件,如果人類能夠在案發(fā)第一時(shí)間進(jìn)入一號(hào)發(fā)電站的災(zāi)難現(xiàn)場,關(guān)閉1號(hào)機(jī)組的運(yùn)行電源,就可以在很大程度上降低這場災(zāi)害的嚴(yán)重性。但是由于強(qiáng)大的核輻射人類無法完成這個(gè)任務(wù)。這個(gè)時(shí)候,如果有能夠完成這項(xiàng)任務(wù)的機(jī)器人存在,就不用人類去冒被嚴(yán)重輻射的風(fēng)險(xiǎn),也不用承擔(dān)犧牲生命乃至家庭的倫理壓力。
那么怎樣更好地協(xié)調(diào)人工智能技術(shù)和倫理之間矛盾呢?其實(shí)最為重要的一點(diǎn)是不能把人工智能技術(shù)和倫理割裂開來,要把二者作為一個(gè)整體,在倫理標(biāo)準(zhǔn)之下去推動(dòng)人工智能技術(shù)的發(fā)展,在人工智能的發(fā)展中去完善倫理。
首先,對(duì)算法設(shè)計(jì)要有嚴(yán)格的倫理標(biāo)準(zhǔn)和嚴(yán)格的監(jiān)管制度,避免執(zhí)行過程中引發(fā)道德問題。這里涉及到的監(jiān)管,人們提出算法需要更加公開和透明,注重共享。道德理解不能通過計(jì)算來建模,“我們近切需要反思人工智能及算法嵌入的偏見,以改善人工智能及算法決策的公平性;我們也需要考慮要由誰為可能發(fā)生的人工智能及算法決策嵌入的偏見負(fù)上道德責(zé)任?!盵4]190-191實(shí)際上,通過這樣的部署和設(shè)計(jì),并不能取得良好的效果。一方面,如今的很多算法設(shè)計(jì)都較為復(fù)雜,難以理解,所以其開放和透明依然無法被人們認(rèn)識(shí)。所以想要通過一般大眾對(duì)算法進(jìn)行監(jiān)管,幾乎是天方夜譚。另一方面,如今的算法屬于關(guān)鍵競爭力構(gòu)成部分,所以要求開放和透明是不合理的,也會(huì)影響到企業(yè)等組織的權(quán)益實(shí)現(xiàn)。對(duì)于生產(chǎn)者、設(shè)計(jì)者設(shè)計(jì)生產(chǎn)均無問題,銷售者、使用者也無任何過錯(cuò)的行為,如果智能設(shè)備自身出現(xiàn)問題,此時(shí)假如繼續(xù)沿用 “技術(shù)中立”的準(zhǔn)則,那么對(duì)于利益受損者而言是不公平的,也不利于維護(hù)社會(huì)的穩(wěn)定。在這一問題上,歐洲國家的一些立法給我們帶來了積極的參考。歐洲國家在其立法體系中,為了更好地轉(zhuǎn)移生產(chǎn)者的賠償負(fù)擔(dān),從國家財(cái)政、生產(chǎn)者以及社會(huì)組織等多個(gè)層面出發(fā),歐州國家創(chuàng)建相應(yīng)的基金。[5]不過這種方法也有不足。在生產(chǎn)設(shè)計(jì)者并無過錯(cuò)的情況下,其賠償責(zé)任將會(huì)無從談起。而強(qiáng)制保險(xiǎn)或賠償基金就是為了防止這種意外事件或一些不可抗力因素,保障相關(guān)主體的權(quán)益。不過,這些資金不應(yīng)僅來源于上列的幾個(gè)主體的,銷售方以及使用方也需要承擔(dān)相應(yīng)的責(zé)任。結(jié)合危險(xiǎn)性開啟理論,銷售者或者是使用者需要面臨相應(yīng)的責(zé)任。
其次,為了使人工智能與人類價(jià)值觀兼容,我們可以嘗試設(shè)計(jì)和遵守以下三項(xiàng)原則:一是利他主義,即人工智能的唯一目標(biāo)是實(shí)現(xiàn)人類價(jià)值的最大化;二是不確定性,即人工智能一開始不確定人類價(jià)值是什么,只有通過不斷地學(xué)習(xí),才能對(duì)人類的價(jià)值做出判斷;三是考慮人類的行為,并根據(jù)人類的行為,對(duì)人類的價(jià)值做出評(píng)估與判斷,即人類行為提供了關(guān)于人類價(jià)值的信息,從而幫助機(jī)器人確定什么是人類所希望的價(jià)值。問題的關(guān)鍵是第三項(xiàng)原則,即機(jī)器如何根據(jù)人類提供的信息確定其目標(biāo),從而實(shí)現(xiàn)第一項(xiàng)原則。
第三,我們需要明確并深刻理解,技術(shù)的發(fā)展必然是為社會(huì)的長遠(yuǎn)進(jìn)步而服務(wù)的,不要抵制科技的進(jìn)步。在經(jīng)濟(jì)學(xué)層面上,規(guī)制理論有歷史和現(xiàn)實(shí)的差異。傳統(tǒng)的觀點(diǎn)認(rèn)為過去的規(guī)制需要在完全信息的情形下進(jìn)行,對(duì)于相關(guān)活動(dòng)行為保持直接干預(yù)。不過在當(dāng)今的條件下,我們往往不需要直接干預(yù),而是需要基于一定的限制條件間接對(duì)人們的行為進(jìn)行管理。舉個(gè)容易理解的例子:比如家里電燈壞了請(qǐng)人幫忙換燈泡,房主在旁邊保持觀察,便于出現(xiàn)錯(cuò)誤行為時(shí)就進(jìn)行調(diào)整。但是如此一來,一個(gè)人安裝一個(gè)人監(jiān)督,等于付出了兩個(gè)人的人力——這就體現(xiàn)了舊規(guī)制主義的邏輯,其需要付出很高的成本,還不利于提高效率。還有一種邏輯思路是,給與安裝燈泡的人更多的自由,告訴對(duì)方無論過程如何,最后一定要換好,否則將會(huì)追究對(duì)方的責(zé)任。此時(shí),安裝燈泡的人和房主之間是相同的立場,都有相同的目標(biāo),此時(shí)就發(fā)揮了懲罰機(jī)制的作用。監(jiān)管算法在某種程度上就和換燈泡故事相似。人工智能并不知道人怎樣進(jìn)行決策和思考,但是可以設(shè)定合理的激勵(lì)機(jī)制,對(duì)其進(jìn)行引導(dǎo),讓其行為和人們的需求保持一致。其實(shí),人的思維和決策也屬于算法,不過其更加復(fù)雜,更具有主觀性而已。所以,人工智能技術(shù)好比我們所熟悉的“理性人”的概念。既然新規(guī)制理論的方法對(duì)人都能管用,那么它對(duì)技術(shù)也會(huì)具有相應(yīng)的效果。
技術(shù)自身是中立的,不過人工智能技術(shù)運(yùn)用將會(huì)運(yùn)用因?yàn)楸澈笾黧w的立場和訴求,從而表現(xiàn)出一定的偏向性。在人工智能技術(shù)設(shè)計(jì)思想和倫理觀存在矛盾沖突時(shí),就出現(xiàn)了相應(yīng)的應(yīng)用倫理問題。人工智能產(chǎn)業(yè)的長遠(yuǎn)穩(wěn)定發(fā)展,除了需要設(shè)定相應(yīng)的技術(shù)標(biāo)準(zhǔn),同時(shí)需要從倫理等角度進(jìn)行思考。當(dāng)下,越來越多的國家和地區(qū)關(guān)注這一問題,并作出了一些富有探索意義的努力,建立了相應(yīng)的人工智能標(biāo)準(zhǔn)體系。盡管社會(huì)的進(jìn)步離不開技術(shù)的支撐,不過技術(shù)并非是十全十美的,也難以化解各種社會(huì)問題。人工智能技術(shù)的發(fā)展,也衍生了一些問題。假如人工智能技術(shù)的大量運(yùn)用,對(duì)于人們的自由、全面發(fā)展以及社會(huì)秩序帶來負(fù)面影響,甚至讓原有的社會(huì)陷入一片混亂,此時(shí)我們使用新技術(shù)的目的是什么?技術(shù)的發(fā)展應(yīng)為社會(huì)的長遠(yuǎn)進(jìn)步服務(wù),并非是一時(shí)的利益或者便利。假如技術(shù)的開發(fā)運(yùn)用,逐漸將人們引向異化,那么人自身的發(fā)展就會(huì)面臨嚴(yán)重的自我否定。這樣的技術(shù)發(fā)展也是沒有意義,缺乏生命力的。在未來,人工智能技術(shù)領(lǐng)域?qū)?huì)迎來新的創(chuàng)新與發(fā)展。“人工智能的倫理”作為一種全新的概念,需要得到更為完善的發(fā)展,需要給與更多的引導(dǎo)和規(guī)范,需要人們對(duì)此高度關(guān)注?;趥惱韺?shí)踐的角度思考,考慮到倫理原則規(guī)范體系的抽象性,往往難以通過一般規(guī)范或者簡單的代碼設(shè)計(jì)來處理。在人工智能倫理研究的四種進(jìn)路中,惟有從面向應(yīng)用場景的描述性研究入手,做好主體責(zé)任的劃分與權(quán)利的維護(hù)問題,才能促進(jìn)人工智能技術(shù)的健康運(yùn)用以及長遠(yuǎn)發(fā)展??傊?,我們需要立足于作為“有限自主與交互智能體”的人工智能和機(jī)器人的現(xiàn)狀與發(fā)展,同時(shí)重視人機(jī)交互問題,基于“心理-倫理-社會(huì)”的分析思路,把握各種智能體在其應(yīng)用的現(xiàn)實(shí)和虛擬場景中呈現(xiàn)出的具體的自主性和交互性特質(zhì),進(jìn)而在具體的場景中更好地進(jìn)行規(guī)范和設(shè)計(jì),賦予其在價(jià)值以及倫理方面的更多正當(dāng)性。這樣,才能有利于在動(dòng)態(tài)的、未來的場景中達(dá)成倫理共識(shí)。
湖北第二師范學(xué)院學(xué)報(bào)2021年12期