吳愷
〔摘要〕 隨著當(dāng)代技術(shù)領(lǐng)域的革新和進(jìn)步,人工智能技術(shù)的相關(guān)倫理問題日益凸顯。目前,人工智能技術(shù)發(fā)展中的倫理問題存在人工智能的“權(quán)利”、人工智能事故的責(zé)任認(rèn)定、人工智能的道德地位等方面的問題。為此,應(yīng)加強(qiáng)人工智能技術(shù)的國際交流與合作,在人工智能技術(shù)中融入更多哲學(xué)和倫理學(xué)的思考,以生態(tài)價(jià)值觀推動人工智能技術(shù)的發(fā)展,增強(qiáng)科學(xué)家的道德責(zé)任感,積極構(gòu)建有關(guān)人工智能技術(shù)的法律規(guī)范。
〔關(guān)鍵詞〕 人工智能技術(shù);倫理道德;生態(tài)價(jià)值觀;法律法規(guī)
〔中圖分類號〕TP18 ? 〔文獻(xiàn)標(biāo)識碼〕A 〔文章編號〕1009-1203(2019)03-0065-04
作為計(jì)算機(jī)科學(xué)分支的人工智能,是研發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法及其應(yīng)用的一門新興技術(shù)科學(xué)。人工智能通過解析人類智能的本質(zhì),力圖研制出一種能以與人類智能相似的方式作出反應(yīng)的智能機(jī)器,該領(lǐng)域的研發(fā)包括機(jī)器人、語言模擬、圖像識別、自然語言處理和專家系統(tǒng)等 〔1 〕。隨著現(xiàn)代科學(xué)技術(shù)的蓬勃發(fā)展,人工智能已經(jīng)逐漸滲透到了人類工作和生活的方方面面,與人工智能相關(guān)的倫理問題也日益凸顯。人工智能技術(shù)發(fā)展中倫理問題的發(fā)現(xiàn)和解決,勢必促進(jìn)人工智能技術(shù)的健康發(fā)展,使其更好地為經(jīng)濟(jì)社會發(fā)展和人民美好生活服務(wù)。
一、人工智能技術(shù)的發(fā)展歷程
人工智能技術(shù)是一門綜合性很強(qiáng)的學(xué)科,再加上心理學(xué)、生理學(xué)、數(shù)學(xué)、哲學(xué)等對其的貢獻(xiàn),各種關(guān)于人工智能的新思想、新理論、新技術(shù)層出不窮 〔2 〕。人工智能技術(shù)經(jīng)過幾十年的發(fā)展,對人類社會的影響與日俱增,其應(yīng)用領(lǐng)域也越來越廣泛,如今,人工智能技術(shù)已經(jīng)用于軍事、安保、圖像識別、無人駕駛、股票分析、太空船航行、生物控制等眾多領(lǐng)域。
早在古希臘時(shí)期,亞里士多德就開始了對人類思維規(guī)律的研究。近代,英國科學(xué)家喬治·布爾創(chuàng)立了邏輯代數(shù),英國數(shù)學(xué)家巴貝奇致力于差分機(jī)和分析機(jī)的研究,英國數(shù)學(xué)家圖靈提出了理想計(jì)算機(jī)模型,并創(chuàng)立了自動機(jī)理論,這些早期的研究為現(xiàn)代人工智能的出現(xiàn)奠定了理論基礎(chǔ)。在1963年后,人工智能技術(shù)的發(fā)展進(jìn)入了新的階段,人類在自然語言通訊方面取得突破性進(jìn)展,人工智能的目標(biāo)主要在于如何讓計(jì)算機(jī)理解自然語言、準(zhǔn)確回答問題、自動分析圖像或圖形等。20世紀(jì)70年代出現(xiàn)了專家系統(tǒng),可以模擬人類專家的知識和經(jīng)驗(yàn)來解決特定問題,這促進(jìn)了人工智能從理論研究走向?qū)嶋H應(yīng)用的突破。20世紀(jì)80年代,專家系統(tǒng)在醫(yī)療、化學(xué)、地質(zhì)等領(lǐng)域取得了一系列成功,使人工智能在應(yīng)用方面達(dá)到了一個(gè)高峰。20世紀(jì)90年代之后,由于互聯(lián)網(wǎng)技術(shù)的發(fā)展,讓人工智能技術(shù)進(jìn)一步走向?qū)嵱没?997年5月,IBM公司研制的“深藍(lán)”成為戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫的第一個(gè)計(jì)算機(jī)系統(tǒng)。2016年3月,阿爾法圍棋與圍棋世界冠軍、職業(yè)九段棋手李世石進(jìn)行圍棋人機(jī)大戰(zhàn),以4比1的總比分獲勝。這標(biāo)志著人工智能系統(tǒng)在某些領(lǐng)域可以達(dá)到人類的最高水平。2017年10月,在沙特阿拉伯利雅得舉行的“未來投資倡議”大會上,機(jī)器人“索菲亞”被授予沙特公民身份,成為全球首個(gè)獲得公民身份的機(jī)器人。2018年11月22日,在“偉大的變革——慶祝改革開放40周年大型展覽”上,第三代國產(chǎn)骨科手術(shù)機(jī)器人“天璣”進(jìn)行了模擬手術(shù)的展示。這眾多成就的取得,對人工智能的研究起到了巨大推動作用,也促使世界各國大力關(guān)注人工智能技術(shù)的倫理問題。
二、當(dāng)代人工智能技術(shù)發(fā)展中遇到的倫理問題
隨著社會的不斷發(fā)展,各行各業(yè)的分工越來越精細(xì),尤其是在現(xiàn)代生產(chǎn)中,各種職業(yè)病層出不窮,于是人們強(qiáng)烈希望用某種機(jī)器去代替自己工作,因此人們研制出了人工智能機(jī)器人,用來代替人類去完成那些單調(diào)、枯燥或危險(xiǎn)的工作。雖然用人工智能代替人類去完成部分工作解決了某些人類不易完成的問題,并在很大程度上提高了工作效率,但人工智能的問世,必然會使一部分人失去原來的工作,出現(xiàn)“人工智能上崗,人將下崗”的情況,從而有意無意地剝奪了人們勞動和就業(yè)的權(quán)利,出現(xiàn)人類與人工智能在就業(yè)上的沖突。此外,隨著生命技術(shù)、信息技術(shù)、納米技術(shù)等新領(lǐng)域的發(fā)展,人類與人工智能之間的結(jié)合越來越緊密,將來我們有可能生活在一個(gè)充滿各種“混合人”的世界里,比如會出現(xiàn)“人與動物的結(jié)合體”“人與機(jī)器的結(jié)合體”等 〔3 〕??梢?,對人工智能倫理問題的思考終將成為人類不可回避的問題。具體來說,人工智能發(fā)展可能導(dǎo)致的倫理問題包括如下方面:
第一,人工智能的“權(quán)利”問題。在人工智能技術(shù)快速發(fā)展的背景下,各種“智能生命”陸續(xù)問世,使得人類的人權(quán)受到了前所未有的挑戰(zhàn)。隨著人工智能應(yīng)用領(lǐng)域的廣泛,以往只是從事簡單體力勞動的智能機(jī)器人具有了不同程度的感知能力及“人性”,機(jī)器人代替人類工作已不再是神話。這一方面給人類生活帶來了便利和福音,但另一方面也使得越來越尖銳的人權(quán)倫理問題擺在了人類面前,如人工智能是否會危害人類的生命和健康、侵犯人類的尊嚴(yán)和隱私、破壞人類的自由等?,F(xiàn)在人工智能的表情和行為是通過內(nèi)部軟件來控制的,通過相關(guān)程序的設(shè)定,可以使人工智能具有人的某些特性。從某些方面的能力來看,如記憶、運(yùn)算等,由電腦武裝起來的人工智能已遠(yuǎn)遠(yuǎn)超過了人類。隨著人類與人工智能的交集越來越大,我們是否應(yīng)該給人工智能以等同于人類的“權(quán)利”?有反對者認(rèn)為:我們不需要太強(qiáng)大的人工智能機(jī)器人,也不能給它任何“權(quán)利”;讓人工智能擁有“人權(quán)”,就違背了“人工智能機(jī)器人三大法則”,就是放棄人類對人工智能的管控,這將間接危害到人類。而贊成者認(rèn)為:如果人工智能機(jī)器人有“道德良知”,能與人類互動,他們就應(yīng)該享有一定程度的權(quán)利。
第二,人工智能事故的責(zé)任認(rèn)定問題。當(dāng)今,人工智能技術(shù)發(fā)生了翻天覆地的變化,且正以驚人的速度向服務(wù)業(yè)、娛樂業(yè)、軍事、農(nóng)業(yè)、教育等領(lǐng)域擴(kuò)展。人工智能產(chǎn)品在給人類帶來幫助的同時(shí)也讓人非常糾結(jié),因?yàn)槟承┤斯ぶ悄苡袑W(xué)習(xí)的功能,能“自學(xué)成才”。也就是說,一段時(shí)間之后,它會像人一樣,根據(jù)自己的所“見”所“想”自作主張。與此同時(shí),用于規(guī)范人工智能相關(guān)行為的規(guī)則遠(yuǎn)遠(yuǎn)沒有跟上,這使得人工智能技術(shù)的責(zé)任倫理問題越來越明顯,其爭論的焦點(diǎn)在于由誰來負(fù)責(zé)人工智能技術(shù)所引發(fā)事故的責(zé)任。于是,對人工智能可能帶來的各種后果,人們產(chǎn)生了極大的恐慌和擔(dān)憂。例如,隨著人工智能替代了更多人力勞動后,誰來負(fù)責(zé)不斷加劇的失業(yè)率;醫(yī)療行業(yè)用于診斷的專家系統(tǒng)如果出現(xiàn)失誤,所導(dǎo)致的醫(yī)療事故由誰來負(fù)責(zé);股市預(yù)測系統(tǒng)給股民帶來的損失由誰來賠償,等等 〔4 〕。再比如,如果出現(xiàn)機(jī)器傷害人類的事故,是機(jī)器的責(zé)任還是其設(shè)計(jì)者和使用者的責(zé)任?因此,不管是人工智能技術(shù)相關(guān)領(lǐng)域的政策制定者、科研人員,還是人工智能技術(shù)的使用者,都應(yīng)擔(dān)負(fù)起相應(yīng)的倫理責(zé)任?,F(xiàn)代技術(shù)的突飛猛進(jìn),要求我們更深入地關(guān)心人類的前途和命運(yùn),不能隨意將技術(shù)的進(jìn)步作為人類和自然界相互較量的“賭注”。
第三,人工智能的道德地位問題。一種事物如果擁有道德地位,人類就應(yīng)對其承擔(dān)相應(yīng)的倫理義務(wù)。如果我們否定智能機(jī)器人的道德地位和社會身份,我們就可以用任何自己喜歡的方式來對待它,而沒有仁慈或殘酷的區(qū)別。但事實(shí)上,不顧及人工智能的道德地位而為所欲為,就會與我們的傳統(tǒng)倫理相違背。當(dāng)前機(jī)器人的“人格化”是一個(gè)大的發(fā)展趨勢,家用服務(wù)型機(jī)器人除了能替人們完成一些枯燥的工作外,還能進(jìn)行復(fù)雜的有交互性質(zhì)的行為,如收獲果實(shí)、輔助醫(yī)療等,甚至還可以在一定程度上滿足人類的情感需要。在“人形交互式機(jī)器人”這個(gè)新興領(lǐng)域,還逐漸實(shí)現(xiàn)了情感交流、言語感知、知識學(xué)習(xí)等新功能。如果人們對具備“情感”的人工智能機(jī)器人任意指使、傳喚、謾罵、毆打,就明顯違背了人類公認(rèn)的道德標(biāo)準(zhǔn)。
三、當(dāng)代人工智能技術(shù)倫理問題之成因
人類研發(fā)人工智能的初衷是讓人工智更好地服務(wù)人類社會,為人類生活帶來便利,但當(dāng)人類越來越依賴人工智能的時(shí)候,我們必須正視人工智能可能帶來的威脅。其中人工智能技術(shù)帶來的倫理問題不僅真實(shí)存在,而且也必將會愈發(fā)突出。通過對人工智能所引發(fā)的倫理問題的分析,我們可以從以下幾個(gè)方面來探討人工智能倫理問題的成因:
第一,技術(shù)上的局限性。目前,人工智能技術(shù)已經(jīng)應(yīng)用于各行各業(yè),大到軍事武器、航空航天,小到家用電器、兒童玩具等。人工智能技術(shù)的發(fā)展給人類帶來了巨大的便利,其未來前景可觀且潛力無限。但當(dāng)前人工智能在技術(shù)上存在的不足導(dǎo)致了很多倫理上的問題,這些倫理問題成為了人工智能技術(shù)發(fā)展道路上的“攔路虎”。例如,目前的戰(zhàn)爭機(jī)器人還無法準(zhǔn)確區(qū)分平民和戰(zhàn)斗人員,也無法分辨出哪些人是傷兵,或者哪些建筑是符合戰(zhàn)爭法中規(guī)定的可打擊目標(biāo),他們只是按照人類既定程序去執(zhí)行命令,沒有人類判斷力和識別力的戰(zhàn)爭機(jī)器人無法判斷“命令”的對錯(cuò),也無法停止執(zhí)行錯(cuò)誤的“命令”。如果使用者濫用各種“命令”,其后果將不堪設(shè)想。因此人工智能技術(shù)自身的局限性帶來了倫理問題。
第二,倫理規(guī)制的缺乏。當(dāng)今,與人工智能相關(guān)的現(xiàn)有倫理規(guī)制已遠(yuǎn)遠(yuǎn)落后于人工智能技術(shù)發(fā)展速度,而人們對人工智能技術(shù)倫理規(guī)制的重視不足,導(dǎo)致新的人工智能倫理規(guī)制制定進(jìn)展緩慢,人工智能技術(shù)相關(guān)倫理規(guī)制的缺失造成大量倫理問題的產(chǎn)生。例如,當(dāng)我們的某些情緒找不到人發(fā)泄時(shí),就可以向“智能聊天機(jī)器人”宣泄;但如果長時(shí)間與“智能聊天機(jī)器人”進(jìn)行溝通,將不可避免地會對“智能聊天機(jī)器人”產(chǎn)生情感上的依賴,這容易引發(fā)心理疾病或其他不良后果。但是,今天還沒有任何規(guī)范人與“智能聊天機(jī)器人”交往的倫理道德規(guī)范,這一問題已引起了越來越多學(xué)者的關(guān)注。
第三,政策法規(guī)的滯后與不完善。隨著人們對人工智能研究的深入,關(guān)于人工智能技術(shù)的倫理道德原則也逐漸引起人們的關(guān)注。關(guān)于人工智能的規(guī)范,在人工智能發(fā)展的早期,美國科幻作家阿西莫夫就曾給出了著名的“機(jī)器人學(xué)三定律”:一是機(jī)器人不得傷害人類,也不得見人受到傷害而袖手旁觀;二是機(jī)器人必須服從人的命令;三是機(jī)器人必須保護(hù)自己,但不得違反第一、第二條定律 〔5 〕。2005年,歐洲人工智能領(lǐng)域的頂尖專家共同成立了“機(jī)器人倫理學(xué)研究室”,主要致力于為人工智能技術(shù)的研發(fā)制定合理的倫理原則。2007年,韓國政府出臺了“機(jī)器人憲章”,旨在對機(jī)器人的設(shè)計(jì)、生產(chǎn)和應(yīng)用給予指導(dǎo)。同年,日本千葉大學(xué)也制定了關(guān)于智能機(jī)器人研究的規(guī)定——“千葉大學(xué)機(jī)器人憲章”,強(qiáng)調(diào)人工智能研發(fā)的初衷是保護(hù)人類、服務(wù)人類,為人類創(chuàng)造和平的發(fā)展環(huán)境。2017年9月,聯(lián)合國“犯罪和司法研究所”決定在海牙成立第一個(gè)聯(lián)合國人工智能和機(jī)器人中心,以規(guī)范人工智能技術(shù)的發(fā)展。當(dāng)然,這些規(guī)范雖然很明確,但無法適應(yīng)復(fù)雜的人工智能活動。人工智能技術(shù)作為一種新興技術(shù),其發(fā)展時(shí)間還不長,與其相關(guān)的人權(quán)、環(huán)境、責(zé)任等倫理問題基本都超出了現(xiàn)有法律的范圍。這些倫理問題的出現(xiàn),目前只能借助科學(xué)家的道德素養(yǎng)和社會輿論的監(jiān)督來規(guī)范和約束,很難利用法律途徑對其有效解決。因此,關(guān)于人工智能技術(shù)領(lǐng)域的相關(guān)法律法規(guī)還需要不斷進(jìn)行補(bǔ)充和完善。
四、人工智能技術(shù)倫理問題的解決對策
通過對人工智能技術(shù)倫理問題成因的分析,我們可以從技術(shù)、道德法律、人類自身等層面采取相應(yīng)的應(yīng)對策略,來解決這些倫理問題,使人工智能技術(shù)更好地造福于人類。具體來講,應(yīng)做到以下幾點(diǎn):
第一,加強(qiáng)人工智能技術(shù)的國際交流與合作?,F(xiàn)在人工智能逐漸得到了世界各個(gè)國家的重視,與空間技術(shù)、能源技術(shù)并稱為世界三大尖端技術(shù)。人工智能技術(shù)屬于一個(gè)正在發(fā)展并有極大提升空間的新技術(shù),它還存在很多技術(shù)方面的不足。通過國際間的合作與交流,人工智能技術(shù)提升的空間會更大,其解決問題的能力也會更強(qiáng)大。如果各國能加強(qiáng)人工智能技術(shù)的交流與合作,人工智能技術(shù)的發(fā)展必將迎來新的突破。對人工智能技術(shù)領(lǐng)域的管理,也要加強(qiáng)國際間的合作,要堅(jiān)決反對違反國際條例的人工智能科研計(jì)劃,并按照相關(guān)法律法規(guī)和國際慣例對人工智能技術(shù)進(jìn)行嚴(yán)格管理 〔6 〕。
第二,在人工智能技術(shù)中融入更多哲學(xué)和倫理學(xué)的思考。盡管目前關(guān)于人工智能技術(shù)的哲學(xué)思考比較豐富,但幾乎都只是建立在純學(xué)術(shù)領(lǐng)域,且更多是對人工智能的現(xiàn)象進(jìn)行思辨,這對解決人工智能技術(shù)的倫理問題沒有太多實(shí)質(zhì)性幫助。因?yàn)槿斯ぶ悄艿难邪l(fā)和實(shí)施人員優(yōu)先考慮的是科技的合理性、高效性和經(jīng)濟(jì)性,很少注重構(gòu)建相應(yīng)的倫理體系,這往往導(dǎo)致技術(shù)預(yù)測不到位,對人工智能發(fā)展的很多后果都預(yù)測不到。相比于社會大眾來說,人工智能研發(fā)和實(shí)施人員對人工智能技術(shù)可能存在的危害會更清楚。如果他們在研發(fā)人工智能技術(shù)時(shí),能像哲學(xué)家那樣對人的情感、人的認(rèn)知、社會倫理等方面有更周全的考慮,就能避免很多倫理困境。只有加強(qiáng)人工智能技術(shù)領(lǐng)域研發(fā)、實(shí)施人員與哲學(xué)家之間的交流與合作,將更多哲學(xué)思考融入人工智能技術(shù),才能使人工智能技術(shù)更人性化、生態(tài)化、和諧化,并有助于各種人工智能技術(shù)倫理問題之解決。
第三,以生態(tài)價(jià)值觀推動人工智能技術(shù)的發(fā)展。對生態(tài)價(jià)值觀的踐行,有助于人們正確認(rèn)識技術(shù)實(shí)踐的雙重效應(yīng),矯正技術(shù)理性的片面發(fā)展,化解技術(shù)發(fā)展的消極后果,推動技術(shù)實(shí)踐的綠色和生態(tài)化轉(zhuǎn)向。如何使人工智能技術(shù)更好地發(fā)展?人工智能技術(shù)將走向何方?對于任何一項(xiàng)人工智能技術(shù),必須考慮它是否破壞環(huán)境,是否對人類的身心健康有害,是否會帶來新的倫理道德問題或引起國際間的沖突。對生態(tài)價(jià)值觀的踐行,將對包括人工智能技術(shù)在內(nèi)的高新技術(shù)提出更高的要求,這對人工智能技術(shù)的發(fā)展既是一種挑戰(zhàn)也是一種機(jī)遇。對人工智能技術(shù)來說,確保其與生態(tài)價(jià)值觀相符合,不違背生態(tài)文明建設(shè)的目標(biāo),將是未來發(fā)展的一種方向。
第四,增強(qiáng)科學(xué)家的道德責(zé)任感。愛因斯坦曾指出,怎樣使用科學(xué)技術(shù),究竟是給人類帶來幸福還是帶來災(zāi)難,全取決于人自己,而不取決于工具本身 〔7 〕。人工智能技術(shù)產(chǎn)生的一些倫理問題往往是由于科學(xué)家缺乏道德義務(wù)和道德責(zé)任。有些科學(xué)家將自己封閉于單純開發(fā)技術(shù)的狹隘空間,對社會道德責(zé)任處于無意識的狀態(tài),這導(dǎo)致他們很容易被某些別有用心的政治家利用,使他們自己及他們擅長的技術(shù)成為這些政治家的工具。因此,提高科學(xué)家的道德責(zé)任感十分必要。一方面,科學(xué)家應(yīng)以辯證的態(tài)度開展自己的工作,能夠清晰認(rèn)識到人工智能技術(shù)既能造福人類,也能毀滅人類。另一方面,科學(xué)家應(yīng)該有長遠(yuǎn)的眼光,不要為短暫的私利而開發(fā)出不符合人類道德的產(chǎn)品,而應(yīng)該以仁愛、和諧、生態(tài)、可持續(xù)等積極理念去開發(fā)造福于人類的技術(shù)。當(dāng)人工智能科學(xué)家的道德素養(yǎng)達(dá)到足夠高的境界時(shí),他們會自動擺正人工智能技術(shù)發(fā)展的方向盤,將人工智能帶向更美好的明天。
第五,積極構(gòu)建有關(guān)人工智能技術(shù)的法律規(guī)范。俗話說,“沒有規(guī)矩,不成方圓”,目前針對人工智能技術(shù)的相關(guān)立法,如數(shù)字安全法、個(gè)人信息保護(hù)法等,我國已經(jīng)有了初步的規(guī)劃,但規(guī)范人工智能技術(shù)發(fā)展的正式立法還未出臺。只有正式立法才能構(gòu)建人工智能技術(shù)發(fā)展的剛性原則,并將其落實(shí)到人工智能技術(shù)新產(chǎn)品生產(chǎn)的各個(gè)環(huán)節(jié)中。鑒于人工智能技術(shù)的發(fā)展給人類帶來的諸多隱患,我國應(yīng)積極關(guān)注國外已經(jīng)出現(xiàn)、國內(nèi)尚未出現(xiàn)的人工智能技術(shù)倫理問題,并盡早出臺有關(guān)人工智能技術(shù)的法律法規(guī)。此外,人工智能技術(shù)倫理問題也應(yīng)得到國際社會的高度重視,并早日制定一部通用性國際法律,以引導(dǎo)人工智能技術(shù)的發(fā)展。在此基礎(chǔ)上,以這部通用法律為指導(dǎo),各個(gè)國家可以制定與本國國情相符的人工智能技術(shù)相關(guān)法律法規(guī),并對其嚴(yán)格執(zhí)行,這將使人工智能技術(shù)的發(fā)展之路充滿光明。
總之,人工智能技術(shù)的發(fā)展是當(dāng)今社會發(fā)展的必然趨勢。正如習(xí)近平總書記在十九屆第九次中央政治局集體學(xué)習(xí)時(shí)所指出的:“人工智能是引領(lǐng)這一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),具有溢出帶動性很強(qiáng)的‘頭雁效應(yīng)?!?〔8 〕雖然當(dāng)代人工智能的發(fā)展引發(fā)了不少倫理問題,但只要我們堅(jiān)持以人為本,把握好其發(fā)展尺度,確定好其發(fā)展原則,就必將使人工智能真正服務(wù)于人類的幸福安康。
〔參 考 文 獻(xiàn)〕
〔1〕陳立鵬.人工智能引發(fā)的科學(xué)技術(shù)倫理問題〔J〕.文學(xué)教育,2012(08):130.
〔2〕譚 印.人工智能在計(jì)算機(jī)網(wǎng)絡(luò)技術(shù)中的應(yīng)用〔J〕.通訊世界,2017(06):53-54.
〔3〕張顯峰,程宇婕.情感機(jī)器人:技術(shù)與倫理的雙重困境〔N〕.科技日報(bào),2009-04-21(05).
〔4〕陳 靜.科技與倫理走向融合——論人工智能技術(shù)的人文化〔J〕.學(xué)術(shù)界,2017(09):102-111.
〔5〕易重華,魯再書.對機(jī)器人恐慌的哲學(xué)根源和消解〔J〕.勞動保障世界,2016(17):67-68.
〔6〕張桂娟,刁生富.三元結(jié)構(gòu)社會的新問題:人與半機(jī)器人和機(jī)器人的相處之道〔J〕.未來與發(fā)展,2017(11):53-58.
〔7〕趙 博.網(wǎng)絡(luò)技術(shù)倫理的理性思考〔J〕.黑龍江史志,2010(06):57-58.
〔8〕習(xí)近平:推動我國新一代人工智能健康發(fā)展〔J〕.中國信息安全,2018(12):28-29.
責(zé)任編輯 徐 芳