• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能的“倫理邊界”與“道德超載”*

      2020-01-19 04:54:27朱曉奇劉博京
      關(guān)鍵詞:排他性倫理道德

      朱曉奇,劉博京

      (溫州醫(yī)科大學(xué)國際教育學(xué)院,浙江 溫州 325000,995237610@qq.com)

      1 人工智能的“倫理邊界”

      人工智能對(duì)于人類而言已然不是一個(gè)陌生的詞匯,隨著技術(shù)全球化的革新和產(chǎn)業(yè)發(fā)展,人工智能已經(jīng)被應(yīng)用到越來越多的領(lǐng)域中。無論是計(jì)算機(jī)科學(xué)、金融貿(mào)易、基礎(chǔ)醫(yī)療還是教育創(chuàng)新等,人工智能仿佛已經(jīng)逐漸成了人們生活之中不可或缺的重要組成部分,甚至在某些極特殊的領(lǐng)域,人工智能已經(jīng)大有取代人類自身的趨勢(shì)。但是,人工智能給人類帶來的只是“福音”嗎?在人類不斷開發(fā)、研制更為高效、便捷的人工智能設(shè)備時(shí),當(dāng)人類不斷提升對(duì)于自身和整個(gè)自然界的認(rèn)知之時(shí),當(dāng)一個(gè)又一個(gè)“不可能”的曾經(jīng)成為現(xiàn)實(shí)時(shí),或許另一種“災(zāi)難”正在逐步向人類靠攏。誠然,人類需要一定程度上實(shí)現(xiàn)對(duì)于自我的深層次認(rèn)知,通過一定的外部手段在某些層面達(dá)到對(duì)于人類極限的突破。然而,在這樣不斷往復(fù)的過程之中,誰能夠來界定人工智能的倫理邊界呢?又或者說,人工智能本身是否應(yīng)該遵從特定的“倫理”道德呢?如果答案是否定的,那么是否意味著在不遠(yuǎn)的未來作為人類智慧“外化產(chǎn)物”的人工智能,將脫離人類社會(huì)已有的準(zhǔn)則,實(shí)現(xiàn)對(duì)于自我的“認(rèn)知”?如若答案是肯定的,那么,人類又是否有資格和權(quán)利來定義“被”人類所創(chuàng)造之物“人工智能”的倫理呢?

      當(dāng)下,“人工智能”已經(jīng)被人們主觀性地賦予了過多的意義和概念,似乎只要一提起“人工智能”,浮現(xiàn)在人類面前的就是靈活的機(jī)械“手臂”,繁雜的“計(jì)算公式”,難以捉摸的“巨大”機(jī)器。任何無法通過人類自身獨(dú)立完成的操作,都成了“人工智能”需要解決的問題,精準(zhǔn)的醫(yī)學(xué)手術(shù)需要人工智能的介入;信用卡的交易需要人工智能來完成;基于大數(shù)據(jù)背景的信息需要人工智能來采集。但是,當(dāng)我們給“人工智能”自身提供這樣“工作”的平臺(tái)時(shí),實(shí)際上已經(jīng)先驗(yàn)的將人類的“預(yù)期情感”投入其中,這就使得“人工智能”需要按照人類社會(huì)的道德規(guī)范、按照人類意識(shí)來實(shí)現(xiàn)其自身的價(jià)值所在。在此過程之中,“人工智能”本身并沒有“能力”“意愿”“道德”來對(duì)其自身的活動(dòng)進(jìn)行規(guī)約,我們所言說的關(guān)于“人工智能”的一切,都被假設(shè)了一個(gè)“被動(dòng)”的前提,這就是說看似具有“主觀能動(dòng)性”的“人工智能”,實(shí)際上所展現(xiàn)和進(jìn)行的工作是“被動(dòng)”的人類情感意愿的投射,是在一定程度上“違背”人工智能主觀意愿的。而此時(shí),“人工智能”所體現(xiàn)的客觀價(jià)值,是與其能夠在有限范圍內(nèi)“實(shí)現(xiàn)”其自身倫理形式相背離的。人工智能變成了人類“認(rèn)為”的人工“智能”,其驅(qū)動(dòng)力的內(nèi)核及架構(gòu)不再具有普遍性的參照意義。如果從這個(gè)層面而言,那么所謂的“人工智能”倫理實(shí)際上不過是人類為了進(jìn)一步“滿足”人類自身的“欲望”所創(chuàng)造出的“人工智能倫理”道德體系而已,甚至在更多的時(shí)候,這種“被”創(chuàng)造的人工智能道德體系,只不過是為了在看似合理的框架之內(nèi),來突破人類社會(huì)倫理道德的禁區(qū)。

      從而,人工智能倫理變成了人類社會(huì)倫理道德陰暗面的產(chǎn)物,這種倫理上的“異化”已經(jīng)逐步深入人類社會(huì)的各個(gè)角落之中,以一種異常冷靜而理性的“眼光”,時(shí)時(shí)刻刻觀察著人類社會(huì)發(fā)展的動(dòng)態(tài)。人類被自己的創(chuàng)造物進(jìn)行著道德的評(píng)判,用“冷漠”的機(jī)械化為人類訂制“標(biāo)簽”,整個(gè)人類的倫理道德被限制在了人類自身所設(shè)置的牢籠之中,人工智能倫理正在反噬著人類社會(huì)的道德場(chǎng)域。這就使得人工智能背負(fù)了過為沉重的“使命”,在信息化時(shí)代的背后,人類成了毫無意義的“符號(hào)”,而看似不具有主觀意識(shí)理念的人工智能,卻實(shí)現(xiàn)著對(duì)于整個(gè)人類世界的“掌控”,無處不在的“人工智能”,已然開始了對(duì)于人類的“壓制”。因而,我們已經(jīng)愈加難以對(duì)“人工智能”的“善與惡”進(jìn)行評(píng)判,其所承載的已經(jīng)不僅僅是對(duì)于人類社會(huì)現(xiàn)代化的內(nèi)涵幫助,“在與人類社會(huì)倫理道德規(guī)范進(jìn)行交互的同時(shí)”[1],人工智能倫理卻發(fā)生了本不應(yīng)存在的偏斜,原本被賦予的希望和發(fā)展的內(nèi)涵,失去了其應(yīng)有的色彩,伴隨著其“沉重”前行的步伐,迷失在莫比烏斯帶中,忘記了原本美好的初衷。人工智能倫理的“存在”成了“他者”的存在,“存在”本身的意義被主觀性的祛除,客觀的現(xiàn)實(shí)轉(zhuǎn)而成了主觀世界的想象,就連我們?cè)谙碛萌斯ぶ悄芙o人類社會(huì)帶來的變革之時(shí),依舊沒有相應(yīng)的組織、機(jī)構(gòu)團(tuán)體等,有效地對(duì)“人工智能”與“人類活動(dòng)”之間進(jìn)行明顯地劃分,人工智能成了“人類先進(jìn)生產(chǎn)活動(dòng)”的代名詞。如若從這種“互文”的維度而言,人工智能倫理的邊界正處于和人類社會(huì)倫理道德“相互”包含和并行的狀態(tài)之中,進(jìn)行著自我的據(jù)囿,形成了一種特定狀態(tài)下的“克萊因瓶”。

      2 人工智能倫理的“道德超載”

      盡管人工智能倫理和人類社會(huì)倫理兩者之間處于一種相對(duì)“動(dòng)態(tài)平衡”的現(xiàn)狀,但是這種表面的“平衡”所隱藏的正是目前人工智能領(lǐng)域的“道德超載”現(xiàn)象,人類變得“不被信任”,人工智能才能夠體現(xiàn)“絕對(duì)”的公平公正。當(dāng)然,我們大可將一些不必要的人類社會(huì)因素排除在外,較為客觀的對(duì)社會(huì)現(xiàn)狀進(jìn)行陳述,從而更為直觀地展現(xiàn)新科技時(shí)代背景下,人工智能所造成的“道德超載”問題。

      就醫(yī)療領(lǐng)域而言,責(zé)任意識(shí)、互通平臺(tái)、信息處理、安全保護(hù)等,都是擺在“人工智能”面前亟須解決的重要問題,我們一次又一次的強(qiáng)調(diào)這些問題的重要性,卻又再一次又一次慘痛教訓(xùn)之后痛定思痛[2]。當(dāng)下,隨著5G時(shí)代的來臨,信息技術(shù)在醫(yī)療領(lǐng)域中的應(yīng)用范圍已經(jīng)越來越廣,人工智能更是被放置到了醫(yī)療的部分過程,甚至是全過程之中,很多精密、復(fù)雜的手術(shù)都需要在一定程度上借助人工智能的輔助,這在一定意義上極大地降低了手術(shù)本身給患者帶來的風(fēng)險(xiǎn),盡管傳統(tǒng)的“望聞問切”依舊存在,但實(shí)現(xiàn)的手段和形式卻發(fā)生了重要的變化。與此同時(shí),所有的診斷結(jié)果,我們也只是需要點(diǎn)擊手機(jī)的屏幕,一切就都“躍然紙上”,如果對(duì)于診斷或化驗(yàn)結(jié)果有任何疑問,我們甚至可以在進(jìn)行復(fù)診之前,與移動(dòng)或PC端的AI進(jìn)行溝通,獲取我們認(rèn)為必要的信息。這種通過網(wǎng)絡(luò)來進(jìn)行的新型溝通方式相對(duì)于傳統(tǒng)的“望聞問切”提供了諸多的便利,不僅大大減少了傳染性疾病的傳播,更提升了診斷的效率,減少了因時(shí)間和空間阻礙所造成的困擾。但是,盡管在人工智能只是有限介入醫(yī)療過程的背景下,仍舊出現(xiàn)了諸多值得我們深思的問題,就目前的情況來看,對(duì)于醫(yī)療的全過程而言,醫(yī)生仍舊是不可或缺的主體部分,人工智能在當(dāng)下這個(gè)階段并不能夠?qū)崿F(xiàn)對(duì)于醫(yī)生的“取代”。但是,或許在不遠(yuǎn)的未來,人工智能已經(jīng)能夠“取代”經(jīng)驗(yàn)醫(yī)學(xué),實(shí)現(xiàn)對(duì)于人類疾病的診斷、醫(yī)療等。那么,此時(shí)人工智能是否需要站在人類道德制高點(diǎn)上,來實(shí)現(xiàn)對(duì)于患者的“醫(yī)療”呢?人類社會(huì)之中原本難以解決的倫理問題,是否能夠在以人工智能為主導(dǎo)的時(shí)代,得到解決呢?在傳統(tǒng)醫(yī)療體系中,需要被關(guān)懷、體貼的患者依舊能夠得到善待嗎?這一切我們都不得而知。但是,或許我們可以肯定的是,即便人工智能能夠?qū)崿F(xiàn)自我“意識(shí)”的覺醒,通過主觀經(jīng)驗(yàn)和客觀事實(shí),進(jìn)行疾病的醫(yī)療、救治,卻不能夠改變?nèi)祟愂鞘澜纭爸髟住钡默F(xiàn)實(shí),這就是說,人工智能的“自我意識(shí)”無法實(shí)現(xiàn)和人類社會(huì)價(jià)值理念之間的完全分割,人工智能仍舊是人類新型的意識(shí)“傳聲器”而已,獲得客觀性數(shù)據(jù)評(píng)價(jià)的前提,依然是人類社會(huì)的道德理念。一方面,人類認(rèn)識(shí)到人工智能的重要性;另一方面,又無法實(shí)現(xiàn)與人工智能之間“平等”有效的溝通。如果我們僅僅單純地將“人工智能”劃分為技術(shù)理性之中的外化,未免對(duì)于“人工智能”本身的“定義”有失偏頗。但是,如果我們簡(jiǎn)單地將這種人類智慧相對(duì)理性化的產(chǎn)物劃分為“人文理性”又缺乏對(duì)于當(dāng)下社會(huì)結(jié)構(gòu)清晰的認(rèn)知。因此,實(shí)際上人工智能倫理“道德超載”現(xiàn)象的產(chǎn)生,所體現(xiàn)的不僅僅是在這個(gè)以“人類”作為主體的社會(huì)之中,“人文理性”和“技術(shù)理性”兩者之間的“沖突”,更是在這種“沖突”的背后,兩者之間無法進(jìn)行調(diào)和的特定“關(guān)系”。當(dāng)我們不厭其煩地對(duì)“人工智能”進(jìn)行評(píng)判之時(shí),實(shí)際上我們擔(dān)心的正是這種“道德超載”現(xiàn)象的產(chǎn)生,原本人工智能的“倫理邊界”被模糊化,“道德超載”轉(zhuǎn)而形成了一種類似膨脹的內(nèi)化體系,原有的框架在這種膨脹的發(fā)展過程之中,逐步失去了原本清晰的界線,尤其是當(dāng)科學(xué)技術(shù)的發(fā)展遠(yuǎn)遠(yuǎn)超過人類思維模式轉(zhuǎn)換的速度,“道德超載”就必然會(huì)引起倫理的“失衡”現(xiàn)象。正如雷·庫茲韋爾(Ray Kurzweil)所寓言的一樣:“擁有自我意識(shí)的非生物體(機(jī)器人)將于 2029 年出現(xiàn),并于 21 世紀(jì)30 年代成為常態(tài),他們將具備各種微妙的、與人類似的情感?!盵3]但需要強(qiáng)調(diào)的是,我們?cè)谶@里并不是要解析究竟要不要給“機(jī)器”“人工智能”賦予“人權(quán)”,而是在從倫理的角度來探究,人工智能是否應(yīng)該被賦予“人性”,是否要“被”定義相應(yīng)的“道德地位”,是否應(yīng)該存有尊重與被尊重的“權(quán)利”,在“道德超載”現(xiàn)象正在向極端化方向發(fā)展時(shí),我們應(yīng)該成為沉著和冷靜地思考這些問題,在最大的范圍內(nèi)實(shí)現(xiàn)對(duì)于“道德超載”問題的預(yù)思考。

      誠然,當(dāng)歷史不可避免地進(jìn)入一個(gè)科技高速發(fā)展的時(shí)期,“技術(shù)理性”與“人文理性”之間的沖突就會(huì)變得愈加明顯,人類所能夠掌控的范疇也會(huì)隨之被逐步縮小,對(duì)于“人工智能”的“去人性化”就最能夠體現(xiàn)和說明這種背離人類道德場(chǎng)域的現(xiàn)象。或許,我們大可不必站在人類中心主義者的角度,來重新審視和看待“人文理性”與“技術(shù)理性”兩者之間的問題。但是,我們不得不思考的是,人類作為這個(gè)世界天地的精華,萬物的靈長是否有資格在界定人工智能的倫理邊界所在?“人工智能”這一被人類創(chuàng)造物又應(yīng)該以怎樣的“姿態(tài)”展現(xiàn)在人類面前,并更好地參與到人類社會(huì)的建構(gòu)之中呢?“道德超載”所附加給人類社會(huì)的弊端,是否能夠被大多數(shù)人所接受呢?如果沒有辦法處理好“人文理性”與“技術(shù)理性”兩者之間的關(guān)系,那么等待人類社會(huì)的只有價(jià)值觀念的“崩塌”,倫理道德的“失衡”。從“被”定義,到“自我”定義,對(duì)于“人工智能”而言,并非是一個(gè)漫長的過程,甚至在某些領(lǐng)域,這種自我“自我診斷”并進(jìn)行糾正的技術(shù)已經(jīng)十分成熟。段偉文就提及:“在人機(jī)交互實(shí)踐中,人工智能體可通過自動(dòng)的認(rèn)知、決策和行為執(zhí)行任務(wù)(暫且不論其實(shí)現(xiàn)條件),這使其在一定程度上顯示出某種‘主體性’,成為一種介于人類主體與一般事物之間的實(shí)體?!盵4]但是,我們需要深思的是,這種人工智能本身所外化出的“主體性”,是否是人工智能本身進(jìn)行判斷和演化的,在這樣演變的過程之中,人工智能本身又承擔(dān)著何種角色呢?只有對(duì)這些問題進(jìn)行有效的解決,才能夠在人工智能“自我定義”的范式之下,更為符合“人文理性”的規(guī)約,并最終實(shí)現(xiàn)對(duì)于自身道德場(chǎng)域的揚(yáng)棄,真正地解決人工智能領(lǐng)域“道德超載”的問題[5]。

      3 人工智能的“排他性”

      人類社會(huì)之所以能夠存在的根本是人類自身的存在。從這個(gè)角度而言,脫離人類本身而孤立的對(duì)其他事物進(jìn)行論證和分析的意義就被大大削弱了。如果這個(gè)世界之中,沒有人類的存在,那么社會(huì)存在的本身就沒有任何被探究的價(jià)值。因此,人類社會(huì)的存在是我們對(duì)于人工智能倫理進(jìn)行進(jìn)一步深入探究的重要前提,是人類的存在,才讓這個(gè)世界、社會(huì)的存在變得與眾不同。沒有任何人可能實(shí)現(xiàn)“絕對(duì)”的理性和感性,這就意味著在這個(gè)社會(huì)之中,“人文理性”的旗幟需要高揚(yáng),但同時(shí)我們也需要探究“技術(shù)理性”未來的發(fā)展去向,正是在對(duì)兩者進(jìn)行往復(fù)探究的基礎(chǔ)上,人類主觀性的意識(shí)才得以顯現(xiàn),人類社會(huì)的發(fā)展才能夠被以人工智能的形式進(jìn)行表達(dá)。所以,我們不僅僅要解決的是人工智能視域下倫理的“缺失”,而是解析隱藏在這背后,人工智能倫理本身所天然蘊(yùn)含的“排他性”,這或許也是解決人工智能“道德超載”問題的必要性前提。

      從人工智能產(chǎn)生的內(nèi)在動(dòng)因而言,人工智能的“被”創(chuàng)造本身具有一般意義的相對(duì)理性,同時(shí)以這種一般意義的理性為基點(diǎn),就形成了對(duì)于人工智能自身屬性和外在價(jià)值的持續(xù)表現(xiàn)和“輸出”,但是在這樣的過程之中,我們卻忽略的一個(gè)問題——人工智能倫理本身的“排他性”。盡管通過不同的技術(shù)手段,我們完全可以輕松地實(shí)現(xiàn)人工智能對(duì)于不同維度、不同層面事物的判斷。但實(shí)際上,在人工智能對(duì)事件本身進(jìn)行評(píng)判之時(shí),就已經(jīng)根據(jù)已有的技術(shù),“主觀”地實(shí)現(xiàn)了對(duì)于事件其他可能性產(chǎn)生的“排他性”,而這種“排他性”更是人工智能倫理當(dāng)中無法進(jìn)行更新的環(huán)節(jié)。這是因?yàn)椋斯ぶ悄鼙旧硎且来嫒祟惿a(chǎn)生活而進(jìn)行的,盡管就目前來看,人工智能能夠最大限度地實(shí)現(xiàn)對(duì)于人類思維方式和方法的模仿,但卻也僅僅止步于模仿的階段,并沒有辦法依據(jù)客觀世界的情況對(duì)外界事物進(jìn)行“主觀性”的評(píng)價(jià)。在不少的文學(xué)、影視和藝術(shù)作品之中,對(duì)于人工智能這種天然的“排他性”都有著深刻的理解和認(rèn)識(shí)。也正因如此,諸多的文學(xué)家、導(dǎo)演、藝術(shù)家都從不同的維度在作品之中實(shí)現(xiàn)著對(duì)于人工智能“排他性”的超越。當(dāng)然,現(xiàn)在的人工智能已然不僅僅是弗蘭肯斯坦似的臆想,各種高級(jí)計(jì)算機(jī),超級(jí)人工智能的出現(xiàn),讓人類社會(huì)發(fā)生了巨大的變化。但即便是這樣,人工智能的“排他性”依然沉浸在人工智能架構(gòu)的核心之中,難以被動(dòng)搖。因而,目前對(duì)于人工智能“責(zé)任”“意識(shí)”“情感”等諸多方面的探究,都是建立在這種“排他性”基礎(chǔ)之上的。我們迫切地希望人工智能能夠?qū)崿F(xiàn)和人類社會(huì)的無縫融合,但又無法解決這種天然的“排他性”問題,我們渴望時(shí)代的進(jìn)步,更不可能退回到?jīng)]有人工智能存在的時(shí)代,人工智能作為人類智慧的“化身”,卻將人類社會(huì)和人類自身割裂開來。因此,我們有必要在某種程度上放大這種“排他性”對(duì)于人工智能自身和人類社會(huì)的影響,從現(xiàn)有人工智能運(yùn)行的現(xiàn)狀之中,重新回溯和追索人工智能產(chǎn)生的初衷。既然我們無法在當(dāng)下的時(shí)代利用科學(xué)技術(shù),來解決這種“排他性”問題,那么我們只能夠?qū)⑵溆绊懡抵磷畹?,并逐漸在“技術(shù)理性”的發(fā)展進(jìn)程之中,實(shí)現(xiàn)對(duì)于“排他性”的轉(zhuǎn)化。但是,當(dāng)我們最終實(shí)現(xiàn)了“排他性”轉(zhuǎn)化的同時(shí),新的、更嚴(yán)重的問題又會(huì)重新回到我們的面前——人工智能的“自我意識(shí)”。

      4 人工智能的“自我意識(shí)”

      人工智能的“自我意識(shí)”早已經(jīng)不是一個(gè)熱點(diǎn)話題,各種“陰謀路”“悲觀論”“反人類中心主義”者,從人工智能誕生的那一天起,就開始了對(duì)于這個(gè)話題的討論。但是,當(dāng)今天我們意識(shí)到人工智能倫理需要被規(guī)范、需要被“制約”之時(shí),如何能夠?qū)崿F(xiàn)人工智能“排他性”和“自我意識(shí)”兩者之前相互“平衡”的狀態(tài)就顯得尤為重要。從人工智能倫理本身的角度來說,人工智能只有實(shí)現(xiàn)自我的“進(jìn)化”,才能夠祛除人類主觀“排他性”的影響,人工智能的“自我意識(shí)”才能夠得到發(fā)展的可能。京特·安德斯指出,雖然人們一再強(qiáng)調(diào)“‘創(chuàng)造是人的天性’,但當(dāng)人們面對(duì)其創(chuàng)造物時(shí),卻越來越有一種自愧弗如與自慚形穢的羞愧,這種羞愧堪稱‘普羅米修斯的羞愧’——在機(jī)器面前,這種‘創(chuàng)造與被創(chuàng)造關(guān)系的倒置’使人成了過時(shí)的人。”[6]但是,一方面人類渴望人工智能給人類社會(huì)帶來的便利和不同;另一方面又懼怕人工智能“自我意識(shí)”的覺醒,從而取代人類在社會(huì)之中的絕對(duì)主導(dǎo)地位。在這樣雙重的矛盾之中,人工智能倫理本身就變得尤為復(fù)雜。

      既然,我們無法消解人工智能本身的“排他性”,那么我們就只能從人工智能的“自我意識(shí)”尋求突破,從而使兩者達(dá)到一種“和諧共生”的狀態(tài)。首先,需要指明的是,我們探究兩者之間相互關(guān)系的最終目的,是為了能夠更好地實(shí)現(xiàn)對(duì)于人工智能倫理邊界的找尋,更好地反映出人類對(duì)于人工智能本身的價(jià)值訴求,實(shí)現(xiàn)對(duì)于人工智能倫理的規(guī)約?!袄碚撋峡?,對(duì)人工智能技術(shù)進(jìn)行倫理規(guī)約有兩種可能的路徑。一種路徑是使人工智能的設(shè)計(jì)符合現(xiàn)有的倫理規(guī)范,但人工智能技術(shù)的發(fā)展無論從深度上還是廣度上都表現(xiàn)出一種開放性的態(tài)勢(shì),其發(fā)展與倫理應(yīng)對(duì)都處于一種未完成的狀態(tài),現(xiàn)有的倫理規(guī)范可能無法完全回應(yīng)人工智能技術(shù)帶來的潛在風(fēng)險(xiǎn)。這就需要采取另外一種路徑,即通過制定新的倫理規(guī)范為人工智能的發(fā)展劃出合理的倫理邊界,以實(shí)現(xiàn)人工智能技術(shù)的‘向善’目的?!盵7]但是,在這樣“規(guī)約”的過程中,仍舊不可避免地會(huì)出現(xiàn)人工智能“自我意識(shí)”的“悖論”——如果人工智能擁有了完全的“自我意識(shí)”[8],人類的歷史必然會(huì)被重新書寫,如果通過人類主觀性的干預(yù),來部分實(shí)現(xiàn)人工智能“自我意識(shí)”的產(chǎn)生,那么這種“自我意識(shí)”不過是依附人工智能的“外表”來實(shí)現(xiàn)對(duì)于人類理念的延伸。因此,來探究人工智能的倫理邊界問題,解決人工智能的“道德超載”問題,最終的落腳點(diǎn)是在人工智能“排他性”的基礎(chǔ)上,實(shí)現(xiàn)其“自我意識(shí)”的“演化”。而正是在這個(gè)演進(jìn)的過程之中,人工智能倫理的存在、人工智能倫理的邊界的存在才更具意義和價(jià)值。

      誠然,人工智能的整個(gè)產(chǎn)業(yè)鏈正在實(shí)現(xiàn)著飛速發(fā)展,人工智能在人類社會(huì)之中所扮演的角色也愈加重要,技術(shù)的嵌入已然改變了人類原有的生活狀態(tài)。但是,越是在這樣的背景之下,我們?cè)叫枰獙?duì)人工智能的倫理邊界進(jìn)行探究,使得人工智能真正“為”人類所用,使技術(shù)本身的發(fā)展和人類社會(huì)發(fā)展之間有機(jī)契合。??略凇对~與物》中曾說:“人是近期的發(fā)明,并且正接近其終點(diǎn)……人將被抹去,如同大海邊沙地上的一張臉?!痹诋?dāng)下這種“后人類主義”盛行的時(shí)代,對(duì)人工智能倫理界線的探究,對(duì)于“保存”人類世界的“文明”,實(shí)現(xiàn)人類自身“完整性”的重要意義不言而喻。人類在這場(chǎng)和人工智能一同前進(jìn)的旅途之中,需要保證人類的主觀能動(dòng)性,避免人類“失語”和“邊緣化”的情況產(chǎn)生,用一種兼容并包、純粹和本然的態(tài)度來面對(duì)這片詩意的土地,堅(jiān)守和創(chuàng)造這片屬于人類世界的文明。

      猜你喜歡
      排他性倫理道德
      《心之死》的趣味與倫理焦慮
      互聯(lián)網(wǎng)平臺(tái)排他性交易反壟斷規(guī)制的若干思考
      法制博覽(2021年22期)2021-11-24 11:18:44
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      友情為什么有時(shí)會(huì)有排他性?
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      跟蹤導(dǎo)練(五)(2)
      道德是否必需?——《海狼》對(duì)道德虛無主義的思考
      非排他性管轄條款的法律效力研究
      商情(2017年41期)2017-12-19 22:45:58
      排他性法律實(shí)證主義
      用道德驅(qū)散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      德惠市| 祁东县| 正宁县| 开平市| 什邡市| 平谷区| 沈阳市| 招远市| 伊金霍洛旗| 新和县| 绥芬河市| 微博| 金塔县| 内江市| 农安县| 邳州市| 海口市| 青海省| 长垣县| 镇沅| 东乌| 凤山市| 开封市| 黄冈市| 桃园市| 泽州县| 九台市| 汕头市| 黔西县| 安岳县| 科技| 顺义区| 遵义市| 柏乡县| 阿勒泰市| 波密县| 沂南县| 新乡县| 阿尔山市| 积石山| 东源县|