• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能情感的倫理風(fēng)險(xiǎn)及其應(yīng)對(duì)

      2024-05-21 18:07:33王瀟毅
      倫理學(xué)研究 2024年1期
      關(guān)鍵詞:倫理人工智能人類

      謝 瑜 王瀟毅

      決策研究在20 世紀(jì)90 年代以前,一直以認(rèn)知為中心,強(qiáng)調(diào)思考的能力,但從20 世紀(jì)90 年代起,越來(lái)越多地納入了情感的作用,強(qiáng)調(diào)感受的能力。人工智能作為高效的計(jì)算工具,已經(jīng)在很大程度上模擬了人的理性思考過(guò)程,但是只有理性沒(méi)有情感,是否能被稱為真正的智能呢?1994 年,神經(jīng)科學(xué)家安東尼奧·達(dá)馬西奧(Antonio Damasio)證明太少或缺乏情緒會(huì)影響判斷決策的準(zhǔn)確性,引發(fā)了新一輪的熱議。人工智能領(lǐng)域逐步將“情感”劃為重點(diǎn)研究方向,旨在研發(fā)“既有理智又有情感的系統(tǒng)”。

      情感化已經(jīng)成為當(dāng)下人工智能技術(shù)發(fā)展最重要的趨勢(shì)之一。百度、小米、蘋果、微軟等老牌公司,以及試圖開拓市場(chǎng)的新銳公司(如太古計(jì)算、竹間智能、Sensing Feeling 和Affectiva)都對(duì)人工智能情感頗有興趣。小度、小愛(ài)同學(xué)、Siri、微軟小冰等以“情商”為賣點(diǎn)的社交機(jī)器人爆火,機(jī)器開始呈現(xiàn)出“具有情感”的一面。2016 年,就職于Affectiva 的加比·齊德維爾德(Gabi Zijderveld)在接受采訪時(shí)談道,“也許五年后,這項(xiàng)技術(shù)在未來(lái)會(huì)無(wú)處不在;我們會(huì)看到很多每天都在用情感與之互動(dòng)的科技”[1](6-7)。

      人工智能情感是指試圖將情感賦予人工智能的科技活動(dòng)過(guò)程及產(chǎn)品,是對(duì)人類情感進(jìn)行模擬的產(chǎn)物,主要表現(xiàn)為對(duì)人類情感識(shí)別、表達(dá)和應(yīng)答功能的模擬,人工情感、情感計(jì)算、情感人工智能、情感機(jī)器人等都是其具體的技術(shù)樣態(tài)。人工智能情感以提升機(jī)器智能、促進(jìn)人機(jī)和諧交互和深化情感研究為目標(biāo),在教育、醫(yī)療、社會(huì)服務(wù)等領(lǐng)域有廣泛的應(yīng)用空間。值得深思的是,人工智能情感與傳統(tǒng)意義上的情感有何不同,又如何影響人類生活。具體而言,應(yīng)如何看待情感數(shù)據(jù)的使用?是否造成隱私被侵犯?人工智能情感是否會(huì)帶來(lái)新的欺騙與控制?人工智能實(shí)現(xiàn)的情感是否有其價(jià)值?人工智能情感能否真正給予人心靈的慰藉,從而替代人際情感交往?事實(shí)上,人工智能情感技術(shù)的發(fā)展深刻影響著人類社會(huì),在帶來(lái)效用的同時(shí)催生出諸多倫理風(fēng)險(xiǎn)。

      一、人工智能情感的倫理風(fēng)險(xiǎn)類別

      人工智能開始顯現(xiàn)出具有“情感”,使得人機(jī)情感交互成為可能,似乎能夠破解現(xiàn)代社會(huì)面臨的情感冷漠、疏離的困境。然而現(xiàn)實(shí)是,人工智能情感技術(shù)的發(fā)展與應(yīng)用非但沒(méi)能紓解這些困境,反而對(duì)情感的私密性、真實(shí)性、體驗(yàn)感、意義感造成沖擊,加劇了情感生活的數(shù)據(jù)化、工具化、機(jī)械化,帶來(lái)了情感隱私泄露、情感欺騙盛行、情感控制加劇和情感能力退化等倫理風(fēng)險(xiǎn)。人機(jī)情感的進(jìn)攻使得人際情感的空間被進(jìn)一步擠占,情感的疏離與冷漠更甚。

      1.情感隱私泄露

      人工智能情感的實(shí)現(xiàn)必須大量采集數(shù)字化的情感情緒信息,并以此訓(xùn)練模型。既然情感數(shù)據(jù)是實(shí)現(xiàn)人工智能情感必不可少的關(guān)鍵,情感隱私泄露的風(fēng)險(xiǎn)就難以避免。情感基于人的身份、個(gè)性和人類親密關(guān)系而存在。個(gè)人情感昭示著個(gè)人生活空間的存在,具有高度私密化的特征。隱私不僅是一項(xiàng)個(gè)人權(quán)利,而且是一項(xiàng)群體權(quán)利。尊重情感隱私不僅是對(duì)情感數(shù)據(jù)的保護(hù),還是對(duì)個(gè)人尊嚴(yán)與價(jià)值的尊重。個(gè)性化與隱私之間的悖論使得用戶很難獲得既滿足體驗(yàn)需求又不侵犯情感隱私的個(gè)性化服務(wù)。鑒于用戶在數(shù)據(jù)的采集、使用、共享、銷毀環(huán)節(jié)缺乏對(duì)數(shù)據(jù)的控制、監(jiān)督和知情,行業(yè)也缺乏相應(yīng)的統(tǒng)一標(biāo)準(zhǔn)和規(guī)范限制,用戶很可能會(huì)對(duì)自己的隱私數(shù)據(jù)完全失去控制力[2](248-249)。任何關(guān)于人工智能情感識(shí)別及表達(dá)的研究必須經(jīng)過(guò)個(gè)人明確許可,否則就可能造成對(duì)隱私的侵犯。如果將模型訓(xùn)練中的情感數(shù)據(jù)用于判斷個(gè)人身份,則會(huì)引發(fā)更嚴(yán)重的倫理問(wèn)題[3](83)。

      人工智能情感技術(shù)已經(jīng)造成了情感隱私泄露的現(xiàn)實(shí)問(wèn)題。教育科技(EdTech)公司正在部署情感人工智能來(lái)量化社交和情感學(xué)習(xí),使用計(jì)算機(jī)視覺(jué)和算法來(lái)查看、識(shí)別、分類整理和學(xué)習(xí)面部表情中的情感[4](1)。評(píng)估發(fā)現(xiàn),挖掘兒童的情感生活是不符合規(guī)范的,當(dāng)技術(shù)并非旨在造福這些兒童時(shí)尤其如此[4](12)。此外,人工智能情感的使用有可能引發(fā)代際不公平的問(wèn)題,長(zhǎng)期收集情緒數(shù)據(jù)也不利于孩子的成長(zhǎng)和自我認(rèn)同。父母未經(jīng)同意對(duì)子女情感數(shù)據(jù)的采集使用使得孩子們幾乎無(wú)法控制他們童年的數(shù)據(jù)化,“當(dāng)你自己的感覺(jué)和情緒不再是你的,而是被解析和分享給別人,即使你還沒(méi)有準(zhǔn)備好分享它們——我認(rèn)為我們已經(jīng)極大地傷害了這些孩子”[5](4)。

      2.情感欺騙盛行

      目前的人工智能情感技術(shù)還停留在功能模仿階段,與真實(shí)的人類情感存在顯著差別,可能帶來(lái)情感欺騙的風(fēng)險(xiǎn)。真實(shí)情感是自然生發(fā)的,不需要經(jīng)過(guò)系統(tǒng)學(xué)習(xí)與訓(xùn)練。在約定俗成的適宜范圍內(nèi),“真情流露”往往令人欣賞,而“虛情假意”則令人厭惡。人工智能的情感表達(dá)越來(lái)越逼真,但由于缺乏人的生理心理機(jī)制和社會(huì)生活閱歷,技術(shù)很難在復(fù)雜的現(xiàn)實(shí)情境中產(chǎn)生真實(shí)情感。人工智能情感非真實(shí)性帶來(lái)的欺騙可分為兩種情形,一種是人類事先對(duì)機(jī)器人身份知情,但因需要這種“陪伴”而沉湎于虛擬情感;另一種是在人類不知情的情況下,機(jī)器人蓄意欺騙[6](10)。隨著技術(shù)日益發(fā)展成熟,前者逐步向后者過(guò)渡。當(dāng)人們把人工智能的“善解人意”當(dāng)真,將情感投射到情感智能體上時(shí),由于沒(méi)有認(rèn)識(shí)到人工智能的情感是人在機(jī)器中寫入運(yùn)算法則所賦予的,物性遮蔽、否定了人的現(xiàn)實(shí)性,就有危及人的生命體存在與繁衍的可能。當(dāng)人工智能發(fā)展到越來(lái)越能解決情感問(wèn)題、越來(lái)越能超越傳統(tǒng)時(shí)空界限的時(shí)候,其虛假性將更難識(shí)別[7](63-64)。

      人工智能情感的非真實(shí)性已經(jīng)對(duì)使用者的正常生活造成了影響。索尼公司的人工智能機(jī)器狗(AIBO)是作為娛樂(lè)機(jī)器人開發(fā)的,可以通過(guò)身體動(dòng)作、眼睛的顏色和形狀來(lái)表達(dá)高興、憤怒、恐懼、悲傷、驚訝和厭惡這六種情緒。索尼停止對(duì)“AIBO 機(jī)器狗”進(jìn)行技術(shù)更新后,僧侶們?cè)谌毡镜呐d福寺給114 個(gè)“去世”的老一代“AIBO 機(jī)器狗”舉行了紀(jì)念儀式[8]??梢愿Q見,無(wú)論機(jī)器人制造商或設(shè)計(jì)師是否意在欺騙,只要人工智能情感技術(shù)能夠影響人類情感,就有可能成為情感欺騙的工具與手段。玩偶可以用于癡呆患者的治療,但在玩偶療法的實(shí)際使用中,許多客戶開始相信他們的玩偶是一個(gè)真實(shí)的嬰兒。他們?cè)噲D喂養(yǎng)它們,甚至準(zhǔn)備好自己的床讓玩偶睡個(gè)好覺(jué)[9](1093-1097)。在照顧老年人的過(guò)程中使用輔助機(jī)器人這種基于應(yīng)用程序的“物”來(lái)構(gòu)建具有情感維度的護(hù)理關(guān)系,可能潛藏著使用者蓄意欺騙、削弱護(hù)理關(guān)系意義的風(fēng)險(xiǎn)[10](35)。

      3.情感控制加劇

      在傳統(tǒng)意義上,情感強(qiáng)調(diào)體驗(yàn)感與純粹性。但當(dāng)情感因素進(jìn)入經(jīng)濟(jì)領(lǐng)域后,勞動(dòng)者需要對(duì)自身情感進(jìn)行適當(dāng)管理,即“為了保持恰當(dāng)?shù)谋砬槎T發(fā)或抑制自己的感受,以在他人身上產(chǎn)生適宜的心理狀態(tài)”[11](21)。人工智能情感本應(yīng)能夠?qū)⑷藦那楦锌刂浦小敖夥拧背鰜?lái),解決情感勞動(dòng)中的情感失調(diào)、情感枯竭以及職業(yè)倦怠等問(wèn)題,但這些困境并未被解決,情感被控制、被操縱的風(fēng)險(xiǎn)也在增高。人工智能情感具有成癮性、單向性,暗藏情感控制加劇的倫理風(fēng)險(xiǎn)。一則,利用社交機(jī)器人與人之間親密、信任的依賴關(guān)系可以對(duì)使用者造成情感綁架,甚至導(dǎo)致主從關(guān)系的變異或顛倒[12](106)。二則,社交機(jī)器人的“單向度情感”缺陷本身就會(huì)導(dǎo)致情感控制,這是因?yàn)槊鎸?duì)人類的情感表達(dá),機(jī)器人無(wú)法提供同等、豐富、深刻的情感反饋[13](57)。

      情感控制加劇的風(fēng)險(xiǎn)已經(jīng)初步顯現(xiàn)在人工智能情感的具體應(yīng)用中。阿米莉亞·萬(wàn)斯(Amelia Vance)在未來(lái)隱私論壇上發(fā)言,她認(rèn)為影響情緒的技術(shù)“正在推動(dòng)轉(zhuǎn)向徹底的操縱”。操縱性營(yíng)銷策略利用人工智能算法檢測(cè)到的人類偏好,為在線商品消費(fèi)制定個(gè)性化成癮策略,或者利用個(gè)人情緒的脆弱狀態(tài)來(lái)推廣與他們當(dāng)下情緒匹配的產(chǎn)品和服務(wù)[14]。情緒識(shí)別工具將與工人思想、行為相關(guān)的內(nèi)在情感暴露出來(lái),以鼓勵(lì)他們提高生產(chǎn)力、遵守規(guī)則,這實(shí)際上是一種情感監(jiān)視與控制手段,造成更具侵入性的紀(jì)律性凝視;如果不加以規(guī)范,就會(huì)造成算法偏見、決策不透明和雇傭關(guān)系的侵蝕,使勞動(dòng)關(guān)系更為緊張[15](97)。

      4.情感能力退化

      “人是意義動(dòng)物,我們不是為了追求真理而來(lái)到這個(gè)世界的,但沒(méi)有誰(shuí)不追求意義。”[16](402)人文情感的可貴之處在于其蘊(yùn)含意義與價(jià)值。人工智能情感可能消解情感的本真意義,導(dǎo)致人類情感能力退化。一則,人工智能情感是數(shù)字化的情感,是對(duì)情感的簡(jiǎn)化理解與機(jī)械化解讀,潛藏情感能力退化的風(fēng)險(xiǎn)。這是因?yàn)槿斯ぶ悄芘c人類意識(shí)存在本質(zhì)不同:以數(shù)學(xué)為基礎(chǔ)的自然科學(xué)由因果論主導(dǎo),人工智能、人工情感追求確定性、唯一性、必然性;人類意識(shí)以時(shí)間性為本質(zhì)而存在,遵循目的論式存在,與數(shù)學(xué)的追求相異[17](434)。二則,人工智能情感會(huì)影響人們對(duì)情感交往價(jià)值重要性的判斷。交往在發(fā)現(xiàn)價(jià)值、認(rèn)識(shí)價(jià)值、創(chuàng)造價(jià)值、實(shí)現(xiàn)價(jià)值中具有重要作用。物質(zhì)的、精神的、社會(huì)的價(jià)值創(chuàng)造和實(shí)現(xiàn)都離不開交往,情感的價(jià)值生成和實(shí)現(xiàn)同樣離不開交往。在交往實(shí)踐中將人工智能情感與人類情感類同,可能引發(fā)人們對(duì)情感交往價(jià)值的懷疑,進(jìn)而削弱人際交往,造成人類情感能力的退化。

      人工智能情感技術(shù)在優(yōu)化人們情感體驗(yàn)的同時(shí),確實(shí)存在削弱人類情感能力、淡化人際情感交往的風(fēng)險(xiǎn)。研究發(fā)現(xiàn),構(gòu)建人機(jī)關(guān)系會(huì)減少建立更有意義的人際關(guān)系的機(jī)會(huì)[18](402)。社會(huì)中最年輕的成員——嬰兒——有著強(qiáng)烈的好奇心,渴望參與社會(huì)互動(dòng),但他們的撫育者由于工作等各種原因,缺乏時(shí)間,選擇讓機(jī)器人陪伴在嬰兒身邊,這不僅可能會(huì)減少嬰兒與人類照顧者相處的時(shí)間,還會(huì)妨礙嬰兒社交、情感和語(yǔ)言能力的發(fā)展,阻礙他們理解人際情感及其價(jià)值[19](36-37)。如果孩子們開始認(rèn)為機(jī)器人是有生命的,他們可能會(huì)以更機(jī)械的方式來(lái)思考人類和動(dòng)物,較少考慮其道德地位。商業(yè)活動(dòng)中有商家展示和銷售人形機(jī)器人,以此鼓勵(lì)人們與人工智能建立情感關(guān)系。考慮到人類的行為是受經(jīng)驗(yàn)影響的,人與機(jī)器人朝夕相處,長(zhǎng)此以往,人類也可能會(huì)被“訓(xùn)練”得以對(duì)待人形機(jī)器人的方式與他人互動(dòng),造成情感能力退化。使用機(jī)器人照顧老人會(huì)導(dǎo)致老人的社會(huì)互動(dòng)水平下降,因?yàn)槠渌藭?huì)認(rèn)為老人能夠由機(jī)器人來(lái)照顧,其社會(huì)需求也能同時(shí)得到滿足。

      二、人工智能情感的倫理風(fēng)險(xiǎn)歸因

      人工智能情感倫理既應(yīng)遵循人工智能倫理的一般共性,也應(yīng)符合情感倫理的特殊要求。剖析成因是合理應(yīng)對(duì)人工智能情感倫理風(fēng)險(xiǎn)的關(guān)鍵前提。人工智能情感的倫理風(fēng)險(xiǎn)生成原因是復(fù)雜多元的:從技術(shù)因素看,情感算法在理論與實(shí)踐上的局限性難以避免;從社會(huì)因素看,倫理觀念的相對(duì)滯后以及工具理性的泛濫助推了倫理風(fēng)險(xiǎn)的生成。社會(huì)因素與技術(shù)因素交錯(cuò)盤繞,最大的幕后推手實(shí)際上是資本邏輯的驅(qū)動(dòng)。

      1.資本邏輯驅(qū)動(dòng)

      資本邏輯是資本永無(wú)止境地追求自身利潤(rùn)最大化與價(jià)值無(wú)限增殖的趨勢(shì)和規(guī)律,“體現(xiàn)出‘利己性’‘逐利性’和‘貪婪性’的不道德消極屬性”[20](123)。人工智能情感技術(shù)發(fā)展中的資本邏輯驅(qū)動(dòng)首先體現(xiàn)為虛假需要的創(chuàng)設(shè)。人的需要包括真實(shí)需要和虛假需要。真實(shí)需要是“那些無(wú)條件地要求滿足的需要”,是“生命攸關(guān)的需要——即在可達(dá)到的物質(zhì)水平上的衣、食、住”;虛假需要?jiǎng)t是“為了特定的社會(huì)利益而從外部強(qiáng)加在個(gè)人身上的那些需要”[21](6)。消費(fèi)社會(huì)努力生產(chǎn)出虛假需要的目的在于推動(dòng)消費(fèi),背后是資本擴(kuò)張的需求。人工智能情感化未必是人最真實(shí)的需要,但一定符合資本擴(kuò)張的需求。人工智能情感技術(shù)創(chuàng)新發(fā)展的速度遠(yuǎn)遠(yuǎn)趕不上其推廣營(yíng)銷速度,人工智能的“一顰一笑”都被極度夸張放大到營(yíng)銷海報(bào)、宣傳視頻里——人工智能或許“情非得已”“表里不一”,但資本家確是“難掩笑意”“滿面春風(fēng)”。

      人工智能情感的商業(yè)價(jià)值不容忽視。人工智能情感化趨勢(shì)是符合社會(huì)發(fā)展需要的,在現(xiàn)階段表現(xiàn)為服從效益邏輯。能夠取得經(jīng)濟(jì)效益是技術(shù)研發(fā)者、生產(chǎn)者必須考慮的重要因素。“資本的邏輯是求利的邏輯,技術(shù)內(nèi)在追求利益和利益最大化的特點(diǎn)和資本追求增殖本性形成內(nèi)在的共契,甚至可以說(shuō)是共謀?!保?2](64)純粹的技術(shù)發(fā)明本身無(wú)所謂善惡,但技術(shù)的資本邏輯操縱是造成諸多倫理風(fēng)險(xiǎn)的根本原因。如果不對(duì)資本邏輯加以規(guī)制,人工智能情感作為一種新的生產(chǎn)杠桿很可能成為資本壓榨人類勞動(dòng)的新手段,即“生產(chǎn)資料奴役生產(chǎn)者的新手段”,導(dǎo)致人機(jī)關(guān)系進(jìn)一步異化。逐利者若只看到人工智能情感帶來(lái)的經(jīng)濟(jì)效益與廣闊市場(chǎng),忽視人的真實(shí)感受與需要,背離以人為本的科技倫理原則,就會(huì)一步步走向不為人的技術(shù)發(fā)展。人工智能不僅并未徹底消解“情感勞動(dòng)”異化,還衍生出了情感真實(shí)性疑慮、人格同一性威脅、情感同質(zhì)化等新的異化,其深層根源在于資本主義生產(chǎn)關(guān)系和社會(huì)制度[23](20)。

      2.情感算法局限

      人工智能情感的技術(shù)核心是算法,其倫理風(fēng)險(xiǎn)生成與情感算法本身的局限性有關(guān)。它首先與算法理論上的不完善不成熟相關(guān)。由于情感的復(fù)雜性、情感外在表達(dá)與內(nèi)在實(shí)質(zhì)關(guān)聯(lián)的不確定性、機(jī)器缺乏人生社會(huì)體驗(yàn)機(jī)制與對(duì)情感的真正理解等,算法能夠?qū)崿F(xiàn)的“情感”還不具備真實(shí)感,人工智能情感與人類情感存在著質(zhì)的差別。這種差別是技術(shù)實(shí)現(xiàn)上的,也受制于科學(xué)理論的發(fā)展。由于人類情感機(jī)制的復(fù)雜性、神秘性,無(wú)論技術(shù)如何進(jìn)步,技術(shù)實(shí)現(xiàn)的人工情感如何逼真,始終難以達(dá)到人類情感的誠(chéng)懇、真切、自然。從這個(gè)意義上講,人工智能情感化是技術(shù)發(fā)展的一個(gè)重要趨勢(shì),會(huì)持續(xù)呈現(xiàn)出正在發(fā)展、正在進(jìn)行的狀態(tài)。這種趨勢(shì)化與不確定性給了營(yíng)銷者“闡釋”的可能與空間,而消費(fèi)者卻無(wú)法完全把握人工智能情感的真假與表現(xiàn)程度,這帶來(lái)了不可預(yù)估的倫理風(fēng)險(xiǎn)。

      除了情感算法理論上的不完備給了不良商家鉆空子的機(jī)會(huì),風(fēng)險(xiǎn)的生成也與算法運(yùn)行機(jī)制中的局限有關(guān),如“算法霸權(quán)”與“大數(shù)據(jù)鴻溝”帶來(lái)的信息不對(duì)稱?!八惴ò詸?quán)”造成了情感算法的使用者和使用對(duì)象之間的信息不對(duì)稱。算法的保密性、技術(shù)盲點(diǎn)、復(fù)雜性以及算法使用者的刻意隱瞞,使大多數(shù)人無(wú)法了解算法的工作原理。算法的使用者在可解釋性上占據(jù)主導(dǎo)地位,形成“算法霸權(quán)”。情感算法的使用者與使用對(duì)象之間存在信息的嚴(yán)重不對(duì)稱——在現(xiàn)實(shí)生活中“知情同意”機(jī)制往往不能起到應(yīng)有的作用,用戶并不十分清楚點(diǎn)擊“允許”按鈕意味著什么?!按髷?shù)據(jù)鴻溝”造成了情感數(shù)據(jù)的生產(chǎn)者和處理者之間的信息不對(duì)稱。情感算法的運(yùn)行離不開數(shù)據(jù)。數(shù)據(jù)的生產(chǎn)者和數(shù)據(jù)的收集、存儲(chǔ)、分類者在數(shù)據(jù)擁有量、數(shù)據(jù)分析能力和數(shù)據(jù)思維等方面存在巨大差異?!耙环矫妫瑐€(gè)人生產(chǎn)大量原始數(shù)據(jù),卻不掌控?cái)?shù)據(jù)使用對(duì)生活、生產(chǎn)帶來(lái)的顛覆性影響,甚至不了解大數(shù)據(jù)對(duì)個(gè)人私生活、私領(lǐng)域的偷窺與再處理;另一方面,掌握海量數(shù)據(jù)的處理者具有前所未有的權(quán)力,利用數(shù)據(jù)影響公共生活乃至私人生活,大數(shù)據(jù)在個(gè)體與組織機(jī)構(gòu)間形成大數(shù)據(jù)鴻溝?!保?4](69)“算法霸權(quán)”與“大數(shù)據(jù)鴻溝”疊加,情感算法的使用者和使用對(duì)象、情感數(shù)據(jù)的生產(chǎn)者和處理者之間存在嚴(yán)重的信息不對(duì)稱,造成了情感隱私的泄露、情感欺騙與控制等倫理風(fēng)險(xiǎn)。

      3.倫理觀念滯后

      人類社會(huì)的道德標(biāo)準(zhǔn)與價(jià)值判斷具有相對(duì)的穩(wěn)定性,在飛速發(fā)展的新興技術(shù)面前難免具有一定的滯后性與局限性。首先,人工智能情感這種新興技術(shù)是在機(jī)器主體性的傳統(tǒng)倫理問(wèn)題沒(méi)能解決的基礎(chǔ)上發(fā)展起來(lái)的。人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來(lái)的應(yīng)用倫理問(wèn)題是一系列老問(wèn)題的疊加[25](22)。由于人類中心主義知識(shí)的可及性和適用性、解釋和理解其他代理行為的動(dòng)機(jī)以及社會(huì)接觸和建立聯(lián)系的愿望,人類一直有將非人類主體擬人化的傾向[26](864)。人工智能情感技術(shù)引發(fā)了學(xué)界新一輪的爭(zhēng)論:能夠模擬人類情感的人工智能是否應(yīng)當(dāng)具有主體性,又是否能夠成為道德代理?如果將具有情感功能的人工智能視為主體,那么人機(jī)關(guān)系就應(yīng)被視作人際關(guān)系的新形態(tài)。尚且不說(shuō)情感功能能否等同于情感,協(xié)調(diào)人機(jī)在工作、社交等方面的公平公正已經(jīng)十分困難。如果將人工智能視為客體,那么如何理解它們類似于人的情感表達(dá);如果冷漠對(duì)待機(jī)器的情感表達(dá),長(zhǎng)此以往會(huì)不會(huì)遷移到人身上,加劇人際的情感冷漠?既然前面兩條路都行不通,賦予人工智能特殊主體地位似乎成了不二之選。但是,這種特殊地位由誰(shuí)賦予、怎么賦予?出了問(wèn)題又由誰(shuí)來(lái)負(fù)責(zé)?關(guān)于機(jī)器主體性的傳統(tǒng)爭(zhēng)論橫亙?cè)谌斯ぶ悄芮楦屑夹g(shù)面前,長(zhǎng)期沒(méi)有較為一致的說(shuō)法,也就未能形成有效的規(guī)約機(jī)制。相對(duì)局限的倫理觀念與技術(shù)的新發(fā)展疊加衍生出了新的倫理風(fēng)險(xiǎn)。

      其次,倫理觀念的建構(gòu)相對(duì)于科技活動(dòng)的創(chuàng)新存在滯后性?!翱屏指窭锲胬Ь场苯沂玖思夹g(shù)控制可能陷入的兩難困境,即在技術(shù)發(fā)展早期階段,這時(shí)控制其風(fēng)險(xiǎn)是較為容易的,但是對(duì)其有害社會(huì)后果的了解還不夠充分,因此沒(méi)有理由控制它的發(fā)展。當(dāng)后期這些后果顯而易見時(shí),控制已變得代價(jià)高昂和緩慢。為此,科技創(chuàng)新和風(fēng)險(xiǎn)防范之間總是相互掣肘、難以兩全:針對(duì)人工智能情感進(jìn)行有效的倫理設(shè)計(jì)需要對(duì)技術(shù)的潛在風(fēng)險(xiǎn)和危害有透徹的理解,而深刻把握技術(shù)本質(zhì)及其倫理風(fēng)險(xiǎn)又需要科技的充分發(fā)展。倫理觀念較為穩(wěn)定的特性導(dǎo)致了其更迭不會(huì)像技術(shù)更新那么迅速,在新的倫理觀念尚未建構(gòu)起來(lái)時(shí),新興技術(shù)與傳統(tǒng)觀念之間的張力會(huì)引發(fā)新的倫理風(fēng)險(xiǎn)。

      4.工具理性泛濫

      在韋伯以“理性化”為核心建立的現(xiàn)代化理論中,人類的理性可以區(qū)分成工具理性和價(jià)值理性兩類。工具理性強(qiáng)調(diào)手段與目的的實(shí)現(xiàn),具有鮮明的功利導(dǎo)向;價(jià)值理性強(qiáng)調(diào)信仰而非目的,看重過(guò)程中的價(jià)值。當(dāng)工具理性在程度與范圍上急劇擴(kuò)張,便造成工具理性泛濫。工具理性泛濫擠占了價(jià)值理性的空間——技術(shù)的發(fā)展“不問(wèn)目的只求實(shí)現(xiàn)”,還要“盡快地侵占”“盡可能多的實(shí)現(xiàn)”。這種效率至上、具有明確目的導(dǎo)向的思維助推人工智能情感技術(shù)迅速發(fā)展,不可避免地催生出新的倫理風(fēng)險(xiǎn)。

      人工智能情感是一種技術(shù)對(duì)情感的控制。人們對(duì)情感運(yùn)行機(jī)制的認(rèn)知有限,因而人工智能對(duì)情感的模擬只能從有限的情感表征入手,比如模仿人類情感表達(dá)的面部表情、聲音效果、肢體狀態(tài)。人工智能可以用仿生的面部五官表達(dá)喜悅、用柔和的合成聲線表達(dá)安慰、用機(jī)械手臂環(huán)抱人體表達(dá)友好。從技術(shù)實(shí)現(xiàn)的角度講,人工智能情感的實(shí)現(xiàn)過(guò)程就是將情感表征量化轉(zhuǎn)換為計(jì)算機(jī)能夠操控處理的數(shù)據(jù)符號(hào),然后再將其通過(guò)程序在人工智能體上復(fù)刻實(shí)現(xiàn)。這一過(guò)程充斥著將萬(wàn)事萬(wàn)物控制計(jì)算、量化還原的工具理性主義思維。從技術(shù)效益的角度講,人工智能情感不一定是一個(gè)合理的技術(shù)目的,但一定是一項(xiàng)令人驚嘆的技術(shù)手段。令無(wú)數(shù)研究者前赴后繼的,也不一定是真正情感的人工實(shí)現(xiàn),人工智能情感理念中的商業(yè)價(jià)值本身就足以讓主張利益至上的工具理性主義者興奮了。

      三、人工智能情感的倫理風(fēng)險(xiǎn)應(yīng)對(duì)

      由于情感的復(fù)雜性與內(nèi)在性,人工智能情感以較為隱蔽的形式潛移默化地侵入人類社會(huì),影響人類生活;又由于技術(shù)背后操縱者——資本的逐利性,這類技術(shù)實(shí)質(zhì)上猛烈、無(wú)孔不入地侵蝕著人類情感。加強(qiáng)人工智能情感倫理風(fēng)險(xiǎn)應(yīng)對(duì)的相關(guān)研究,從根源上說(shuō)需要規(guī)制資本的無(wú)序擴(kuò)張,推動(dòng)科技向善,將倫理觀念融入技術(shù)設(shè)計(jì)。在科技發(fā)展方面,應(yīng)當(dāng)堅(jiān)持敏捷治理,以人的價(jià)值與真實(shí)需要為尺度規(guī)制算法;在倫理建構(gòu)方面,應(yīng)當(dāng)堅(jiān)持以倫理先行的要求逐步健全人工智能情感相關(guān)的倫理法規(guī);在觀念引導(dǎo)方面,應(yīng)當(dāng)深化對(duì)技術(shù)的人文反思,以價(jià)值理性思考人工智能情感技術(shù)的發(fā)展,警惕情感工具化。

      1.推動(dòng)科技向善

      面對(duì)資本無(wú)序擴(kuò)張導(dǎo)致人工智能情感帶來(lái)的種種風(fēng)險(xiǎn),需發(fā)揮社會(huì)主義市場(chǎng)經(jīng)濟(jì)在市場(chǎng)統(tǒng)一有序、資源合理配置、發(fā)展集中力量等方面的顯著優(yōu)勢(shì),規(guī)范和引導(dǎo)資本健康發(fā)展,推動(dòng)科技向善。從“承認(rèn)資本、利用資本、發(fā)展資本”的角度講,應(yīng)當(dāng)激發(fā)資本作為生產(chǎn)要素的經(jīng)濟(jì)活力,引導(dǎo)資本在合法與合道德的限度內(nèi)進(jìn)行人工智能技術(shù)的情感賦值,合理地利用和把握情感數(shù)據(jù),滿足人們的情感需要,促進(jìn)人工智能情感技術(shù)向善發(fā)展。從“駕馭資本、規(guī)范資本、超越資本”的角度講,應(yīng)當(dāng)為資本發(fā)展設(shè)置底線,避免商家利用情感算法不當(dāng)?shù)美?,進(jìn)而引發(fā)情感異化和科技異化等倫理風(fēng)險(xiǎn)。擺脫資本桎梏的人工智能情感技術(shù),將成為全體人民共有的社會(huì)財(cái)富。

      將價(jià)值理念融入技術(shù)設(shè)計(jì)能夠?yàn)槿斯ぶ悄茏⑷胍活w“良芯”,有利于人工智能情感技術(shù)向善發(fā)展。好的技術(shù)設(shè)計(jì)不僅能夠?yàn)橄嚓P(guān)利益者的訴求服務(wù),也能促進(jìn)相關(guān)制度規(guī)范的完善,引導(dǎo)技術(shù)實(shí)現(xiàn)升級(jí)和優(yōu)化。根據(jù)費(fèi)雷德曼提出的“價(jià)值敏感設(shè)計(jì)”,應(yīng)將具體的價(jià)值原則嵌入到人工智能技術(shù)的結(jié)構(gòu)之中,使技術(shù)擁有一定的價(jià)值傾向。在技術(shù)設(shè)計(jì)的過(guò)程中植入尊重人的主體性的倫理觀念,能夠有效避免“主仆異位”現(xiàn)象的發(fā)生。只有合乎倫理觀念的技術(shù)設(shè)計(jì)才能夠促進(jìn)人機(jī)交互的和諧性,推動(dòng)科技向善發(fā)展。運(yùn)用輔助AI 系統(tǒng)進(jìn)行情緒識(shí)別和疼痛監(jiān)測(cè)具有光明前景,但是要使AI 助手有利于人機(jī)交互,就需要確保AI 疼痛識(shí)別和類人共情表達(dá)是以一種合乎倫理的方式發(fā)展起來(lái)的。具體而言,不僅需要考慮個(gè)人數(shù)據(jù)的隱私性和安全性,讓創(chuàng)造者和用戶都充分知曉信息的變化、可能的健康問(wèn)題,而且面對(duì)人工智能系統(tǒng)的局限性,比如有偏見的數(shù)據(jù)造成的算法偏見,需要建立用戶對(duì)人工智能局限性的信任和理解[27](15)。

      2.實(shí)行敏捷治理

      《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》對(duì)敏捷治理作出闡釋,即“尊重人工智能發(fā)展規(guī)律,在推動(dòng)人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時(shí),及時(shí)發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險(xiǎn)”[28]。要兼顧人工智能情感在技術(shù)發(fā)展與倫理治理方面的平衡,敏捷治理是必然選擇。不斷加強(qiáng)、調(diào)整對(duì)倫理、規(guī)范和治理方面的認(rèn)識(shí),根據(jù)不同部署和相關(guān)法律要求設(shè)計(jì)情感人工智能(EAI)系統(tǒng),將公共標(biāo)準(zhǔn)應(yīng)用于人們?nèi)粘I钪惺褂玫乃饺司W(wǎng)絡(luò),有利于應(yīng)對(duì)人工智能情感對(duì)個(gè)人空間邊界和身體完整性邊界造成的考驗(yàn)[29](10)。敏捷治理要求既避免規(guī)約不足導(dǎo)致社會(huì)問(wèn)題頻發(fā),也避免過(guò)度監(jiān)管阻礙技術(shù)發(fā)展,及時(shí)開展系統(tǒng)的風(fēng)險(xiǎn)監(jiān)測(cè)和評(píng)估,調(diào)整治理策略。一方面,準(zhǔn)確識(shí)別具體情境中的情感,理解和分析情感,進(jìn)而作出能夠改善人機(jī)交互的合理回應(yīng),需要以準(zhǔn)確把握情感的本質(zhì)與規(guī)律為基礎(chǔ)。攻關(guān)情感科學(xué)的基礎(chǔ)理論研究,進(jìn)行負(fù)責(zé)任的科技創(chuàng)新有利于解決情感算法的局限性問(wèn)題。

      另一方面,為敏捷應(yīng)對(duì)情感算法的局限性導(dǎo)致的倫理風(fēng)險(xiǎn),需要從數(shù)據(jù)或算法方面對(duì)情感算法加以規(guī)制。從數(shù)據(jù)層面進(jìn)行規(guī)制能夠避免資本對(duì)情感數(shù)據(jù)的私人占有,消弭因?qū)η楦袛?shù)據(jù)掌握程度不同帶來(lái)的“大數(shù)據(jù)鴻溝”,促進(jìn)公平公正。比如,如果將人臉情緒數(shù)據(jù)界定為《個(gè)人信息保護(hù)法》下的“個(gè)人信息”,那么人臉情緒數(shù)據(jù)的處理就會(huì)受到相應(yīng)調(diào)整,這將最終影響人臉情緒識(shí)別算法的實(shí)際運(yùn)轉(zhuǎn)[30](43-44)。從算法層面進(jìn)行規(guī)制能夠讓情感算法在適宜的范圍內(nèi)發(fā)揮作用,避免濫用、誤用情感算法造成“算法霸權(quán)”。比如,面對(duì)科學(xué)界關(guān)于人工智能是否能檢測(cè)情感的嚴(yán)重分歧以及未經(jīng)嚴(yán)格把關(guān)的情感識(shí)別技術(shù)的迅速使用,應(yīng)當(dāng)在教育、保健、就業(yè)和刑事司法等所有領(lǐng)域采取保護(hù)措施,監(jiān)管能夠解讀人類情感的人工智能,防止這些工具未經(jīng)審查的使用[31](167)。

      3.健全倫理法規(guī)

      人工智能情感技術(shù)在發(fā)展成熟后帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn)很可能是具備威脅性、易失控的,因此逐步完善人工智能情感技術(shù)相關(guān)的倫理規(guī)范十分必要。倫理研究已經(jīng)介入科技治理的各個(gè)環(huán)節(jié),對(duì)人工智能科技發(fā)展起著引領(lǐng)性、支撐性和規(guī)范性作用。為避免倫理觀念滯后帶來(lái)的倫理風(fēng)險(xiǎn),應(yīng)當(dāng)堅(jiān)持“倫理先行”。一方面,應(yīng)不斷深化人工智能倫理基礎(chǔ)理論研究與問(wèn)題探究,推動(dòng)人工智能情感相關(guān)的科技倫理共識(shí)的形成,加強(qiáng)科技倫理宣傳與教育。另一方面,應(yīng)不斷完善人工智能倫理相關(guān)制度規(guī)范,制定人工智能情感相關(guān)的倫理原則、規(guī)范和政策,引導(dǎo)良好社會(huì)倫理觀念的形成。以倫理規(guī)范制約情感信息識(shí)別與情感算法使用,能夠從源頭上確保人工智能情感技術(shù)不侵犯人的隱私權(quán)、知情權(quán)、安全權(quán),保障人最基本的權(quán)利。如,按照科技部、教育部等牽頭印發(fā)的《科技倫理審查辦法(試行)》,人工智能情感科技活動(dòng)在研發(fā)過(guò)程中涉及個(gè)人情感信息的使用,使用過(guò)程中可能影響人類心理情緒,必須嚴(yán)格依規(guī)進(jìn)行科技倫理審查與倫理復(fù)核。依規(guī)審查有利于規(guī)范人工智能情感的科技活動(dòng),強(qiáng)化科技倫理風(fēng)險(xiǎn)防控,促進(jìn)負(fù)責(zé)任創(chuàng)新。

      倫理觀念的建構(gòu)需要加強(qiáng)底線思維,科技倫理規(guī)范的實(shí)施也需要完善相應(yīng)的法律法規(guī)作為強(qiáng)制力保障。中共中央辦公廳、國(guó)務(wù)院辦公廳在2022 年3 月印發(fā)的《關(guān)于加強(qiáng)科技倫理治理的意見》中明確指出,“‘十四五’期間,重點(diǎn)加強(qiáng)生命科學(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域的科技倫理立法研究,及時(shí)推動(dòng)將重要的科技倫理規(guī)范上升為國(guó)家法律法規(guī)”[32]。面對(duì)技術(shù)發(fā)展帶來(lái)的嚴(yán)峻挑戰(zhàn),制度化、法律化地解決人工智能情感帶來(lái)的倫理問(wèn)題,以立法保障科技倫理規(guī)范的實(shí)施十分必要。一方面,新興人工智能情感技術(shù)的倫理共識(shí)形成有一個(gè)必經(jīng)的過(guò)程,在此期間加強(qiáng)立法能夠有效保障公眾權(quán)益。另一方面,對(duì)于威脅人的主體性、侵犯人的尊嚴(yán)的情感算法,必須積極立法進(jìn)行強(qiáng)硬規(guī)制。

      4.深化人文反思

      應(yīng)對(duì)人工智能情感的倫理風(fēng)險(xiǎn),需要深化對(duì)技術(shù)的人文反思。首先,應(yīng)當(dāng)以價(jià)值理性引導(dǎo)人工智能情感技術(shù)發(fā)展,兼顧技術(shù)可行與價(jià)值認(rèn)可,深入思考“為什么要發(fā)展人工智能情感技術(shù)”。部分學(xué)者認(rèn)為技術(shù)發(fā)展帶來(lái)的問(wèn)題最終必須靠技術(shù)的進(jìn)一步發(fā)展來(lái)解決,主張通過(guò)賦予不同級(jí)別的情感機(jī)器人以不同程度的情感來(lái)解決人工智能情感產(chǎn)生的倫理問(wèn)題。實(shí)際上,這或許只是工具理性主義者的一廂情愿,難道逼真到一定程度的人工智能情感就應(yīng)當(dāng)與人享有對(duì)等的權(quán)利、義務(wù)和尊嚴(yán)了嗎?回歸價(jià)值理性的維度進(jìn)行思考,人工智能情感不只是技術(shù)實(shí)現(xiàn)層面“能不能成”“如何做成”的問(wèn)題,更是倫理反思層面“應(yīng)不應(yīng)該”“為了什么”的問(wèn)題。

      其次,應(yīng)把握“人機(jī)情感”的尺度,警惕情感工具化。人的情感是自然生發(fā)的,是與人的認(rèn)知、意識(shí)、行為相通的,與人的經(jīng)驗(yàn)、經(jīng)歷和當(dāng)下的內(nèi)心狀態(tài)相匹配。人工智能情感是對(duì)人類情感的技術(shù)模擬,將情感推向技術(shù),情感與人身脫離后被賦予“無(wú)心”的機(jī)器。理念中過(guò)度的工具理性思維可能帶來(lái)情感工具化的風(fēng)險(xiǎn)。一方面,從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動(dòng)的人員應(yīng)當(dāng)隨時(shí)保持對(duì)情感工具化的警惕,對(duì)人工智能情感的技術(shù)本質(zhì)進(jìn)行充分的說(shuō)明,把握技術(shù)模擬、影響情感的尺度。另一方面,面對(duì)人工物的情感表達(dá),公眾應(yīng)當(dāng)保持審慎思考。近期機(jī)器人心理學(xué)在實(shí)證調(diào)查中發(fā)現(xiàn),賦予人工智能情感產(chǎn)生的一系列倫理問(wèn)題根源在于人會(huì)有意識(shí)地將情感“植入”人工實(shí)體(如機(jī)器人)中[33](621)。應(yīng)引導(dǎo)人們遵從人機(jī)情感倫理規(guī)范,在強(qiáng)人工智能時(shí)代來(lái)臨之前使公眾知曉如何與其相處,把握“人機(jī)情感”“人機(jī)共生”的尺度[34](122)。比如,當(dāng)涉及制造性愛(ài)機(jī)器人以及在此類機(jī)器中輸入模擬愛(ài)情、人類戀愛(ài)心理的程序時(shí),應(yīng)該認(rèn)識(shí)到愛(ài)情關(guān)系不只是為了滿足身體欲望,使用者不要把擬像之愛(ài)誤當(dāng)成真實(shí)之愛(ài)[35](408)。

      人工智能情感技術(shù)的發(fā)展推動(dòng)了人們對(duì)“人類情感究竟是什么,又有何特殊”這一亙古不變又常談常新的話題的再審視。人工智能情感技術(shù)的發(fā)展在技術(shù)情感化的同時(shí)導(dǎo)致了情感技術(shù)化。我們?cè)谧非罂萍歼M(jìn)步的同時(shí)需要加強(qiáng)對(duì)技術(shù)發(fā)展所引發(fā)的倫理風(fēng)險(xiǎn)的反思。而要從源頭上規(guī)約人工智能情感的倫理風(fēng)險(xiǎn),須得從資本邏輯驅(qū)動(dòng)下人與技術(shù)的關(guān)系入手,深入分析人工智能情感的生發(fā)機(jī)理。

      猜你喜歡
      倫理人工智能人類
      《心之死》的趣味與倫理焦慮
      人類能否一覺(jué)到未來(lái)?
      人類第一殺手
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      1100億個(gè)人類的清明
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      人類正在消滅自然
      奧秘(2015年2期)2015-09-10 07:22:44
      南开区| 巴彦淖尔市| 梨树县| 鄂温| 五莲县| 通河县| 高平市| 元谋县| 侯马市| 南宁市| 嘉义县| 响水县| 宜君县| 蓬溪县| 枣强县| 莱西市| 布拖县| 辰溪县| 伊宁市| 白城市| 湘乡市| 兴隆县| 宝应县| 南漳县| 渝北区| 柯坪县| 安溪县| 潜江市| 中西区| 泰顺县| 东平县| 宁城县| 准格尔旗| 长治市| 顺昌县| 新化县| 灵川县| 三门峡市| 烟台市| 宁蒗| 高尔夫|