• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能創(chuàng)新發(fā)展中的道德風(fēng)險(xiǎn)研究*

      2020-01-19 17:44:34常曉亭
      關(guān)鍵詞:道德風(fēng)險(xiǎn)倫理道德

      常曉亭

      (廣州中醫(yī)藥大學(xué)馬克思主義學(xué)院,廣東 廣州 510006,283952830@qq.com)

      人工智能設(shè)備如無(wú)人駕駛汽車、服務(wù)型機(jī)器人、軍用機(jī)器人等半自主性決策,甚至自主性決策的人工智能系統(tǒng)越來(lái)越多地進(jìn)入社會(huì)生活中,給人們的生活帶來(lái)了便利,也為企業(yè)帶來(lái)巨大效益,但也產(chǎn)生了道德風(fēng)險(xiǎn)問(wèn)題,如無(wú)人駕駛汽車倫理困境、數(shù)據(jù)隱私泄露、自主性武器傷害無(wú)辜生命等。人工智能道德風(fēng)險(xiǎn)的研究可以分為兩個(gè)方面,一是從外部加強(qiáng)人工智能倫理建設(shè)和管理;二是從技術(shù)內(nèi)部提高人工智能道德維度的安全性[1]。2019年4月8日,歐盟委員會(huì)發(fā)布了人工智能倫理指導(dǎo)原則,然而,為響應(yīng)歐盟委員會(huì)的人工智能倫理指導(dǎo)原則而成立的谷歌道德小組,僅存在一周便解散。其原因之一是該小組的一名委員反對(duì)保障同性戀和變性人同等權(quán)利的法律,從而導(dǎo)致了谷歌員工對(duì)該委員的資格產(chǎn)生了異議。由此可見人工智能道德風(fēng)險(xiǎn)問(wèn)題的棘手性及人們對(duì)該問(wèn)題的嚴(yán)謹(jǐn)與審慎的態(tài)度。同時(shí)也表明了人工智能道德倫理的建設(shè)不可能是一蹴而就的,將是一個(gè)需要從全方面、多角度進(jìn)行探索的過(guò)程。在2018年中共中央政治局的一次就人工智能的集體學(xué)習(xí)中,習(xí)近平指出“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國(guó)家安全,確保人工智能安全、可靠、可控。”[2]因此,從“風(fēng)險(xiǎn)社會(huì)”理論的視角出發(fā),結(jié)合現(xiàn)代技術(shù)風(fēng)險(xiǎn)的特點(diǎn),對(duì)人工智能道德風(fēng)險(xiǎn)的成因、表現(xiàn)、影響及規(guī)避途徑進(jìn)行分析與研究,或許是一次有益的嘗試,將有助于完善人工智能風(fēng)險(xiǎn)管理體制,促進(jìn)該技術(shù)穩(wěn)健發(fā)展。

      1 人工智能道德風(fēng)險(xiǎn)的內(nèi)涵與表現(xiàn)

      人工智能道德風(fēng)險(xiǎn)可以理解為人工智能技術(shù)帶來(lái)倫理結(jié)果的不確定性,具體有兩方面表現(xiàn),一是技術(shù)設(shè)計(jì)階段所產(chǎn)生的道德風(fēng)險(xiǎn),主要有道德算法風(fēng)險(xiǎn)和道德決策風(fēng)險(xiǎn);二是技術(shù)應(yīng)用階段所產(chǎn)生的道德風(fēng)險(xiǎn),主要有人類主體地位被削弱的風(fēng)險(xiǎn)、數(shù)據(jù)隱私泄露風(fēng)險(xiǎn)、道德標(biāo)準(zhǔn)固化的風(fēng)險(xiǎn)和感染道德型計(jì)算機(jī)病毒的風(fēng)險(xiǎn)等。

      1.1 技術(shù)設(shè)計(jì)階段產(chǎn)生的道德風(fēng)險(xiǎn)

      首先是人工智能道德算法風(fēng)險(xiǎn)。人工智能和神經(jīng)科學(xué)倫理學(xué)專家溫德爾·瓦拉赫(Wendell Wallach)和認(rèn)知科學(xué)家科林·艾倫(Colin Allen)在他們合著的《道德機(jī)器:如何讓機(jī)器人明辨是非》書中提出來(lái)的三大進(jìn)路,即自上而下式進(jìn)路、自下而上式進(jìn)路和混合式進(jìn)路是關(guān)于人工智能的道德算法的設(shè)計(jì)中最典型的方法。自上而下式進(jìn)路是為人工智能設(shè)定道德普遍原則,根據(jù)普遍原則的不同,又可以分為功利主義和道義論兩種。功利主義秉承的原則是“最大數(shù)量的人的最大幸?!?。英國(guó)哲學(xué)家杰里米·邊沁(Jeremy Benthanm)提出的“道德算術(shù)”和計(jì)算機(jī)科學(xué)家詹姆斯·吉普斯(James Gips)提出的效果論機(jī)器人的四能力是對(duì)功利主義思想的發(fā)展。道義論認(rèn)為道德的核心是責(zé)任,康德的絕對(duì)律令和黃金法則及阿西莫夫三定律可以作為其代表。自下而上式進(jìn)路是將進(jìn)化和發(fā)展的觀點(diǎn)融入人工智能的道德設(shè)計(jì)中去。阿蘭·圖靈(Alan Turing)提出的“模仿孩子的思維”以及由約翰·霍蘭德(John Holland)的遺傳算法啟發(fā)而產(chǎn)生的人工生命的觀點(diǎn)都可以視為自下而上式進(jìn)路的例子。復(fù)雜的系統(tǒng)設(shè)計(jì)中,工程師和技術(shù)專家們傾向于采用混合式進(jìn)路,即同時(shí)使用自上而下式進(jìn)路與自下而上式進(jìn)路進(jìn)行人工智能道德功能建構(gòu)。因此,要完成人工智能道德算法的設(shè)計(jì)工作就要完成兩個(gè)重要的任務(wù),必須要從兩個(gè)方面進(jìn)行研究,一是篩選出自上而下式進(jìn)路需要的道德總標(biāo)準(zhǔn);二是建立一個(gè)自下而上式進(jìn)路需要的道德能力的學(xué)習(xí)模型。第一種方法在道德總標(biāo)準(zhǔn)的制定方面,哲學(xué)、倫理學(xué)及心理學(xué)等學(xué)者一直以來(lái)對(duì)康德的絕對(duì)律令、黃金法則和阿西莫夫三大定律等諸多道德準(zhǔn)則的普適性的爭(zhēng)論,讓我們認(rèn)識(shí)到,目前任何一個(gè)道德準(zhǔn)則都有其局限性,將這些道德準(zhǔn)則設(shè)計(jì)到人工智能中,面臨復(fù)雜社會(huì)道德倫理問(wèn)題時(shí),將產(chǎn)生不可預(yù)知的倫理結(jié)果。即使我們確定了較完善的道德總標(biāo)準(zhǔn),將這些道德標(biāo)準(zhǔn)轉(zhuǎn)化為程序時(shí)也不能做到完全精準(zhǔn),出現(xiàn)轉(zhuǎn)化不對(duì)稱的風(fēng)險(xiǎn)。第二種方法中自下而上式進(jìn)路側(cè)重以實(shí)際環(huán)境為背景的道德能力學(xué)習(xí)模型,要從實(shí)驗(yàn)室走進(jìn)現(xiàn)實(shí)社會(huì)環(huán)境,這其中的巨大的環(huán)境因素的差距是不能忽視的。一個(gè)小的錯(cuò)誤的道德標(biāo)準(zhǔn)的學(xué)習(xí),可能產(chǎn)生嚴(yán)重影響社會(huì)的結(jié)果。

      其次是人工智能道德決策風(fēng)險(xiǎn)??梢苑譃閮蓚€(gè)方面,一是道德決策設(shè)定方面,二是人工智能體參與實(shí)踐方面。在道德決策設(shè)定方面,一方面需要由政府、企業(yè)和技術(shù)專家等相關(guān)利益主體進(jìn)行風(fēng)險(xiǎn)評(píng)估。在此過(guò)程中,由于技術(shù)本身的不確定性,人們很難做出準(zhǔn)確的風(fēng)險(xiǎn)評(píng)估,因此,在風(fēng)險(xiǎn)評(píng)估的基礎(chǔ)上做出來(lái)的道德決策便具有一定的風(fēng)險(xiǎn)性;另一方面人工智能是面向社會(huì)公眾的,其產(chǎn)生的道德風(fēng)險(xiǎn)也是面向社會(huì)和公眾的。僅有政府、企業(yè)和技術(shù)專家所作出來(lái)的道德決策不僅在某種程度上是對(duì)社會(huì)公眾決策權(quán)的剝奪,呈現(xiàn)一定的不公正性,而且很可能會(huì)出于自身利益團(tuán)體的考慮而導(dǎo)致?lián)p害到社會(huì)公眾的利益。在人工智能體參與實(shí)踐方面,人工智能體參與到實(shí)踐活動(dòng)中去產(chǎn)生的道德決策風(fēng)險(xiǎn)最為著名的就是“自動(dòng)駕駛汽車的倫理困境”。自動(dòng)駕駛儀在面臨倫理困境時(shí),“學(xué)術(shù)界已經(jīng)提出兩種相互競(jìng)爭(zhēng)的解決方案:強(qiáng)制的倫理設(shè)定和個(gè)人的倫理設(shè)定?!盵3]但無(wú)論是“強(qiáng)制的倫理設(shè)定”還是“個(gè)人的倫理設(shè)定”其背后的算法設(shè)定無(wú)外乎兩種,即功利主義算法和道義論算法。道義論算法被質(zhì)疑會(huì)引起社會(huì)的不公平,功利主義算法因其秉承社會(huì)效益最大化的原則而更具合理性。但是功利主義雖然確保了事故中大多數(shù)人的利益,但卻損害了相對(duì)應(yīng)的少數(shù)人的利益,剝奪了事故中少數(shù)人的安全正當(dāng)性。因此無(wú)論哪種道德決策,都會(huì)產(chǎn)生一定的道德風(fēng)險(xiǎn)。也許隨著技術(shù)的發(fā)展,人工智能可以做出比人類更好的道德決策,但至少目前這種道德決策風(fēng)險(xiǎn)是現(xiàn)實(shí)存在的。

      1.2 技術(shù)應(yīng)用階段產(chǎn)生的道德風(fēng)險(xiǎn)

      首先是人類主體地位受到挑戰(zhàn)的風(fēng)險(xiǎn)。人工智能作為一項(xiàng)技術(shù)應(yīng)該為人類謀求福祉,而不應(yīng)該阻礙人類發(fā)展甚至威脅人類命運(yùn)。但是隨著人工智能道德維度自主性的不斷提高,它在社會(huì)關(guān)系中扮演了越來(lái)越重要的角色,這在一定程度上削弱了人的道德主體的地位。例如目前的支持決策工具(DSTs)就被社會(huì)學(xué)家巴蒂雅·弗里德曼(Batya Fridman)和皮特·卡恩(Peter Kahn)認(rèn)為“可能導(dǎo)向一個(gè)人類決策者放棄道德責(zé)任的滑坡謬誤?!盵4]33人工智能技術(shù)越完善,人們對(duì)其信賴及依賴程度越高,完全自主的決策系統(tǒng)也越可能到來(lái)。當(dāng)自主決策系統(tǒng)到來(lái)時(shí),直接參與道德行為產(chǎn)生的結(jié)果是否符合人類的預(yù)期并為人類所掌控將不得而知。

      其次是數(shù)據(jù)信息泄露的風(fēng)險(xiǎn)。大數(shù)據(jù)是人工智能的一個(gè)重要支撐,一是在進(jìn)行人工智能道德算法時(shí)需要收集大量數(shù)據(jù)信息,二是在使用過(guò)程中會(huì)預(yù)先存儲(chǔ)或者在現(xiàn)實(shí)環(huán)境的運(yùn)行中存儲(chǔ)數(shù)據(jù)信息作為經(jīng)驗(yàn)案例。這些數(shù)據(jù)信息的來(lái)源和存儲(chǔ)都涉及人們的個(gè)體隱私,但公眾對(duì)這些數(shù)據(jù)信息的私密性重視程度不夠使得許多隱私數(shù)據(jù)信息的獲取十分容易。而且在數(shù)據(jù)隱私安全性方面也存在隱患,例如目前投入市場(chǎng)的家用機(jī)器人,其在投入使用時(shí)需要存儲(chǔ)家庭中的數(shù)據(jù)信息,一旦出現(xiàn)黑客入侵問(wèn)題,就面臨隱私泄露的風(fēng)險(xiǎn)。

      再次是道德標(biāo)準(zhǔn)固化的風(fēng)險(xiǎn)。人工智能道德標(biāo)準(zhǔn)固化可以分為兩個(gè)方面,一是其內(nèi)置的道德標(biāo)準(zhǔn)的固化,二是社會(huì)道德標(biāo)準(zhǔn)的固化。人工智能內(nèi)置的道德標(biāo)準(zhǔn)的固化表現(xiàn)在,具有社會(huì)性質(zhì)的道德倫理原則和準(zhǔn)則在不同地域和不同的歷史條件下往往具有很大差異,而且道德建構(gòu)時(shí)的數(shù)據(jù)收集往往是抽樣的、有限的,隨著時(shí)間的推移和社會(huì)倫理規(guī)則的不斷融合與演化,人工智能道德系統(tǒng)部分不能因時(shí)因地的更新,在面對(duì)最新的道德倫理問(wèn)題時(shí),不可避免地將產(chǎn)生錯(cuò)誤的行為結(jié)果,帶來(lái)負(fù)道德效應(yīng)。而社會(huì)道德標(biāo)準(zhǔn)的固化,對(duì)人工智能的發(fā)展是不利的,新技術(shù)需要新的倫理標(biāo)準(zhǔn)來(lái)推動(dòng),目前的人工智能倫理準(zhǔn)則不能很好規(guī)約該技術(shù)的發(fā)展和應(yīng)用中的問(wèn)題,導(dǎo)致出現(xiàn)諸多問(wèn)題。

      最后還有由于技術(shù)失控而產(chǎn)生的道德風(fēng)險(xiǎn)。目前越來(lái)越多的人工智能產(chǎn)品投入市場(chǎng),應(yīng)用于人們的日常生活和工業(yè)生產(chǎn)等方面,但其技術(shù)安全性目前尚不完全成熟,有可能會(huì)產(chǎn)生失誤和傷害。自動(dòng)駕駛汽車的技術(shù)差錯(cuò)在實(shí)際環(huán)境中便是關(guān)系到個(gè)體生命安全的重大問(wèn)題,美國(guó)軍用機(jī)器人在伊拉克戰(zhàn)場(chǎng)上射殺的無(wú)辜平民的真實(shí)案例也已經(jīng)發(fā)生。家用機(jī)器人、服務(wù)型機(jī)器人等智能服務(wù)系統(tǒng)如果感染病毒,對(duì)人身的直接傷害也是顯而易見的。在這些案例中,如果內(nèi)置的道德準(zhǔn)則被推翻,那么,人工智能很可能會(huì)違背阿西莫夫三大定律的第一條“不傷害人”的原則,對(duì)社會(huì)道德倫理產(chǎn)生惡劣的影響。

      2 人工智能道德風(fēng)險(xiǎn)的成因分析

      人工智能道德風(fēng)險(xiǎn)的成因可以從三個(gè)方面分析:一是主體層面,主要是相關(guān)主體如技術(shù)專家、 企業(yè)、政府和公眾等由于自身的特點(diǎn)產(chǎn)生的。二是技術(shù)層面,主要有技術(shù)本身創(chuàng)新發(fā)展中的不可控性和人工智能道德倫理的系統(tǒng)建構(gòu)在技術(shù)方面還有待提高。三是社會(huì)層面,主要有政治、經(jīng)濟(jì)、文化等因素的影響。

      2.1 主體成因

      工程師和科學(xué)家是人工智能道德風(fēng)險(xiǎn)的直接制造者,韋德與布勞德認(rèn)為科學(xué)研究活動(dòng)中技術(shù)實(shí)踐者的誠(chéng)信缺失是造成科技道德風(fēng)險(xiǎn)的成因之一。人工智能的實(shí)際編碼工作是由工程師來(lái)書寫的,在此過(guò)程中工程師的個(gè)人道德素養(yǎng)和社會(huì)道德價(jià)值取向便體現(xiàn)在了轉(zhuǎn)化代碼中,以一種隱性的方式滲入道德程序中,最終出現(xiàn)在人工智能的道德倫理行為中,產(chǎn)生了一定程度上人工智能技術(shù)中的個(gè)人道德偏見。傳統(tǒng)倫理學(xué)認(rèn)為只有人類才是目的,才可以成為道德能動(dòng)者。20世紀(jì)出現(xiàn)的非人類中心主義將道德對(duì)象從人類擴(kuò)大到了一切生物,而人工智能道德功能的建構(gòu)無(wú)疑就是非人類中心主義思想的體現(xiàn)。隨著人工智能道德自主性的不斷提高,其去人類道德中心主義也越來(lái)越明顯。

      政府和企業(yè)也應(yīng)該積極承擔(dān)起應(yīng)對(duì)人工智能道德風(fēng)險(xiǎn)的責(zé)任。隨著技術(shù)的發(fā)展,其受政治的干預(yù)日益增強(qiáng)。人工智能技術(shù)全球化特點(diǎn)顯著,其道德風(fēng)險(xiǎn)理應(yīng)得到高度重視。各國(guó)政府基于本國(guó)國(guó)民的經(jīng)濟(jì)效益考慮,在面對(duì)復(fù)雜的國(guó)際環(huán)境時(shí),都想把控人工智能發(fā)展方向,擁有全球主導(dǎo)權(quán)。這勢(shì)必會(huì)造成人工智能技術(shù)國(guó)際合作緊張化,不能夠形成很好的全球調(diào)控作用,以至于留下空隙讓人工智能對(duì)全人類的道德倫理發(fā)起了挑戰(zhàn)。而企業(yè)則以盈利為目的,合理的生產(chǎn)及銷售獲得合理的經(jīng)濟(jì)效益也是正常的,但是目前人工智能作為不斷創(chuàng)新發(fā)展中的現(xiàn)代技術(shù),其技術(shù)穩(wěn)定性還不能完全保證,高風(fēng)險(xiǎn)也沒有充分得到評(píng)估。風(fēng)險(xiǎn)社會(huì)學(xué)家烏爾里?!へ惪?Ulrich Beck)[5]認(rèn)為企業(yè)通常會(huì)優(yōu)先考慮自身經(jīng)濟(jì)利益,其次才考慮社會(huì)公眾的利益,甚至?xí)幸庖龑?dǎo)公眾對(duì)技術(shù)風(fēng)險(xiǎn)的忽視。此外,政府和企業(yè)對(duì)人工智能技術(shù)的科普力度不夠,致使公眾對(duì)該技術(shù)沒有達(dá)到一定的認(rèn)知水平。比如對(duì)自我隱私不夠重視、被有目的的信息宣傳所蒙蔽以至于對(duì)人工智能道德風(fēng)險(xiǎn)的認(rèn)知不準(zhǔn)確、主觀臆造人工智能對(duì)人類帶來(lái)的風(fēng)險(xiǎn)等,都會(huì)對(duì)人工智能的道德倫理建設(shè)產(chǎn)生消極的影響。

      2.2 技術(shù)成因

      技術(shù)創(chuàng)新是一個(gè)發(fā)展的過(guò)程,各種新知識(shí)更新的速度和頻率是不可控的,其中的道德因素的不可控性尤為顯著。法國(guó)技術(shù)哲學(xué)家貝爾納·斯蒂格勒(Bernard stigler)[6]認(rèn)為不確定性體現(xiàn)了一切技術(shù)物的本質(zhì)。人工智能技術(shù)作為不斷創(chuàng)新發(fā)展的現(xiàn)代技術(shù),無(wú)論是在技術(shù)階段還是運(yùn)行階段都有諸多不確定性。尤其是人工智能道德功能的建構(gòu),其本質(zhì)上是為了應(yīng)對(duì)人工智能的風(fēng)險(xiǎn)問(wèn)題產(chǎn)生的,但其自身也存在著相應(yīng)的風(fēng)險(xiǎn),這就意味著我們?cè)谑褂糜酗L(fēng)險(xiǎn)的技術(shù)來(lái)控制技術(shù)風(fēng)險(xiǎn),從而很可能產(chǎn)生巨大的有損社會(huì)道德倫理準(zhǔn)則的風(fēng)險(xiǎn)。其次人工智能道德倫理的系統(tǒng)建構(gòu)在技術(shù)方面還有待提高。自上而下式的道德設(shè)計(jì)進(jìn)路的缺點(diǎn)是產(chǎn)生人工智能道德標(biāo)準(zhǔn)固化風(fēng)險(xiǎn)的原因之一。人工智能在應(yīng)用到社會(huì)關(guān)系時(shí),其本身的以自上而下式進(jìn)路內(nèi)置的道德準(zhǔn)則是固定的,社會(huì)卻是不斷發(fā)展與更迭的,道德倫理標(biāo)準(zhǔn)也在不斷演變與更新。人工智能中固定的道德標(biāo)準(zhǔn)不能夠完全應(yīng)對(duì)時(shí)時(shí)更新的倫理問(wèn)題,這構(gòu)成了道德標(biāo)準(zhǔn)固化風(fēng)險(xiǎn)的技術(shù)成因。自下而上式進(jìn)路需要在數(shù)據(jù)環(huán)境中學(xué)習(xí),這個(gè)學(xué)習(xí)過(guò)程中許多不可控因素是產(chǎn)生道德風(fēng)險(xiǎn)的另一原因。此外由于技術(shù)發(fā)展中不可避免的異化現(xiàn)象推動(dòng)著人工智能道德自主性不斷提高,使得人工智能開始直接參與道德行為,導(dǎo)致人類喪失部分的道德責(zé)任的主動(dòng)權(quán),產(chǎn)生人類的責(zé)任主體地位受到挑戰(zhàn)的風(fēng)險(xiǎn)。

      2.3 社會(huì)成因

      首先在政治方面,政治對(duì)人工智能技術(shù)發(fā)展的過(guò)多干預(yù)是產(chǎn)生巨大道德風(fēng)險(xiǎn)的成因之一。目前有關(guān)人工智能國(guó)際倫理規(guī)則的制定,大多來(lái)自擁有尖端技術(shù)的西方發(fā)達(dá)國(guó)家。而發(fā)達(dá)國(guó)家與發(fā)展中國(guó)家的技術(shù)價(jià)值觀和道德制定標(biāo)準(zhǔn)是有差異的,這也會(huì)造成某種程度上的人工智能道德風(fēng)險(xiǎn)。如在軍事方面,20世紀(jì)80年代的美蘇軍備競(jìng)賽中曾引入搭載核武器的船艦,這些艦船取消了十分鐘屏障,由計(jì)算機(jī)進(jìn)行數(shù)據(jù)分析和自動(dòng)執(zhí)行運(yùn)算結(jié)果。在關(guān)乎生命死亡的重大事項(xiàng)上,人類反而失去了決策權(quán)。2007年美國(guó)陸軍又資助計(jì)算機(jī)專家羅納德·阿金(Ronald Arkin)[4]16研發(fā)軍用機(jī)器人所要遵守的戰(zhàn)爭(zhēng)倫理準(zhǔn)則的軟件。很明顯,無(wú)論這些軟件中的倫理準(zhǔn)則是什么,基于軍用機(jī)器人的作戰(zhàn)特性,它們都將違背阿西莫夫第一定律,即“不能傷害或殺害人類”。這種為實(shí)現(xiàn)政治霸權(quán)而致力于殺人軍用機(jī)器人的研究,對(duì)人類生命將造成極大的威脅。

      其次在經(jīng)濟(jì)方面,一味追求技術(shù)的經(jīng)濟(jì)效益而忽視人類福祉和代際發(fā)展是產(chǎn)生人工智能道德風(fēng)險(xiǎn)的又一成因。在人們關(guān)注人工智能技術(shù)帶來(lái)的巨大的經(jīng)濟(jì)效益時(shí),卻在一定程度上忽視了其產(chǎn)生的道德風(fēng)險(xiǎn)。人工智能不僅威脅到人的主體地位而且還關(guān)乎到人類未來(lái)命運(yùn)。傳統(tǒng)的道德倫理規(guī)范已經(jīng)不能滿足人工智能在當(dāng)今社會(huì)關(guān)系中的需要,而新的倫理規(guī)范沒有及時(shí)跟進(jìn),直接影響了對(duì)人工智能道德功能建構(gòu)各個(gè)階段的把控力度,這在某種程度上損害了社會(huì)公眾的利益和生態(tài)效益。

      最后在文化方面,技術(shù)價(jià)值觀人文信仰等因素也對(duì)人工智能道德風(fēng)險(xiǎn)的產(chǎn)生有一定的影響。如技術(shù)樂觀主義傾向于繼續(xù)提高人工智能道德的自主性,來(lái)實(shí)現(xiàn)人工智能自我道德約束;而技術(shù)悲觀主義者則對(duì)此持消極態(tài)度,認(rèn)為人工智能道德自主性的提高會(huì)對(duì)人類的主體地位產(chǎn)生不利影響,因此抵觸人工智能道德自主性的發(fā)展。

      3 人工智能道德風(fēng)險(xiǎn)的防范與治理

      在人工智能道德風(fēng)險(xiǎn)成因的基礎(chǔ)上,人工智能道德風(fēng)險(xiǎn)的規(guī)避途徑的探尋也可從主體層面、技術(shù)層面和社會(huì)層面三個(gè)方面展開。

      3.1 主體層面

      人工智能道德風(fēng)險(xiǎn)具有不同于傳統(tǒng)工業(yè)社會(huì)的現(xiàn)代技術(shù)風(fēng)險(xiǎn)的特點(diǎn),即人為性、責(zé)任側(cè)重定位到個(gè)體或團(tuán)體的特性,因此所涉及的主體的道德建設(shè)便顯示出了其獨(dú)特的時(shí)代意義。人工智能道德風(fēng)險(xiǎn)所涉及的主體主要有技術(shù)專家、企業(yè)、政府及公眾等,另外隨著人工智能自身智能特性的不斷提高,人工智能體作為道德接受者或者發(fā)出者的情況也逐漸進(jìn)入人們的視野,因此人工智能體作為道德風(fēng)險(xiǎn)主體的情況也應(yīng)該充分考慮。

      引導(dǎo)人工智能技術(shù)專家正確的技術(shù)價(jià)值觀和呼吁企業(yè)的社會(huì)責(zé)任擔(dān)當(dāng)對(duì)應(yīng)對(duì)人工智能道德風(fēng)險(xiǎn)而言具有重要意義。技術(shù)專家是人工智能道德風(fēng)險(xiǎn)最直接的制造者,其自身要樹立正確的技術(shù)價(jià)值觀,重視職業(yè)道德素養(yǎng),具有人道主義精神,不能為利益所裹挾而忽視了人工智能道德風(fēng)險(xiǎn)對(duì)人類及人類未來(lái)而言的重大意義。同時(shí)也要為技術(shù)專家營(yíng)造良好的職業(yè)發(fā)展空間,從制度上保證技術(shù)專家的獨(dú)立性。此外,還要有明確的激勵(lì)機(jī)制,提高人工智能道德風(fēng)險(xiǎn)的成本,加強(qiáng)技術(shù)專家的個(gè)體責(zé)任感和集體責(zé)任感。企業(yè)對(duì)人工智能道德風(fēng)險(xiǎn)也應(yīng)該承擔(dān)相應(yīng)的社會(huì)責(zé)任。人工智能道德自主性越來(lái)越高,人工智能產(chǎn)品參與社會(huì)關(guān)系的比重也越來(lái)越大,這就要求企業(yè)要確保投入市場(chǎng)的人工智能道德責(zé)任主體明確,指向清晰,不能只為企業(yè)私利而將目前道德責(zé)任主體模糊的人工智能產(chǎn)品大量投入市場(chǎng),要為企業(yè)的長(zhǎng)遠(yuǎn)發(fā)展和社會(huì)公眾利益考慮,體現(xiàn)出一個(gè)值得信賴的企業(yè)的責(zé)任與擔(dān)當(dāng)。

      政府的有效監(jiān)管是規(guī)避人工智能道德風(fēng)險(xiǎn)的重要環(huán)節(jié)。政府要加強(qiáng)對(duì)技術(shù)發(fā)展方向和企業(yè)人工智能產(chǎn)品運(yùn)行情況的監(jiān)管,人工智能產(chǎn)品在社會(huì)關(guān)系中產(chǎn)生的事故責(zé)任要明確,處理事故問(wèn)題要快速有決斷力,讓社會(huì)公眾在人工智能技術(shù)發(fā)展中真正受益。加快跟進(jìn)人工智能道德倫理標(biāo)準(zhǔn)的制定,在涉及人工智能與社會(huì)道德倫理關(guān)系時(shí),一定要確保人的完全的監(jiān)督能力,不能讓人工智能威脅到人的道德主體地位。開展人工智能道德風(fēng)險(xiǎn)的科普工作,提高公眾的道德風(fēng)險(xiǎn)意識(shí),樹立公眾正確的技術(shù)價(jià)值觀,不盲從輕信和主觀臆斷技術(shù)風(fēng)險(xiǎn),讓人工智能在安全的基礎(chǔ)上發(fā)揮其最大的社會(huì)效益,真正推動(dòng)技術(shù)穩(wěn)健發(fā)展。

      此外,應(yīng)加強(qiáng)人工智能的產(chǎn)出控制。隨著人工智能道德自主性的不斷提高,其作為道德主體而產(chǎn)生相應(yīng)的道德風(fēng)險(xiǎn)的情況也有可能出現(xiàn)。要嚴(yán)格控制其生產(chǎn)質(zhì)量和投放市場(chǎng)的數(shù)量,加強(qiáng)售后觀察,保證人工智能系統(tǒng)在特定范圍內(nèi)運(yùn)行,保證人類的絕對(duì)監(jiān)督權(quán)和管理權(quán)。

      3.2 技術(shù)層面

      從技術(shù)外部看,實(shí)現(xiàn)技術(shù)民主化是應(yīng)對(duì)人工智能道德風(fēng)險(xiǎn)的一個(gè)重要舉措。人工智能道德風(fēng)險(xiǎn)涉及的不僅僅是計(jì)算機(jī)專業(yè)的問(wèn)題,由于其復(fù)雜性,需要更多的領(lǐng)域參與技術(shù)設(shè)計(jì)和決策中來(lái)。首先,從人工智能技術(shù)專家的組成來(lái)看,有必要讓哲學(xué)家、心理學(xué)家、倫理學(xué)家等相關(guān)學(xué)科的學(xué)者參與進(jìn)來(lái),并且將政府、企業(yè)、公眾的建議納入?yún)⒖挤秶?。其次,要確保技術(shù)透明性和安全性,尤其是人工智能的數(shù)據(jù)信息的隱私保護(hù),正如歐盟委員會(huì)制定的人工智能七大原則中指出“人工智能系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是安全的、私有的。它不應(yīng)該讓任何人接觸,也不應(yīng)該輕易被盜”[7]。

      從技術(shù)內(nèi)部看,提高人工智能道德設(shè)計(jì)的安全性是一個(gè)重要的措施。瓦拉赫與艾倫提出了人工道德智能體(Artificial Moral Agents)的概念,從自主性和對(duì)價(jià)值的敏感性這兩個(gè)維度出發(fā)進(jìn)行設(shè)計(jì)。人工智能奇點(diǎn)研究所的創(chuàng)始人之一的埃利澤·尤德科夫斯基(Eliezer yudkovsky)提出并發(fā)展了友善人工智能的概念。此外,約翰·福克斯(John Fox)提出的“危險(xiǎn)動(dòng)態(tài)管理”理論對(duì)人工智能道德設(shè)計(jì)也有重要的參考意義。他提出在醫(yī)療領(lǐng)域的人工智能系統(tǒng)中將“靜態(tài)軟件設(shè)計(jì)”與“驗(yàn)證和危險(xiǎn)的動(dòng)態(tài)管理”結(jié)合,將能夠識(shí)別潛在危險(xiǎn)的智能系統(tǒng)看作獨(dú)立的行為主體,與主系統(tǒng)同時(shí)運(yùn)行[1]。同樣,在人工智能道德設(shè)計(jì)的自下而上式進(jìn)路中設(shè)置一個(gè)識(shí)別與管理潛在危險(xiǎn)的獨(dú)立智能系統(tǒng),對(duì)有悖于內(nèi)置倫理規(guī)則的錯(cuò)誤學(xué)習(xí)有很好的規(guī)避作用。

      3.3 社會(huì)層面

      在政治方面,應(yīng)加強(qiáng)國(guó)際政治合作,充分發(fā)揮對(duì)人工智能技術(shù)政治上的正向干預(yù)?,F(xiàn)代技術(shù)越來(lái)越多地受到政府干預(yù),而且這種政治干預(yù)全球化趨勢(shì)明顯。貝克認(rèn)為我們已經(jīng)處在了一個(gè)世界風(fēng)險(xiǎn)的社會(huì),“現(xiàn)代化風(fēng)險(xiǎn)具有一種內(nèi)在固有的全球化趨勢(shì)”[8]。人工智能道德風(fēng)險(xiǎn)即是如此,它是全人類要面對(duì)的風(fēng)險(xiǎn),尤其是人工智能道德自主性的不斷提高所帶來(lái)的代際風(fēng)險(xiǎn),更是對(duì)人類未來(lái)帶來(lái)巨大威脅。因此,應(yīng)該將該風(fēng)險(xiǎn)防控上升到全球政治高度,加強(qiáng)國(guó)際合作,建立“全球治理”機(jī)制,運(yùn)用世界“力量”來(lái)應(yīng)對(duì)。此外,道德倫理準(zhǔn)則應(yīng)隨著社會(huì)的發(fā)展而發(fā)展。在當(dāng)今世界逐漸全球化的趨勢(shì)下,應(yīng)該致力于創(chuàng)建新的全球倫理,積極研究與制定全球人工智能倫理原則,以國(guó)際人工智能倫理標(biāo)準(zhǔn)為原則,因時(shí)因地制宜才能更好地應(yīng)對(duì)人工智能道德風(fēng)險(xiǎn)。

      在經(jīng)濟(jì)方面,要將保證全人類的利益作為技術(shù)發(fā)展的第一原則。人工智能道德風(fēng)險(xiǎn)關(guān)乎人類未來(lái)的發(fā)展,必須審慎對(duì)待,做好規(guī)避工作,確保人工智能技術(shù)最終目的是造福人類,而不是妨害人類自身主體發(fā)展。企業(yè)也不能一味只考慮經(jīng)濟(jì)效益,正如漢斯·倫克(Hans runk)在其所主張的“責(zé)任倫理”中強(qiáng)調(diào),要避免“有組織的不負(fù)責(zé)任”。企業(yè)應(yīng)該重視內(nèi)部道德標(biāo)準(zhǔn)的提高,進(jìn)行及時(shí)有效的技術(shù)風(fēng)險(xiǎn)評(píng)估和自我監(jiān)督,自覺全面做好人工智能道德風(fēng)險(xiǎn)的應(yīng)對(duì)工作。

      最后還要考慮到文化因素的作用。作為現(xiàn)代技術(shù)的人工智能技術(shù)的道德風(fēng)險(xiǎn)具有顯著的人為性,對(duì)此應(yīng)該重視加強(qiáng)人工智能界專業(yè)人員的道德教育,將哲學(xué)、心理學(xué)和倫理學(xué)等學(xué)科吸納進(jìn)來(lái),加快技術(shù)人員對(duì)人工智能道德風(fēng)險(xiǎn)全面準(zhǔn)確的認(rèn)知與把控。從人類命運(yùn)共同體的角度出發(fā),加強(qiáng)國(guó)際文化交流,在民族文化差異、宗教信仰不同的基礎(chǔ)上探討和建構(gòu)一個(gè)多層次多角度的人工智能道德風(fēng)險(xiǎn)的應(yīng)對(duì)系統(tǒng)。

      人工智能道德風(fēng)險(xiǎn)的研究是人工智能技術(shù)創(chuàng)新發(fā)展的重要環(huán)節(jié)。以“風(fēng)險(xiǎn)社會(huì)”理論為基礎(chǔ),探討人工智能道德風(fēng)險(xiǎn)的成因與表現(xiàn),響應(yīng)人工智能道德倫理建構(gòu)的發(fā)展趨勢(shì),有助于完善人工智能道德倫理建構(gòu)體系,確保人工智能創(chuàng)新發(fā)展的安全、可控、穩(wěn)健。

      猜你喜歡
      道德風(fēng)險(xiǎn)倫理道德
      《心之死》的趣味與倫理焦慮
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      跟蹤導(dǎo)練(五)(2)
      道德是否必需?——《海狼》對(duì)道德虛無(wú)主義的思考
      去哪兒網(wǎng)服務(wù)供應(yīng)鏈道德風(fēng)險(xiǎn)約束機(jī)制模型
      用道德驅(qū)散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      博弈論視角下的建筑工程外包道德風(fēng)險(xiǎn)
      醫(yī)改莫忘構(gòu)建倫理新機(jī)制
      醫(yī)患誠(chéng)信視野下的鄉(xiāng)村醫(yī)生道德風(fēng)險(xiǎn)研究
      麻栗坡县| 湘潭市| 仁布县| 宝丰县| 西和县| 汝南县| 水城县| 伽师县| 克山县| 白河县| 昭通市| 阳谷县| 绥宁县| 文山县| 新巴尔虎左旗| 武威市| 丘北县| 盐城市| 万山特区| 宾川县| 永顺县| 申扎县| 普安县| 崇明县| 礼泉县| 凤庆县| 顺昌县| 汝州市| 太康县| 宽甸| 方正县| 北票市| 大化| 奉化市| 合江县| 平昌县| 韶山市| 黄大仙区| 辛集市| 宽城| 鸡东县|