• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想研究

      2023-01-09 21:14:37顧世春
      關(guān)鍵詞:斯塔爾倫理學(xué)相關(guān)者

      顧世春

      (沈陽(yáng)建筑大學(xué) 馬克思主義學(xué)院,遼寧 沈陽(yáng) 110168)

      人工智能正快速發(fā)展和日益廣泛地被應(yīng)用。人工智能的發(fā)展和應(yīng)用給人們的生產(chǎn)生活帶來(lái)諸多福利:在家庭里,人工智能產(chǎn)品(如掃地機(jī)器人)減輕了人們的家務(wù)勞動(dòng)負(fù)擔(dān);在生產(chǎn)上,人工智能降低了生產(chǎn)成本,提高了生產(chǎn)效率;在社會(huì)治理中,人工智能為社會(huì)治理提供了新手段和便利……人工智能在給人們帶來(lái)福利的同時(shí),也引起了一些倫理問(wèn)題:侵犯隱私、算法歧視、沖擊人的自主(自由)、缺乏透明性、“好的生活”難題和安全問(wèn)題等。面對(duì)人工智能這些倫理問(wèn)題,許多技術(shù)哲學(xué)家開始關(guān)注和研究人工智能的倫理治理。這其中就包括英國(guó)技術(shù)哲學(xué)家斯塔爾(Bernd Carsten Stahl)。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想為我們解決人工智能倫理問(wèn)題、促進(jìn)人類繁榮提供了一條實(shí)用的進(jìn)路。

      一、思想背景與倫理旨趣

      近些年,人工智能加速發(fā)展,加快向社會(huì)“滲透”,隨之,人工智能的倫理問(wèn)題也增多和凸顯出來(lái),并備受人們關(guān)注。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想正是在這一背景下產(chǎn)生的。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想堅(jiān)持繁榮倫理學(xué)(flourishing ethics)[1]2,旨在塑造促進(jìn)人類繁榮(human flourishing)[1]1的人工智能生態(tài)系統(tǒng)。

      人工智能開始于20世紀(jì)50年代。1956年,麥卡錫(John McCarthy,圖靈獎(jiǎng)獲得者)、明斯基(Marvin Minsky,圖靈獎(jiǎng)獲得者)和香農(nóng)(Claude Elwood Shannon,信息論提出者)等學(xué)者在美國(guó)達(dá)特茅斯學(xué)院舉行了一次長(zhǎng)達(dá)兩個(gè)月的研討會(huì)[2]。在此次研討會(huì)上,人工智能概念被提出。本次人工智能概念的提出通常被視為人工智能發(fā)展的開端。在隨后的數(shù)十年里,人工智能在起起伏伏中向前發(fā)展。這一方面是因?yàn)橐恍┤斯ぶ悄苎芯繂?wèn)題比預(yù)期更難攻克,另一方面是因?yàn)檫€有一些人工智能研究問(wèn)題以當(dāng)時(shí)的技術(shù)是無(wú)法解決的[3]。在這一時(shí)期,人工智能的應(yīng)用有限,引發(fā)的倫理問(wèn)題也少。從20世紀(jì)90年代后期開始,人工智能加速發(fā)展。近些年,在移動(dòng)互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、大數(shù)據(jù)、腦科學(xué)等科技,以及經(jīng)濟(jì)社會(huì)發(fā)展強(qiáng)烈需求的共同推動(dòng)下,人工智能更是快速發(fā)展;同時(shí),近些年,人工智能被大量地引入社會(huì),被廣泛地應(yīng)用在人們的生產(chǎn)生活中。隨著人工智能的發(fā)展和大量引入社會(huì),人工智能的倫理問(wèn)題增多,并引起人們的關(guān)注。正是在這樣的背景下,斯塔爾形成和提出了自己的人工智能生態(tài)系統(tǒng)倫理治理思想。

      生態(tài)系統(tǒng)是生物學(xué)的一個(gè)重要概念,指一定地理區(qū)域內(nèi)動(dòng)物、植物、微生物、空氣、土壤、河流等構(gòu)成的整體。它強(qiáng)調(diào)這一系統(tǒng)(整體)的各組成部分不是孤立存在的,而是相互聯(lián)系、相互作用的。在人工智能領(lǐng)域中,有許多不同的行動(dòng)者和利益相關(guān)者。他們也不是孤立存在的,而是相互影響、相互依賴、共同發(fā)展的。人工智能領(lǐng)域的這種情形適宜從系統(tǒng)的視角描述。因此,斯塔爾把生物學(xué)中的生態(tài)系統(tǒng)概念借用到人工智能領(lǐng)域。在斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中,人工智能生態(tài)系統(tǒng)就喻指人工智能領(lǐng)域中不同行動(dòng)者、利益相關(guān)者相互聯(lián)系、相互影響構(gòu)成的系統(tǒng)。

      斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想以繁榮倫理學(xué)為倫理視角,意在塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)。繁榮倫理學(xué)是美德倫理學(xué)的一種,由美國(guó)倫理學(xué)者拜納姆于本世紀(jì)初創(chuàng)建。繁榮倫理學(xué)根源于亞里士多德的倫理學(xué),它主要包括兩大內(nèi)容:一是以人類為中心的繁榮倫理(Human-Centered Flourishing Ethics);二是普遍的繁榮倫理(General Flourishing Ethics)[4]。以人類為中心的繁榮倫理聚焦人類的行動(dòng)、價(jià)值和品質(zhì),闡述人類的繁榮問(wèn)題。普遍的繁榮倫理關(guān)注宇宙中各種物理實(shí)體,主張促進(jìn)人類、動(dòng)物、植物和行為端正的機(jī)器人等實(shí)體繁榮。斯塔爾認(rèn)為,繁榮倫理學(xué)具有三個(gè)大的優(yōu)勢(shì):一是它有助于理解和解決自己(斯塔爾)提出的三種人工智能倫理問(wèn)題,即機(jī)器學(xué)習(xí)的特殊倫理問(wèn)題、在數(shù)字世界里生活的一般倫理問(wèn)題和形而上學(xué)層面的倫理問(wèn)題[1]2。二是繁榮倫理學(xué)對(duì)其它的倫理理論(如義務(wù)論倫理學(xué)、功利論倫理學(xué))是開放的,不是拒斥的,它可以融合義務(wù)、后果等考慮。三是繁榮倫理學(xué)不僅在倫理學(xué)上具有卓越的歷史,而且在計(jì)算倫理(the ethics of computing)上也具有優(yōu)秀的歷史[1]3。正是因?yàn)榉睒s倫理學(xué)具有這些優(yōu)勢(shì),所以斯塔爾選擇繁榮倫理學(xué)作為視角研究人工智能的倫理問(wèn)題。從這一視角出發(fā),斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想以塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)為旨趣。

      二、倫理治理的元責(zé)任主體

      為了塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng),誰(shuí)應(yīng)為確保個(gè)人、組織和國(guó)家了解他們的責(zé)任和履行他們的責(zé)任負(fù)責(zé)?即誰(shuí)應(yīng)擔(dān)任人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任(meta-responsibility)[1]10主體?在斯塔爾看來(lái),應(yīng)確立人工智能生態(tài)系統(tǒng)的中心節(jié)點(diǎn)[1]110,由它們?yōu)榇_保個(gè)人、組織和國(guó)家了解他們的責(zé)任并負(fù)責(zé)其職責(zé),擔(dān)任人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體。

      元責(zé)任是斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中的一個(gè)重要術(shù)語(yǔ),指維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有責(zé)任的責(zé)任[5]712。對(duì)于元責(zé)任,本文將在下一部分元責(zé)任原則中詳細(xì)闡述。元責(zé)任主體就是為維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有責(zé)任負(fù)責(zé)的人或組織,它擔(dān)負(fù)著使個(gè)人、組織和國(guó)家了解自己的責(zé)任,并積極履行自己責(zé)任的使命。元責(zé)任主體能夠確保人工智能生態(tài)系統(tǒng)中有一個(gè)機(jī)制,讓系統(tǒng)里所有的成員都可以獲取知識(shí)、發(fā)展才能、受到指導(dǎo)和提出治理建議。元責(zé)任主體不是對(duì)現(xiàn)有治理主體,即現(xiàn)有監(jiān)管機(jī)構(gòu)的替代,相反,它是對(duì)現(xiàn)有監(jiān)管機(jī)構(gòu)人工智能倫理治理工作的有力支撐。那么,誰(shuí)來(lái)?yè)?dān)任這個(gè)元責(zé)任主體呢?斯塔爾認(rèn)為,不論是在一個(gè)國(guó)家的人工智能生態(tài)系統(tǒng)中,還是在一個(gè)地區(qū)的人工智能生態(tài)系統(tǒng)中,或是在一個(gè)組織的人工智能生態(tài)系統(tǒng)中,都應(yīng)確立一個(gè)中心節(jié)點(diǎn),作為該人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體;同時(shí),斯塔爾認(rèn)為,在一個(gè)組織的人工智能生態(tài)系統(tǒng)中,這個(gè)元責(zé)任主體可能就是一個(gè)為人工智能負(fù)責(zé)的職位。這個(gè)任職者可能被稱為人工智能官或數(shù)字官[1]111。

      斯塔爾確立中心節(jié)點(diǎn)、作為人工智能生態(tài)系統(tǒng)倫理治理元責(zé)任主體的主張是在借鑒多特伍瑞安報(bào)告(the Doteveryone report)的基礎(chǔ)上形成的。多特伍瑞安是英國(guó)的一個(gè)非營(yíng)利性組織,2018年發(fā)表了一份關(guān)于負(fù)責(zé)任的技術(shù)管理的報(bào)告[1]111,也就是本文所說(shuō)的多特伍瑞安報(bào)告。這份報(bào)告提議創(chuàng)立一個(gè)中心樞紐——負(fù)責(zé)任的技術(shù)辦公室。這個(gè)辦公室是支持和加強(qiáng)現(xiàn)有監(jiān)管機(jī)構(gòu)的?,F(xiàn)有的監(jiān)管機(jī)構(gòu)經(jīng)常缺乏針對(duì)人工智能或其它新興技術(shù)的知識(shí)和經(jīng)驗(yàn),這個(gè)辦公室為它們提供它們所缺乏的具體技術(shù)的知識(shí)。這個(gè)辦公室還是公眾參與之家和為確保技術(shù)治理矯正程序的存在和可用負(fù)責(zé)。斯塔爾說(shuō):“這樣的一個(gè)組織在政治層面上無(wú)疑是需要的,不論它被稱為監(jiān)管機(jī)構(gòu)、辦公室、中心,還是其它的什么。”[1]111斯塔爾借鑒了多特伍瑞安報(bào)告技術(shù)治理的思想,提出了確立人工智能生態(tài)系統(tǒng)的中心節(jié)點(diǎn),由它們擔(dān)任人工智能生態(tài)系統(tǒng)倫理治理元責(zé)任主體的主張。他的這一主張深化了人們對(duì)人工智能生態(tài)系統(tǒng)倫理治理的認(rèn)識(shí)。

      三、倫理治理的四項(xiàng)原則

      為了有效管理人工智能生態(tài)系統(tǒng)成員的行為和人工智能生態(tài)系統(tǒng)與外部環(huán)境的關(guān)系,推動(dòng)促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)的塑造,斯塔爾提出4項(xiàng)人工智能生態(tài)系統(tǒng)倫理治理的原則,即韌性(flexibility)原則、試探性治理(tentative governance)原則、學(xué)習(xí)能力(ability to learn)原則和元責(zé)任原則[1]103。這4項(xiàng)原則有力地回答了應(yīng)遵循什么對(duì)人工智能生態(tài)系統(tǒng)進(jìn)行倫理治理的問(wèn)題。

      1.韌性原則。在日常語(yǔ)言中,韌性是指物體在外力作用下變形但不易折斷的特性。在斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中,韌性是指具有一定的可塑度,甚至是可逆的。斯塔爾說(shuō):“韌性是人工智能生態(tài)系統(tǒng)治理的一個(gè)關(guān)鍵要求”[1]101。他之所以認(rèn)為韌性是人工智能生態(tài)系統(tǒng)治理的一個(gè)關(guān)鍵要求,原因有兩個(gè):一是人工智能生態(tài)系統(tǒng)的成員處在復(fù)雜的、非線性的關(guān)系之中;二是人工智能生態(tài)系統(tǒng)中的技術(shù)、組織等能夠迅速變化。這兩方面原因需要人工智能生態(tài)系統(tǒng)倫理治理措施具有韌性,以積極應(yīng)對(duì)這些情況。正是基于對(duì)韌性重要性的認(rèn)識(shí),斯塔爾提出韌性原則。韌性原則要求人工智能生態(tài)系統(tǒng)倫理治理措施應(yīng)具有一定的韌性,能為未來(lái)的調(diào)整、改變留下更多的選擇,以適應(yīng)人工智能生態(tài)系統(tǒng)的復(fù)雜性和變化。韌性原則有益于人工智能生態(tài)系統(tǒng)的倫理治理。

      2.試探性治理原則。試探性治理和治理方式為:治理是一個(gè)動(dòng)態(tài)的過(guò)程,在這一動(dòng)態(tài)過(guò)程中,治理是謹(jǐn)慎的,而不是武斷的,一般包括試錯(cuò)或?qū)W習(xí)過(guò)程[6]。在這一動(dòng)態(tài)過(guò)程中,治理以一種非最終性的方式進(jìn)行。試探性治理具有4個(gè)顯著特點(diǎn),即動(dòng)態(tài)性、靈活性、開放性和可修正性。試探性治理是處理不確定性問(wèn)題、復(fù)雜性問(wèn)題的一種實(shí)用進(jìn)路,它在新興科技治理領(lǐng)域有較大影響。斯塔爾將試探性治理應(yīng)用到人工智能生態(tài)系統(tǒng)倫理治理中,把它作為人工智能生態(tài)系統(tǒng)倫理治理的一項(xiàng)重要原則。斯塔爾還指導(dǎo)人們運(yùn)用這一原則:一是試探性治理需為行動(dòng)者學(xué)習(xí)、了解有關(guān)技術(shù)及這些技術(shù)的使用和評(píng)估提供空間;二是試探性治理需以利益相關(guān)者的溝通交流為基礎(chǔ)并促進(jìn)他們的交流磋商;三是試探性治理應(yīng)允許承認(rèn)錯(cuò)誤和當(dāng)發(fā)現(xiàn)原初的設(shè)想是錯(cuò)的或形成新的洞見、共識(shí)時(shí)有能力逆轉(zhuǎn)或改變?cè)肪€[1]101-102。

      3.學(xué)習(xí)能力原則。在斯塔爾看來(lái),人工智能生態(tài)系統(tǒng)倫理治理需要仔細(xì)權(quán)衡人工智能可能給人們帶來(lái)的好處與壞處,而這要求一種能力,即利用人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識(shí)和才能的能力[1]102。斯塔爾沒(méi)有明確界定學(xué)習(xí)能力,但從其有關(guān)論述來(lái)看,他所說(shuō)的學(xué)習(xí)能力主要就是指這種利用人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識(shí)和才能的能力。學(xué)習(xí)能力原則要求具有學(xué)習(xí)能力,以評(píng)估人工智能的發(fā)展,實(shí)施激勵(lì)與處罰,進(jìn)而確保和強(qiáng)化人工智能生態(tài)系統(tǒng)朝著令人滿意的、促進(jìn)人類繁榮的方向發(fā)展。另外,需要指出的是,前面談到的人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識(shí),它既包括技術(shù)知識(shí),也包括規(guī)范知識(shí),還包括過(guò)程性知識(shí)。規(guī)范知識(shí)就是倫理觀念、倫理問(wèn)題、倫理治理措施等知識(shí)。過(guò)程性知識(shí)就是組織處理倫理問(wèn)題過(guò)程的知識(shí)。前面提到的人工智能生態(tài)系統(tǒng)倫理治理有關(guān)才能就是指應(yīng)用人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識(shí)的才能。沒(méi)有這些才能,那些知識(shí)就不能轉(zhuǎn)化為實(shí)踐。

      4.元責(zé)任原則。如前面所說(shuō),元責(zé)任就是維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有責(zé)任的責(zé)任[5]112。人工智能生態(tài)系統(tǒng)不是脫離現(xiàn)有的基礎(chǔ)存在的,它們是建立在許多現(xiàn)有的責(zé)任和治理架構(gòu)上的,并且它們也包含著這些現(xiàn)有的責(zé)任和治理架構(gòu)。因此,斯塔爾提出元責(zé)任原則,主張不離開現(xiàn)有的治理基礎(chǔ),維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有的治理架構(gòu)和責(zé)任。他說(shuō),為了使人工智能生態(tài)系統(tǒng)是成功的和促進(jìn)人類繁榮,重新創(chuàng)造治理原則是沒(méi)有必要的,相反,這些人工智能生態(tài)系統(tǒng)應(yīng)當(dāng)被謹(jǐn)慎地開發(fā),以使它們幫助現(xiàn)有的治理架構(gòu)和責(zé)任關(guān)系有效運(yùn)行。他強(qiáng)調(diào):“為了促進(jìn)有益于人類繁榮的人工智能生態(tài)系統(tǒng)發(fā)展,我們不需要重新創(chuàng)造車輪,我們需要確保已經(jīng)存在的這些輪子朝向大致相同的方向和有一個(gè)穩(wěn)固的、合理的過(guò)程,確定這一方向。”[1]102在斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中,負(fù)責(zé)任地研究和創(chuàng)新(RRI)就是一種元責(zé)任。斯塔爾說(shuō),作為一種元責(zé)任,負(fù)責(zé)任地研究和創(chuàng)新就是要塑造、維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有的和新的與研究和創(chuàng)新有關(guān)的過(guò)程、行動(dòng)者和責(zé)任,以保證研究和創(chuàng)新成果使人們滿意和社會(huì)可接受[1]102。

      四、倫理治理的路徑規(guī)劃

      斯塔爾還深入探究了如何對(duì)人工智能生態(tài)系統(tǒng)進(jìn)行倫理治理的問(wèn)題。他提出了人工智能生態(tài)系統(tǒng)倫理治理的路徑。斯塔爾提出的這一路徑為有關(guān)部門和實(shí)踐者治理人工智能生態(tài)系統(tǒng)提供了指導(dǎo),有助于他們塑造出促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)。

      1.重新反思人工智能研究和創(chuàng)新與倫理之間的關(guān)系。當(dāng)前,科學(xué)卓越與倫理反思是分離的[1]106。斯塔爾認(rèn)為,為了使人工智能促進(jìn)人類繁榮,必須改變科學(xué)卓越與倫理反思分離的狀況和使人們認(rèn)識(shí)到這一技術(shù)如果沒(méi)有考慮倫理和社會(huì)后果,那么,它不是真正的卓越[1]106。為此,他建議從根本上重新反思人工智能研究、創(chuàng)新與倫理的關(guān)系和強(qiáng)調(diào)倫理在促進(jìn)人類繁榮的廣義上應(yīng)是科學(xué)卓越內(nèi)在的、不可或缺的一部分[1]106。這實(shí)際上告訴我們應(yīng)通過(guò)對(duì)人工智能研究和創(chuàng)新與倫理關(guān)系的再反思,認(rèn)識(shí)到倫理是科學(xué)卓越的一個(gè)要素??茖W(xué)只有考慮人類繁榮,只有促進(jìn)人類繁榮才能是卓越的。這里所說(shuō)的科學(xué)包括技術(shù)。科學(xué)要揭示客觀規(guī)律,要探索認(rèn)識(shí)世界、改造世界的方法,但這些都不是科學(xué)的最終目的。科學(xué)的最終目的是造福人類,促進(jìn)人類繁榮。從這一角度看,倫理在促進(jìn)人類繁榮的廣義上,的確應(yīng)當(dāng)作為科學(xué)卓越的一個(gè)要素??茖W(xué)若要成為卓越的,的確應(yīng)當(dāng)考慮和促進(jìn)人類繁榮。任何一項(xiàng)科學(xué)研究或創(chuàng)新如果沒(méi)有深思倫理和社會(huì)后果,如果沒(méi)有促進(jìn)人類繁榮,那么,它在認(rèn)識(shí)世界和改造世界上即使再有開創(chuàng)性、再領(lǐng)先,也不能被稱為“卓越的”。斯塔爾還認(rèn)為,要把預(yù)期結(jié)果、詳細(xì)的風(fēng)險(xiǎn)分析和預(yù)判到的倫理問(wèn)題的應(yīng)對(duì)措施等內(nèi)容作為研究和創(chuàng)新提議科學(xué)評(píng)估的一部分,并據(jù)此確定哪些想法可被視為卓越的和值得資助的[1]106。

      2.測(cè)量人工智能的開發(fā)和使用對(duì)人類繁榮的影響。斯塔爾認(rèn)為,我們應(yīng)測(cè)量和了解人工智能開發(fā)、使用給人類繁榮帶來(lái)的影響。他為我們提供了3種測(cè)量方法,即人類發(fā)展指數(shù)法、可持續(xù)發(fā)展目標(biāo)法和人權(quán)法。斯塔爾說(shuō):“一種確立已久的測(cè)量人類繁榮的方法是人類發(fā)展指數(shù)”[1]106。人類發(fā)展指數(shù)(HDI)由聯(lián)合國(guó)發(fā)展計(jì)劃署于1990年在《1990年人類發(fā)展報(bào)告》中提出。它是一個(gè)綜合指數(shù),用于衡量人類發(fā)展在健康長(zhǎng)壽、知識(shí)和體面生活3個(gè)基本維度上的平均成就[7]。它涉及人的預(yù)期壽命、人受教育程度和人均國(guó)民總收入(GNI)3大指標(biāo)。斯塔爾提供的人類發(fā)展指數(shù)法實(shí)際上就是通過(guò)測(cè)量人工智能對(duì)相應(yīng)范圍的人類發(fā)展指數(shù)的影響來(lái)了解人工智能對(duì)人類繁榮的影響。聯(lián)合國(guó)《變革我們的世界:2030 年可持續(xù)發(fā)展議程》規(guī)劃了17個(gè)可持續(xù)發(fā)展目標(biāo),如消除一切形式的貧困;確保包容和公平的優(yōu)質(zhì)教育,讓全民終身具有學(xué)習(xí)的機(jī)會(huì);推動(dòng)持久、包容、可持續(xù)的經(jīng)濟(jì)增長(zhǎng),促進(jìn)充分的生產(chǎn)性就業(yè)和讓人人擁有體面的工作等[8]??沙掷m(xù)發(fā)展目標(biāo)法就是通過(guò)考察人工智能對(duì)這些可持續(xù)發(fā)展目標(biāo)實(shí)現(xiàn)的影響來(lái)認(rèn)識(shí)人工智能對(duì)人類繁榮的影響。根據(jù)《世界人權(quán)宣言》,人們享有生命權(quán)、自由權(quán)、人身安全權(quán)和受教育權(quán),人們?cè)谧饑?yán)和權(quán)利上平等,人們的隱私不得被侵犯……斯塔爾建議的人權(quán)法就是通過(guò)評(píng)估人工智能對(duì)人權(quán)保護(hù)的影響來(lái)判斷人工智能對(duì)人類繁榮的影響。

      3.建立人工智能知識(shí)庫(kù)。了解人工智能能夠給人們帶來(lái)的利益和風(fēng)險(xiǎn),知曉人工智能能夠賦予使用者的能力處在任何使人工智能生態(tài)系統(tǒng)朝著促進(jìn)人類繁榮方向發(fā)展的努力的核心位置[1]108。知識(shí)在認(rèn)識(shí)和了解事物上具有重要作用,甚至是關(guān)鍵作用。因此,在使人工智能生態(tài)系統(tǒng)朝著促進(jìn)人類繁榮方向發(fā)展的努力中需要知識(shí)。但由于人工智能發(fā)展快速,這方面知識(shí)更新也快,所以斯塔爾主張建立人工智能知識(shí)庫(kù),并認(rèn)為人工智能知識(shí)庫(kù)是成功塑造人工智能生態(tài)系統(tǒng)的必要條件[1]108。斯塔爾從基礎(chǔ)、職責(zé)擔(dān)當(dāng)、基本要求3個(gè)方面闡述了這一知識(shí)庫(kù)的建立問(wèn)題。他認(rèn)為,這一知識(shí)庫(kù)應(yīng)以現(xiàn)有的知識(shí)和學(xué)術(shù)體系為基礎(chǔ)[1]108。在他看來(lái),卓越中心應(yīng)在建立和維護(hù)這一知識(shí)庫(kù)中盡主要職責(zé),即發(fā)揮主要作用[1]108。這里所說(shuō)的卓越中心是指那些居于領(lǐng)先地位的、高水平的科學(xué)研究機(jī)構(gòu),例如,英國(guó)的阿蘭·圖靈學(xué)院。斯塔爾強(qiáng)調(diào),人工智能知識(shí)庫(kù)需要在科學(xué)上是可靠的、可信的和它必須是可及的(可得到的)、可傳播的和可理解的[1]108。這種人工智能知識(shí)庫(kù)的建立有利于認(rèn)識(shí)人工智能的社會(huì)影響(包括給人們帶來(lái)的利益和給人們帶來(lái)的風(fēng)險(xiǎn)),能夠?yàn)閭惱碇卫頉Q策提供有益的支持。

      4.構(gòu)建利益相關(guān)者參與治理機(jī)制。人工智能的研發(fā)和應(yīng)用將給一些人帶來(lái)影響,這些受影響的人就是這一人工智能的利益相關(guān)者。斯塔爾認(rèn)為,欲充分認(rèn)識(shí)“3W”問(wèn)題,即“什么算是一個(gè)與人工智能有關(guān)的倫理問(wèn)題”“它為什么算是與人工智能有關(guān)的倫理問(wèn)題”“我們能夠或應(yīng)當(dāng)做什么來(lái)處理這一倫理問(wèn)題”,需要社會(huì)辯論,讓利益相關(guān)者一起討論這些問(wèn)題。他強(qiáng)調(diào),人工智能倫理不能只是技術(shù)和倫理專家思考和處理的主題,它需要更廣泛的利益相關(guān)者參與其中[1]109。引導(dǎo)人工智能生態(tài)系統(tǒng)朝著人類繁榮的方向發(fā)展需要充分認(rèn)識(shí)“3W”問(wèn)題,需要更廣泛的利益相關(guān)者參與。因此,斯塔爾主張構(gòu)建利益相關(guān)者參與治理機(jī)制。他說(shuō):“為了引導(dǎo)人工智能生態(tài)系統(tǒng)朝著人類繁榮的方向發(fā)展,他們將需要這樣的機(jī)制:這些機(jī)制使利益相關(guān)者參與活動(dòng)制度化。利益相關(guān)者的參與活動(dòng)使利益相關(guān)者擁有表達(dá)權(quán),讓他們?yōu)榧w決策做出貢獻(xiàn)?!盵1]109利益相關(guān)者參與治理機(jī)制將使許多不同方面的利益相關(guān)者參與到人工智能生態(tài)系統(tǒng)倫理治理中,他們的看法、意見將被聽取。這樣,人工智能生態(tài)系統(tǒng)的倫理治理將不只是依靠管理者、技術(shù)專家和倫理專家,而是轉(zhuǎn)變?yōu)榘ú煌嫦嚓P(guān)者在內(nèi)的群策群力。這將提高倫理治理的水平。斯塔爾在主張構(gòu)建利益相關(guān)者參與治理機(jī)制的同時(shí),還提醒注意利益相關(guān)者參與中的風(fēng)險(xiǎn)和問(wèn)題,例如避免這些活動(dòng)被特定的利益集團(tuán)操控等。

      五、思想的時(shí)代價(jià)值

      斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想是斯塔爾從繁榮倫理學(xué)的視角深入思考人工智能生態(tài)系統(tǒng)倫理治理的智慧結(jié)晶,它發(fā)展了人工智能倫理治理思想,回應(yīng)了當(dāng)下社會(huì)對(duì)人工智能倫理問(wèn)題的關(guān)切,具有不容忽視的時(shí)代價(jià)值。

      1.從理論上看,斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想引領(lǐng)人工智能倫理治理研究從技術(shù)個(gè)體層面向系統(tǒng)層面發(fā)展。從國(guó)內(nèi)外的有關(guān)文獻(xiàn)看,學(xué)術(shù)界主要從技術(shù)個(gè)體層面分析人工智能的倫理治理問(wèn)題。這里的“技術(shù)個(gè)體”是與系統(tǒng)相對(duì)的一個(gè)概念,它強(qiáng)調(diào)從個(gè)體的角度思考和研究技術(shù)。從技術(shù)個(gè)體層面研究人工智能倫理治理是重要的和必要的。它可以為人們提供人工智能倫理治理的知識(shí)和方法,可以指導(dǎo)人們科學(xué)地對(duì)人工智能進(jìn)行倫理治理;同時(shí),就像生物學(xué)一樣,人工智能倫理治理研究既需要從個(gè)體層面研究,也需要從系統(tǒng)層面研究。從系統(tǒng)層面研究人工智能的倫理治理至少有3項(xiàng)益處:一是人工智能的一些倫理問(wèn)題能夠更容易地被闡明。例如,歧視問(wèn)題更容易從包括人在內(nèi)的系統(tǒng)層面被闡釋清楚。二是有利于探尋出更多人工智能倫理治理措施。人工智能倫理治理研究從技術(shù)個(gè)體層面移動(dòng)到系統(tǒng)層面將拓展探究人工智能倫理治理措施的廣度,由此將促進(jìn)更多的人工智能倫理治理措施被提出。三是將使更多的學(xué)科(如系統(tǒng)科學(xué))參與到人工智能倫理治理的研究中來(lái)。這有助于深化人工智能倫理治理研究。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想就是從系統(tǒng)層面研究人工智能的倫理治理問(wèn)題。它把人工智能領(lǐng)域視為一個(gè)生態(tài)系統(tǒng),探究人工智能生態(tài)系統(tǒng)的倫理治理,即從生態(tài)系統(tǒng)的層面、視角研究人工智能的倫理治理。它發(fā)揮著一種示范作用,正激勵(lì)著其他學(xué)者將研究目光從技術(shù)個(gè)體層面轉(zhuǎn)向系統(tǒng)層面。

      2.從實(shí)踐上看,斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想為人工智能生態(tài)系統(tǒng)的倫理治理提供了方法論指導(dǎo),也有利于促進(jìn)人類繁榮。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想不是書齋式的學(xué)問(wèn),不是空對(duì)空的玄學(xué),它面向現(xiàn)實(shí),服務(wù)人工智能生態(tài)系統(tǒng)倫理治理實(shí)踐。它提議確立人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體,還闡述了人工智能生態(tài)系統(tǒng)倫理治理的原則、人工智能生態(tài)系統(tǒng)倫理治理的路徑。這些為有關(guān)部門和實(shí)踐者進(jìn)行人工智能生態(tài)系統(tǒng)倫理治理提供了有益指導(dǎo)。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想堅(jiān)持以人為本,站在繁榮倫理學(xué)的立場(chǎng)上,進(jìn)一步地說(shuō)就是站在以人類為中心的繁榮倫理的立場(chǎng)上闡述人工智能生態(tài)系統(tǒng)的倫理治理,意在塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng),讓技術(shù)進(jìn)步服務(wù)人類價(jià)值,造福人類。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想發(fā)出了讓人工智能生態(tài)系統(tǒng)促進(jìn)人類繁榮的時(shí)代聲音;同時(shí),它也為塑造這樣的人工智能生態(tài)系統(tǒng)提供了可行路徑。這無(wú)疑有益于促進(jìn)人類的繁榮。在這里還需要特別指出的是,如前所述,斯塔爾提出了3種測(cè)量人工智能對(duì)人類繁榮影響的方法,即人類發(fā)展指數(shù)法、可持續(xù)發(fā)展目標(biāo)法和人權(quán)法。這些方法既使我們能了解人工智能對(duì)人類繁榮的影響,又使我們知道應(yīng)在哪些方面著力,提高人工智能生態(tài)系統(tǒng)對(duì)人類繁榮的貢獻(xiàn)度。

      六、結(jié)語(yǔ)

      斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想是對(duì)時(shí)代問(wèn)題的一種積極回應(yīng)。它不是從某些倫理原則出發(fā),而是立足繁榮倫理學(xué)系統(tǒng)思考人工智能生態(tài)系統(tǒng)的倫理治理問(wèn)題。它闡明了人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體,揭示了人工智能生態(tài)系統(tǒng)倫理治理應(yīng)遵循的主要原則,從科學(xué)卓越與倫理的關(guān)系、人工智能對(duì)人類繁榮影響的測(cè)量、知識(shí)庫(kù)和利益相關(guān)者參與4個(gè)方面提出了人工智能生態(tài)系統(tǒng)倫理治理的路徑(方法)。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想既具有重要的理論價(jià)值,也具有現(xiàn)實(shí)的指導(dǎo)意義。我們理論工作者應(yīng)積極汲取斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想的養(yǎng)分,進(jìn)一步發(fā)展我國(guó)的人工智能生態(tài)系統(tǒng)倫理治理理論。我國(guó)的有關(guān)實(shí)踐者應(yīng)借鑒斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想,努力塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng),讓人工智能更好地造福人民。

      猜你喜歡
      斯塔爾倫理學(xué)相關(guān)者
      開拓·前沿·創(chuàng)新與學(xué)科建設(shè)——簡(jiǎn)評(píng)《中醫(yī)生命倫理學(xué)》
      “紀(jì)念中國(guó)倫理學(xué)會(huì)成立40周年暨2020中國(guó)倫理學(xué)大會(huì)”在無(wú)錫召開
      利益相關(guān)者視角的高???jī)效評(píng)價(jià)
      倫理批評(píng)與文學(xué)倫理學(xué)
      毛澤東關(guān)于嚴(yán)肅黨內(nèi)政治生活的四重著力點(diǎn)與啟示——基于斯塔爾的《毛澤東的政治哲學(xué)》的政治學(xué)解讀與反思
      駭圖
      華聲(2017年14期)2017-08-31 08:41:44
      美國(guó)內(nèi)戰(zhàn)老槍:斯塔爾卡賓槍
      輕兵器(2017年9期)2017-05-17 21:17:32
      利益相關(guān)者邏輯下相互作用大學(xué)共同治理機(jī)制研究
      XBRL的傳播對(duì)利益相關(guān)者參與程度的影響研究
      “蟻?zhàn)瀣F(xiàn)象”的倫理學(xué)思考
      茶陵县| 蓝山县| 蓬溪县| 成都市| 黄骅市| 宁波市| 峨眉山市| 吴川市| 张家界市| 淮阳县| 正定县| 鄢陵县| 宣汉县| 界首市| 仁化县| 沙田区| 万山特区| 鄂伦春自治旗| 文登市| 普洱| 武鸣县| 大同市| 库尔勒市| 登封市| 江油市| 商河县| 治县。| 林州市| 灵璧县| 区。| 奎屯市| 毕节市| 醴陵市| 张家口市| 新平| 香河县| 绥化市| 桃江县| 东山县| 彭水| 大方县|