• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能算法的倫理維度

      2020-12-29 09:26:05
      關(guān)鍵詞:智能算法倫理原則

      王 天 恩

      (上海大學(xué) 社會科學(xué)學(xué)部,上海 200444)

      由于人工智能倫理不僅包括人工智能與人類的倫理關(guān)系,而且越來越涉及人工智能本身的倫理問題,更具整體性的探索必須深入到智能算法層次。在智能算法層次,倫理不再是涉及特定領(lǐng)域的問題,而是越來越呈現(xiàn)為一個貫穿整體的維度。在人工智能算法層次,倫理問題所涉及的已經(jīng)不是與智能體的理解能力甚至核心機制相分離的單純倫理領(lǐng)域,而是與人工智能算法包括核心機制及其進(jìn)化甚至機器智能體的存在性基礎(chǔ)一體化的倫理維度。

      人工智能倫理維度的最深層次就是智能算法倫理。人工智能本身倫理問題的更深入討論必須切入智能算法層次,從人工智能倫理的算法根源開始。

      一、人工智能倫理的算法根源

      人工智能發(fā)展所引發(fā)的倫理問題可以大致劃分為兩種基本類型:一是通用人工智能發(fā)展給人類帶來的存在性風(fēng)險引發(fā)的倫理問題;二是專用人工智能引發(fā)的技術(shù)性倫理問題。專用人工智能引發(fā)的倫理問題又可以分為兩類:專用人工智能的算法設(shè)計和應(yīng)用倫理。算法的倫理問題作為人工智能的核心機制領(lǐng)域不僅貫穿專用人工智能倫理和通用人工智能倫理,而且隨著其發(fā)展而將倫理維度不斷引向深入,隨著其自主性的發(fā)育發(fā)展,算法發(fā)展到智能算法階段。

      由于具有從單純的工具到逐漸出現(xiàn)自主行為的發(fā)展過程,作為以智能算法為核心的智能體,人工智能和開放環(huán)境之間的相互作用可能產(chǎn)生設(shè)計時不可能預(yù)料到的結(jié)果,這就會帶來兩方面的困難:一方面,即使程序員做對了每件事,人工智能的本域特定行為也可能是不可預(yù)測的;另一方面,系統(tǒng)安全性的驗證成為更大的挑戰(zhàn),因為我們必須驗證系統(tǒng)正在嘗試做什么,而不是能夠在所有操作語境中驗證系統(tǒng)的安全行為[1]。隨著智能算法自主性的發(fā)展,這種情況會越來越突出。對人工智能行為預(yù)測和驗證的兩方面困難越來越清楚地表明,必須深入到人工智能倫理的算法根源。

      從新一代人工智能發(fā)展看,倫理的算法根源可以追溯到大數(shù)據(jù)處理。人工智能的倫理問題根源于從大數(shù)據(jù)處理到作為智能體自主行動整個過程所涉及的智能算法。在相應(yīng)的大數(shù)據(jù)處理過程中,倫理問題主要出現(xiàn)在三個時間節(jié)點:當(dāng)大數(shù)據(jù)移到一組選定的變量時、當(dāng)選定的數(shù)據(jù)移到由算法或倫理研究產(chǎn)生的結(jié)果時以及當(dāng)這些結(jié)果移到明確的行動計劃時[2],而當(dāng)這三個節(jié)點的控制由算法執(zhí)行,算法設(shè)計便具有重要倫理意蘊。

      智能算法對大數(shù)據(jù)的處理是人工智能倫理問題產(chǎn)生的起點,由此開始了智能算法倫理的發(fā)展進(jìn)程。從智能算法倫理的發(fā)展可以看到倫理的不同算法根源及其分布,從而有助于進(jìn)入算法倫理的系統(tǒng)和更深層次把握。

      在智能算法自主性越來越強和算法倫理層次越來越復(fù)雜這一發(fā)展形勢下,最近一項關(guān)于算法倫理的綜合性研究——基于倫理算法根源——提出了一個“算法倫理圖譜”(ethics of algorithms map),為討論智能算法倫理提供了一個概念框架,在此基礎(chǔ)上可以更好診斷和應(yīng)對智能算法的倫理挑戰(zhàn)。從智能算法的層次看,這一概念框架正是主要關(guān)注(半)自主智能算法,涉及三種相互關(guān)聯(lián)的情況:圖譜將所涉及算法用于(a)將數(shù)據(jù)轉(zhuǎn)化為給定結(jié)果的證據(jù)(從而結(jié)論),然后將這一結(jié)果用于(b)觸發(fā)和激勵一種(就其本身而言,或當(dāng)與其他行動相結(jié)合時)在倫理上可能不是中性的行動,這項以復(fù)雜和(半)自主方式進(jìn)行的工作使(c)算法驅(qū)動的行為效果的歸責(zé)復(fù)雜化。也就是說,智能算法發(fā)展到一定階段,可以具有自主性,因此能以自主或半自主的復(fù)雜方式觸發(fā)和激勵自主行動,從而產(chǎn)生倫理非中性而難以歸責(zé)的復(fù)雜行為。由此,這個概念框架從根源層次展開了算法的整個譜系,構(gòu)成了一個“算法倫理圖譜”,確定了產(chǎn)生于智能算法使用的五種倫理關(guān)切:三種“認(rèn)知關(guān)切”(epistemic concerns)和兩種“規(guī)范關(guān)切”(normative concerns)。在這五種倫理關(guān)切之外,再加上“可追蹤性”(traceability),實際上是從算法根源劃分人工智能倫理問題的六個方面。

      在這個智能算法倫理圖譜中,三種“認(rèn)知關(guān)切”包括“非決定性證據(jù)”(inconclusive evidence)、“難以理解的證據(jù)”(inscrutable evidence)和“誤導(dǎo)性證據(jù)”(misguided evidence)?!胺菦Q定性證據(jù)”源自更與符號主義進(jìn)路相關(guān)的統(tǒng)計性;“難以理解的證據(jù)”主要源于解釋機器學(xué)習(xí)算法使用的內(nèi)在困難,這些困難存在于許多數(shù)據(jù)點中每一數(shù)據(jù)點所起作用上,包括導(dǎo)出結(jié)論、導(dǎo)致原則和實踐限制;“誤導(dǎo)性證據(jù)”則主要源于數(shù)據(jù)的關(guān)聯(lián)誤解,這種關(guān)聯(lián)發(fā)生在數(shù)據(jù)和其不能說明的問題之間,數(shù)據(jù)共享給這種誤導(dǎo)提供了條件?!耙?guī)范關(guān)切”包括“不公正結(jié)果”(unfair outcomes)和“轉(zhuǎn)化效應(yīng)”(transformative effects)?!安还Y(jié)果”來自算法的倫理評價,“轉(zhuǎn)化效應(yīng)”所關(guān)注的則是智能算法結(jié)果的影響。算法可以影響我們?nèi)绾问故澜绺拍罨?,并改變其社會和政治組織。類如形塑過程的算法活動,通過以新的、意想不到的方式理解和概念化世界,并根據(jù)它所產(chǎn)生的直覺觸發(fā)和激勵行動重新本體化世界[3]?!稗D(zhuǎn)化效應(yīng)”延伸到智能算法所導(dǎo)致倫理問題的后續(xù)效應(yīng),“可追蹤性”則追溯到智能算法執(zhí)行之前,這已經(jīng)完全導(dǎo)向智能算法層次的倫理問題性質(zhì),六個方面構(gòu)成了人工智能倫理問題的算法根源甚至是機制圖譜。

      深入到算法根源的倫理圖譜,為更深入理解人工智能體發(fā)展的倫理維度提供了更直接的基礎(chǔ)。在智能算法自主性發(fā)展及其相應(yīng)倫理根源的基礎(chǔ)上,可以大大深化關(guān)于人工智能倫理算法根源的理解。

      關(guān)于人工智能倫理的算法根源,算法歧視的產(chǎn)生最為典型。通過實際案例分析,普林斯頓大學(xué)的弗里德曼(Batya Friedman)和尼森鮑姆(Helen Nissenbaum)對計算機系統(tǒng)的偏見及其根源作了系統(tǒng)研究,認(rèn)為發(fā)展出了先前存在的偏見、技術(shù)的偏見和涌現(xiàn)的偏見三類:先前存在的偏見根源于社會制度、實踐和態(tài)度,技術(shù)的偏見源于技術(shù)上的限制或考慮,涌現(xiàn)的偏見產(chǎn)生于使用的語境[4]。埃里克·戈德曼(Eric Goldman)的研究表明,偏見可能產(chǎn)生于在技術(shù)產(chǎn)生的“社會制度、實踐和態(tài)度”中發(fā)現(xiàn)的預(yù)先存在的社會價值、技術(shù)限制以及使用語境涌現(xiàn)的方面。社會偏見可以被個別設(shè)計者有目的地嵌入到系統(tǒng)設(shè)計中,例如,可以在搜索引擎索引和排名標(biāo)準(zhǔn)的手動調(diào)整中看到[5]。如果做一個大致概括,算法歧視不僅源自設(shè)計者和使用者的偏見,而且源自作為根據(jù)的算法邏輯,因此算法歧視有兩種基本類型:一是源自算法設(shè)計者成見的算法歧視;二是源自算法邏輯的算法歧視。

      算法決策和數(shù)據(jù)權(quán)重設(shè)置導(dǎo)致的算法歧視一般都屬于源自算法邏輯的算法歧視,這方面的實例在應(yīng)用中越來越多。針對男同性戀約會應(yīng)用程序Grindr的GooglePlay商店頁面,被作為確定用戶是否生活在性行為罪犯附近的類似應(yīng)用程序推薦;Flickr的自動照片標(biāo)記暗示非裔美國人的臉標(biāo)記為“猿”;搜索非裔美國人的名字更有可能出現(xiàn)暗示此人有被逮捕記錄的廣告[6]。這些都屬于無意產(chǎn)生的歧視,關(guān)于其根源,有研究做了系統(tǒng)總結(jié):算法歧視可以有不同來源。首先,在算法決策中輸入數(shù)據(jù)的權(quán)重可能很低,從而導(dǎo)致不同的影響。例如,作為一種間接歧視形式,預(yù)見性警務(wù)算法中過分強調(diào)郵政編碼可能會導(dǎo)致低收入的非裔美國人社區(qū)與犯罪地區(qū)相關(guān)聯(lián),并因此而采用基于群體成員身份的特定目標(biāo)。其次,使用算法本身的決定可以引發(fā)歧視。分類可以被視為直接歧視的一種形式,在這種情況下,算法被用于完全不同的處理。再次,算法可能因在不同情況下誤用某些模型而導(dǎo)致歧視。最后,在反饋循環(huán)形式中,有偏差的訓(xùn)練數(shù)據(jù)既可以作為算法使用的證據(jù),也可以用來證明算法的有效性[7]。由此可以看到的更深層次內(nèi)容則是:機器倫理的問題事實上與人工智能算法的發(fā)展、智能算法的進(jìn)化機制問題“合二為一”。作為這一點的表現(xiàn)就是從專用人工智能到通用人工智能的發(fā)展問題,在這里,不再存在傳統(tǒng)學(xué)科中單純的倫理領(lǐng)域,而是只能看到一個整體存在的倫理維度,這一點,隨著智能算法自主性的發(fā)展越來越明顯。

      作為倫理維度,算法的倫理問題隨著人工智能的應(yīng)用越來越普遍,而智能算法的根本倫理問題歸根結(jié)底是由其自主性引發(fā)的?,F(xiàn)代人工智能和機器人系統(tǒng)的特點是高度自治和不斷提高的自主性,同時,它們在自動駕駛、服務(wù)機器人和數(shù)字個人助理等領(lǐng)域的應(yīng)用也越來越接近人類。從這兩種發(fā)展的結(jié)合中產(chǎn)生了“人工智能倫理學(xué)”研究領(lǐng)域,在這一領(lǐng)域,人們認(rèn)識到自主機器的行為包含道德維度,并試圖回答我們?nèi)绾螛?gòu)建道德機器的問題[8]。道德機器概念的提出意味著智能機器與人類一樣是倫理主體,進(jìn)而其可以發(fā)展成為與人類倫理學(xué)一樣的學(xué)科,正是由此,人們提出了人工智能倫理學(xué)。

      人工智能倫理學(xué)可以理解為研究人工智能倫理問題的學(xué)科,也可以理解為人工智能研究的倫理維度。前者是關(guān)于人工智能的傳統(tǒng)倫理學(xué)研究,而后者則屬于科學(xué)和哲學(xué)一體化的倫理維度研究,這絕不僅僅是關(guān)于人工智能倫理學(xué)的狹義和廣義理解,而是涉及科學(xué)和哲學(xué)甚至更廣范圍的重大范式轉(zhuǎn)換,涉及兩種層次不同的研究致思。隨著智能算法的發(fā)展,倫理維度的研究越來越重要,這不僅是因為倫理研究關(guān)乎人工智能發(fā)展所導(dǎo)致的存在性危機及其人類應(yīng)對,而且直接關(guān)系到通用人工智能的研究進(jìn)路,這也是為什么隨著人工智能的發(fā)展,相關(guān)倫理問題具有與以往完全不同性質(zhì)的原因。正是在智能算法的發(fā)展本身,可以看到人工智能倫理問題的算法源起和發(fā)展,從而為深入系統(tǒng)研究智能算法的倫理屬性奠定前提性基礎(chǔ)。

      二、人工智能算法的倫理屬性

      隨著算法的智能化發(fā)展,人工智能算法的倫理屬性將經(jīng)歷一個從人類投射到自身發(fā)育的過程。隨著本身智能程度的提升,算法會被賦予一定的任務(wù),從而表現(xiàn)出行為的目的性,這是人工智能算法的屬人倫理屬性。目前,公眾討論所關(guān)注的焦點是一類特定的決策算法,例如,在特定情況下采取最佳行動、對數(shù)據(jù)的最佳解釋等,涉及數(shù)據(jù)和規(guī)則,增加或取代人類的分析和決策[3]。由此所涉及的主要還是人類倫理屬性的人工智能映射,而自身倫理屬性的獲得使智能算法倫理進(jìn)入了一個倫理發(fā)展的全新階段。只有具有自身需要的智能算法,才可能具有自身的目的性;而只有具有自身目的性的智能算法,才可能具有類人倫理屬性,因此人工智能算法的倫理屬性由人工智能設(shè)計中體現(xiàn)人類需要和目的的算法賦予,并最終與智能算法的發(fā)展特別是自主進(jìn)化密切相關(guān)。

      早在人工智能研究之前,算法就已經(jīng)經(jīng)歷了一個漫長的過程?!八惴ā币辉~源自公元9世紀(jì)撰寫《印度計算法》(Algoritmidenumeroindorum)一書的波斯數(shù)學(xué)家穆罕默德·穆薩·花拉子米,“花拉子米”(al-Khuwārizmī)一名就成了“算法”(algorithm)一詞的來源[9]。隨著人工智能的發(fā)展,算法發(fā)生了根本變化。在一開始,任何程序或決策過程,無論定義多么糟糕,都可以在媒體和公共話語中被稱為“算法”[10]。算法可以是解決數(shù)學(xué)問題的運算步驟,甚至可以泛指解決問題的進(jìn)程,但自從與智能相聯(lián)系,就有了可以自己執(zhí)行的智能算法。一旦具有自己執(zhí)行的能力,智能算法的倫理屬性便隨即開始生成,而當(dāng)智能算法開始自主進(jìn)化并構(gòu)成一個類群,機器智能就將逐漸獲得自己的倫理屬性——智能算法本身的倫理屬性。

      智能算法本身倫理屬性的逐漸獲得與人類構(gòu)成了復(fù)雜的倫理關(guān)系,這屬于一個新的研究領(lǐng)域——筆者稱之為“智能倫理”,限于篇幅只能另文展開,本文主要討論人為設(shè)計到自主進(jìn)化智能算法的倫理屬性。

      在自主進(jìn)化之前,智能算法所具有的只是屬人倫理屬性,這是人類倫理屬性的人工智能映現(xiàn),因此,算法設(shè)計會是越來越價值敏感的,算法設(shè)計領(lǐng)域甚至已經(jīng)有了“價值敏感設(shè)計”(Value-Sensitive Design,VSD)的概念。

      如果說,智能算法的價值負(fù)載開始都是無意識的,“價值敏感設(shè)計”則是有意識地納入價值因素。價值敏感設(shè)計方法可作為一種工程教育工具(包括但不限于計算機工程),以彌合技術(shù)設(shè)計考慮與通過人類價值表達(dá)的倫理關(guān)切之間的差距。價值敏感設(shè)計以道德認(rèn)識論為基礎(chǔ),通過一種考察概念、經(jīng)驗和技術(shù)問題的迭代三方設(shè)計方法,說明設(shè)計過程中的人類價值[11]。算法創(chuàng)構(gòu)應(yīng)當(dāng)是價值敏感的,即對所創(chuàng)構(gòu)的算法具有清醒的價值意識。由于價值意識受著見識的極大影響,這又與道德想象力的未來把握密切相關(guān)。道德想象力是一種力量,它迫使我們將最高可能的現(xiàn)實和最大可想象的要求賦予一個不是我們自己的思想、行為或人,并且不以任何明顯的方式接近我們[12]。對于道德想象力來說,越來越關(guān)鍵的是把握未來的能力,即未來把握力,因為一個行為是否符合道德,在越來越大程度上取決于對未來發(fā)展的預(yù)見,一種行為眼前看可能是道德的,但長遠(yuǎn)看卻也許恰恰相反。如果說這一點在以往還不是那么引人注目,那么在智能算法設(shè)計中,倫理后果未來預(yù)見的重要性則達(dá)到了無以復(fù)加的程度,它以越來越大權(quán)重決定智能算法的倫理屬性。

      關(guān)于人工智能算法的倫理屬性,可以通過算法歧視得到最具代表性的說明。目前所謂算法歧視,既有設(shè)計者無意導(dǎo)致,也有設(shè)計者或使用者有意為之;既可能產(chǎn)生于偏見,也可能產(chǎn)生于智能算法設(shè)計的合理性等因素。許多文獻(xiàn)討論到歧視是如何從有偏見的證據(jù)和決策中產(chǎn)生的,而一些社會偏見可能是無意的、更廣泛的文化或組織價值觀的微妙反映,例如,機器學(xué)習(xí)算法從人類標(biāo)記的數(shù)據(jù)中訓(xùn)練,不經(jīng)意地學(xué)會反映標(biāo)記者的偏見。幾乎在所有算法設(shè)計環(huán)節(jié)都可能導(dǎo)致無意歧視,分析可以無意中創(chuàng)建一個證據(jù)基礎(chǔ)導(dǎo)致歧視[3]。分析環(huán)節(jié)都可能這樣,由于具體條件抽離的根據(jù)和方式等,涉及概括的抽象描述可能更是如此。在智能算法中,無論用以訓(xùn)練的數(shù)據(jù)還是算法本身及其使用都可能造成偏差。一方面,算法組織系統(tǒng)中毫無疑問存在偏見;另一方面,算法反映了程序員和數(shù)據(jù)集的偏見。一方面,算法依賴的數(shù)據(jù)往往是有限的、不足的或不正確的[13];另一方面,偏差意味著不可靠,“垃圾進(jìn),垃圾出”(Garbage in-Garbage out)是對低質(zhì)量數(shù)據(jù)輸入導(dǎo)致數(shù)據(jù)輸出不可靠的通俗說法[14]。這充分說明在偏差導(dǎo)致歧視等算法倫理方面,智能算法與大數(shù)據(jù)基礎(chǔ)存在內(nèi)在關(guān)聯(lián),因此,對歧視的關(guān)切已開始在關(guān)于大數(shù)據(jù)倫理的討論中生根,這并不奇怪[15],而且,智能算法造成的偏差不是在數(shù)據(jù)造成的偏差基礎(chǔ)上的簡單疊加,在智能算法設(shè)計的可能偏差基礎(chǔ)上,數(shù)據(jù)造成的偏差可能還會放大,產(chǎn)生不確定關(guān)系。人們?nèi)找嬲J(rèn)識到,用于促進(jìn)各種操作的算法可以再現(xiàn)或造成偏差,這可能是因為算法的訓(xùn)練數(shù)據(jù)集本身在某種程度上有偏差,或者因為算法本身的操作產(chǎn)生了偏差。在涉及人工智能缺乏透明度的地方,這將是一個特別困難的問題[16]。由此可見大數(shù)據(jù)基礎(chǔ)上智能算法的復(fù)雜性,從而看到這種復(fù)雜性基礎(chǔ)上智能算法的倫理屬性。

      從算法的發(fā)展看,所謂“算法歧視”在不同階段可以有不同性質(zhì)。在專用人工智能算法中,由于歧視主要源自設(shè)計者的無意疏忽或有意偏見,因而只是源于設(shè)計者,而不是算法本身的歧視,確切地說屬于算法產(chǎn)生的不公正現(xiàn)象,還不是真正意義上的歧視。只有當(dāng)發(fā)展到通用人工智能,智能算法開始具有自主進(jìn)化的能力,才會出現(xiàn)真正意義上的算法歧視。隨著智能算法自主性的發(fā)展,會出現(xiàn)智能算法自發(fā)形成的歧視。

      智能算法自發(fā)出現(xiàn)的歧視最初是從人類學(xué)來的。研究表明,人工智能可以從人類語言數(shù)據(jù)中習(xí)得偏見,因此在智能算法設(shè)計中,作為智能算法前提性基礎(chǔ),數(shù)據(jù)等條件的長遠(yuǎn)考慮具有越來越重要的地位,而其中最為根本的則是智能算法設(shè)計中的前提性預(yù)設(shè),這與智能算法的人類理解密切相關(guān)。

      算法偏見還與算法輸出的人類理解和解釋有關(guān),算法的輸出也需要解釋(例如,一個人應(yīng)該根據(jù)算法的要求做什么),對于行為數(shù)據(jù),“客觀的”相關(guān)性可以反映解釋者的無意識的動機、特定的情感、深思熟慮的選擇、社會經(jīng)濟(jì)決定、地理或人口影響。用這些術(shù)語中的任何一個來解釋相關(guān)關(guān)系都需要額外應(yīng)證——在統(tǒng)計模型中,意義并不是自明的。不同的度量標(biāo)準(zhǔn)使個體和群體的某些方面可見,而其他方面則感覺不到,因此,不能假定觀察者的解釋正確地反映了行為者的覺知,而不是解釋者的偏見[3]。這是人類偏見在專用人工智能算法中起作用的方式,而在通用人工智能算法中,人類的作用方式則主要集中在最為關(guān)鍵的前提性規(guī)定環(huán)節(jié)。具體到算法歧視問題,就是必須有前提性規(guī)定層次的算法公正整體觀照。

      在智能算法層次,算法公正得到機制性凸顯。算法歧視應(yīng)當(dāng)是算法公正的負(fù)面反映,可以歸入更高層次的算法公正。智能算法的發(fā)展層次越高,越必須在更高層次考慮算法公正問題,由此所突出的,正是公正的層次性。智能算法的發(fā)展使算法公正越來越復(fù)雜,一方面,公正的層次性在智能算法中才得以真正呈現(xiàn);另一方面,公正層次決定了公正的性質(zhì),低層次的公正可以是高層次的不公。有典型案例表明:值得注意的是,算法是否公正有時候與人們的直覺并不一致,比如在男女配對的配置算法中,如果規(guī)定只能男性向女性求婚,女性只能同意或者拒絕,那么結(jié)果是有利于男性。應(yīng)該注意的是,這個算法有利于做提議的人(在這種情況下是男人)[17],這無疑是十分耐人尋味的,在婚配中,讓男性主動女性被動符合大多數(shù)文化中尊重女性的觀念,這看上去是公正的,但實際效果卻恰恰相反,“尊重”導(dǎo)致選擇的機會減少,選擇的機會少導(dǎo)致來自“尊重”的不公平,這一案例典型地表現(xiàn)了智能算法公正的層次性及其所帶來的復(fù)雜性,它意味著智能算法必須對數(shù)據(jù)等足夠敏感,因此在智能算法中,廣泛采取了一種稱為“敏感數(shù)據(jù)”的視域,敏感數(shù)據(jù)不僅包括那些明確命名的變量,而且包括與它們相關(guān)的任何變量[15]。由于隨著變量的增加和關(guān)系的復(fù)雜化,變量之間關(guān)系的把握會遇到“組合爆炸”,而“組合爆炸”意味著人類面臨不可能把握所有具體關(guān)系的形勢。智能算法設(shè)計之所以具有這么高度的價值敏感性,主要因為算法不僅非常敏感地涉及公正和歧視,而且涉及透明性和可解釋性,特別是責(zé)任鴻溝問題,從而涉及人工智能算法的倫理原則。

      三、人工智能算法的倫理原則

      從長遠(yuǎn)看,在當(dāng)代發(fā)展中,人工智能發(fā)展對人類的倫理挑戰(zhàn)不僅最為嚴(yán)峻而且最為系統(tǒng),系統(tǒng)研究人工智能的倫理原則,隨著智能算法的發(fā)展越來越迫切。

      在指導(dǎo)人工智能的開發(fā)和使用方面,在集大成基礎(chǔ)上,微軟最近系統(tǒng)定義了六項倫理原則,以確保人工智能系統(tǒng)公平、可靠、保護(hù)隱私、包容、透明和負(fù)責(zé)等。2018年微軟發(fā)表的《未來計算》一書,認(rèn)為現(xiàn)在已經(jīng)有可能開始定義六項倫理原則,以指導(dǎo)人工智能的開發(fā)和應(yīng)用,這些原則應(yīng)確保人工智能系統(tǒng)是公平、可靠和安全的,保護(hù)隱私和有保障的,包容、透明和可問責(zé)的[18]?!段磥碛嬎恪匪婕暗臍w根結(jié)底主要是智能算法,這是從智能算法發(fā)展長遠(yuǎn)著眼的必然結(jié)果,其所系統(tǒng)化的六項原則也是對相關(guān)領(lǐng)域研究具有代表性的概括產(chǎn)物。

      在這一人工智能開發(fā)和應(yīng)用的倫理原則系統(tǒng)中,可以大致看到三個層次:一是標(biāo)準(zhǔn),包括公平和包容;二是基礎(chǔ),包括可靠、安全、隱私保護(hù)和保障;三是前提,包括透明和可問責(zé)。

      在標(biāo)準(zhǔn)層次,“公平”處于六項原則之首。為了確保公平,需要通過培訓(xùn),使人理解人工智能結(jié)果的含義和影響,彌補人工智能決策中的不足。公平問題源自人工智能具有某種程度的自主或設(shè)定選擇的能力或功能,與前提性規(guī)定的設(shè)置有關(guān)。公平和包容密切相關(guān),前提性預(yù)設(shè)同樣涉及包容問題,包容所涉及的仍然是規(guī)定設(shè)置的合理性。為了確??煽啃院桶踩裕枰獏f(xié)調(diào)好人類過度信賴機器以及機器與人類利益之間沖突的矛盾。

      基礎(chǔ)層次的核心概念是可靠,沒有可靠性,安全、隱私和保障都失去基礎(chǔ)。在談到可靠性時,伯朗格(Jérme Béranger)提出了可靠性的概念不直接屬于由新信息和通信技術(shù)產(chǎn)生的道德框架,但應(yīng)由三個定義明確的參數(shù)提供說明:可由培訓(xùn)期間使用的數(shù)據(jù)通過其組成或資格產(chǎn)生的偏見、算法運行的有效性以及算法的幾率性及其不確定性質(zhì)和方面[2]。缺乏可靠性基礎(chǔ),安全性就談不上,同樣,隱私保護(hù)和保障必須建立在可靠性基礎(chǔ)之上??煽啃院桶踩缘炔皇侨斯ぶ悄芩赜械模皇窃绞菍哟胃叩淖詣酉到y(tǒng),可靠性和安全性的問題越突出,而隱私等的保障則與智能化密切相關(guān),因而透明性和可責(zé)性是人工智能倫理的前提性原則。在目前的專用人工智能研究中,可靠性和安全性都以透明性為前提條件。

      前提性層次更為復(fù)雜,研究也相應(yīng)更多。對于專用人工智能算法而言,以透明性為基本前提,因此在現(xiàn)階段,透明性一直是人工智能倫理的重要原則,以至提出了“智能透明”(smart transparency)[3]的概念。在一般算法設(shè)計中,要求算法透明不僅重要而且具有合理性。算法不透明,現(xiàn)有關(guān)于人工智能算法的其他倫理原則就失去了前提。問題在于智能算法進(jìn)入自主進(jìn)化之后,自主進(jìn)化的智能算法發(fā)展到一定程度,可解釋性就會越來越喪失,從而透明性也就越來越不再可能。

      智能算法的發(fā)展必定走向不透明,但關(guān)鍵的問題在于:在算法不可能透明的情況下,怎么做到可問責(zé)。在智能算法的倫理原則中,最能表明造世倫理性質(zhì)的“可責(zé)性”不在造世倫理層次考慮問題,涉及人工智能的很多責(zé)任困境就不可能真正找到出路,特別是所謂“責(zé)任鴻溝”[19]困境,這也是因為人工智能的可責(zé)問題在更深層次涉及人工智能和人類作為一個整體的最重要關(guān)系。

      機器學(xué)習(xí)開啟的智能算法自主性發(fā)展進(jìn)程帶來了問責(zé)的嚴(yán)峻挑戰(zhàn)。歸責(zé)可能同時指向幾個道德主體,這是在智能算法向自主進(jìn)化過程中必定出現(xiàn)的問題,在人類智能設(shè)計的人工智能自主性不斷增強的過程中,人工智能的應(yīng)用必定經(jīng)歷一個責(zé)任主體的過渡銜接過程:由智能算法的人類設(shè)計者和使用者到完全自主進(jìn)化的機器智能體。正是在這一過渡銜接階段,必定出現(xiàn)非單一責(zé)任主體的現(xiàn)象,而多個道德主體勢必導(dǎo)致復(fù)雜的責(zé)任關(guān)系,因此隨著責(zé)任關(guān)系的復(fù)雜化,在智能算法發(fā)展過程中,責(zé)任鴻溝是一個必定要出現(xiàn)的重要問題。

      人工智能算法的透明性和可責(zé)性原則涉及更為復(fù)雜的內(nèi)容,必須另文討論。上述關(guān)于智能算法的倫理原則事實上都具有基礎(chǔ)性質(zhì)。除了這些基本原則,在智能算法倫理原則研究中還提出了一些操作性原則,這些倫理原則與人工智能算法的倫理規(guī)制更直接關(guān)聯(lián)在一起。

      提出人工智能算法操作性倫理原則的典型代表,當(dāng)屬伯朗格。在系統(tǒng)研究基礎(chǔ)上,伯朗格提出了四項原則,包括“自治原則”“仁愛原則”“無惡意原則”“正義原則”,在這些操作性倫理原則中,又各自包含若干規(guī)則。伯朗格關(guān)于智能算法的四項原則,既是智能算法操作性倫理原則研究最具代表性的成果,也是這一領(lǐng)域的最新研究進(jìn)展。

      在四項原則的基礎(chǔ)上,伯朗格建立起關(guān)于智能算法的十二個規(guī)則。倫理規(guī)則的目的是通過將命令強加于個人,在一個組織中建立秩序和社會結(jié)構(gòu),他們通過完善適當(dāng)?shù)膫惱矸此伎蚣軄矸乐篃o政府狀態(tài),它們的內(nèi)容是可調(diào)整的,可根據(jù)語境、環(huán)境、空間和時間加以修改。通過以往的歷史-社會-文化,每一個國家都有自己的倫理規(guī)則。通過給倫理原則以具體表達(dá),使其存在于一定的情境和語境中,這些倫理規(guī)則包括一個令人印象深刻的結(jié)構(gòu)內(nèi)涵,它們是道德方法的調(diào)整變量,以應(yīng)對特定的問題,特別是在數(shù)字世界[2]。自治原則包括兩條主要的道德準(zhǔn)則,即:尊重個人,將其視為充分參與決策或行動的行動者;自由意志,特別是與專業(yè)人員的專家自學(xué)制度結(jié)果有關(guān)及在不受外部影響和充分知情的情況下,自由和知情同意。仁愛原則與個別和(或)集體地為個人服務(wù)、為個人提供回報和額外利潤、行為的效用和質(zhì)量聯(lián)系在一起。無惡意原則影響相稱性的道德規(guī)則(因為我們總是在決定優(yōu)劣或損益之間)、結(jié)果或行動在中長期的不確定性、預(yù)防和預(yù)期,特別是對一段時間行為的影響或后果的預(yù)期。正義原則與以社會團(tuán)結(jié)而不是個人間互助的方式、行為者的責(zé)任以及行動的公平、平等和個人執(zhí)行它的手段聯(lián)系在一起[2]。智能算法的規(guī)制建立在人工智能算法倫理原則和規(guī)則基礎(chǔ)之上,伯朗格基于其智能算法四項原則制定的十二個規(guī)則,為進(jìn)入具體倫理規(guī)制奠定了系統(tǒng)基礎(chǔ),正是在這些原則及其所包含的規(guī)則基礎(chǔ)上,伯朗格展開了智能算法規(guī)制的研究。

      四、智能算法的倫理規(guī)制

      探討人工智能算法的倫理原則及其所包含的倫理規(guī)則,旨在智能算法的倫理規(guī)制。伯朗格關(guān)于人工智能算法的四項操作性倫理原則,為制定相應(yīng)倫理規(guī)則提供了前提。

      面對人工智能算法發(fā)展條件下新的倫理形勢,伯朗格主要訴諸謹(jǐn)慎創(chuàng)新,他認(rèn)為:這就是為什么必須在創(chuàng)新和謹(jǐn)慎之間找到一種平衡,這些倫理規(guī)則就說明了這一點,難道人們不能想象環(huán)境法模式下數(shù)字風(fēng)險的責(zé)任原則?這一做法將使數(shù)字專業(yè)人員能夠在合法數(shù)據(jù)、個人保護(hù)和更廣泛的第三方數(shù)據(jù)權(quán)利范圍內(nèi)受益于這些使用。作為交換,如果他們沒有采取必要的預(yù)防措施來避免這種風(fēng)險,會使他們在受到重大損害的情況下承擔(dān)責(zé)任,這將導(dǎo)致一個基于賦予行動者責(zé)任的雙贏體系,此責(zé)任原則意味著算法或其用戶考慮其過程和操作的影響[2]。創(chuàng)新和謹(jǐn)慎之間的平衡固然重要,但這還是表層考慮,當(dāng)考慮到算法倫理所涉及領(lǐng)域之廣泛時,問題就更為突出。由于主要源于創(chuàng)構(gòu)活動,人工智能倫理問題的一個特點是涉及面廣,伯朗格也注意到了這一點,這些算法系統(tǒng)的倫理規(guī)則包括所涉及的一系列領(lǐng)域,如個人數(shù)據(jù)保護(hù)和隱私保護(hù)、法律和監(jiān)管方面、數(shù)據(jù)開放和共享、利益相關(guān)者、數(shù)據(jù)來源和算法分析應(yīng)用以及規(guī)范和協(xié)議、技術(shù)發(fā)展、人機界面和接口、通信等。一種稱為“公平”的算法應(yīng)能考慮到其影響,并適當(dāng)了解所涉及部門的特點[2]。事實上,智能算法不僅僅是單純地涉及領(lǐng)域廣,而是涉及領(lǐng)域的擴(kuò)展表明了新的倫理特質(zhì),這種具有新特質(zhì)的倫理問題,需要有新的倫理范式處理。

      伯朗格的四項原則不僅基本上是傳統(tǒng)倫理原則,而且主要是關(guān)于個體倫理的,這就決定了基于這些倫理原則和規(guī)則在為智能算法的倫理治理提供了理論基礎(chǔ)的同時,又具有特定的局限。由于其傳統(tǒng)倫理致思,受范式局限,伯朗格的算法倫理規(guī)制研究還主要在算法的傳統(tǒng)倫理討論范圍,作為理論基礎(chǔ)的四項倫理原則,正是其傳統(tǒng)倫理致思的特定前提,但是,至少在算法倫理的定性探索中,伯朗格已經(jīng)達(dá)到了研究的前沿,只是隨著人工智能倫理問題的發(fā)展,算法根源的層次展開越來越清晰地表明研究范式轉(zhuǎn)換的必要性。

      隨著人工智能越來越廣泛的應(yīng)用,在智能算法的倫理規(guī)制中,人們也意識到智能算法倫理的層次變化。由于智能算法在個人生活和社會領(lǐng)域越來越廣泛深入的滲透,智能算法倫理規(guī)制的研究在層次把握的基礎(chǔ)上,內(nèi)部進(jìn)路得到更好發(fā)展,越來越接近抓住問題的關(guān)鍵。

      埃里克·鮑默(Eric PS Baumer)發(fā)現(xiàn),智能算法在日常生活和社會各個層面的普遍滲透使智能算法的倫理思考上升到了更高層次,他由此提出了一種以人為中心的算法設(shè)計方案,在基于算法的系統(tǒng)設(shè)計過程中引入了人和社會的解釋。以人為中心的算法包括三個具體策略:理論上的、參與性的和思辨性的。理論上的策略(theoretical strategy)揭示兩個重要方面:一方面,理論可以是規(guī)定性的,大多數(shù)數(shù)據(jù)集可能包含大量可能的特征;另一方面,理論可以是描述性的,給定一個算法產(chǎn)生的結(jié)果,它們意味著什么?理論可以幫助理清對這種系統(tǒng)結(jié)果的潛在解釋。參與性的策略(participatory strategy)最主要的特點是“不會將可能受系統(tǒng)影響的人員作為設(shè)計過程的參與者”,而思辨性的策略(speculative strategy)則可以提供一種手段,用以克服我們目前對基于算法系統(tǒng)的看法[6]。從人工智能倫理算法根源的發(fā)展所展開的層次,可以看到只有到實現(xiàn)和配置階段,算法才發(fā)展到智能算法階段,算法倫理才發(fā)展到智能算法倫理,人工智能倫理的算法根源深藏在前提性預(yù)設(shè)之中,而在智能算法進(jìn)入自主進(jìn)化之后,對于作為最初設(shè)計者的人類來說,倫理規(guī)制就是關(guān)于前提性預(yù)設(shè)的盡可能長遠(yuǎn)考慮了——這就需要層次盡可能高的整體觀照。

      算法不僅具有典型雙刃劍性質(zhì),而且越是涉及未來眼光越是如此。在伯朗格看來,算法自身具有相互矛盾的性質(zhì),它既是巨大希望來源(有用性、最優(yōu)化、科學(xué)發(fā)現(xiàn)、速度等),又是重大社會關(guān)切(分類、保密和隱私、特征分析以及非人性化等)。因而在人類和智能算法的關(guān)系中,這是一個基本事實:關(guān)于建造和使用它們的方式,選擇屬于我們。這就是為什么在開發(fā)、實現(xiàn)和使用算法時,似乎有必要強加倫理規(guī)則,然后讓開發(fā)人員和編程者們自己系統(tǒng)地考慮這些倫理規(guī)定[2]。當(dāng)倫理規(guī)定的選擇屬于我們,我們有充分的選擇權(quán),這時候問題主要在當(dāng)下的選擇;而當(dāng)智能算法進(jìn)入自主進(jìn)化,選擇權(quán)就不再屬于我們,這時候的關(guān)鍵則深化到了前提性預(yù)設(shè)。在這兩種情況下,都涉及眼光遠(yuǎn)近,歸根結(jié)底需要更高層次的整體觀照,即使在算法歧視這種相對不算嚴(yán)重問題的具體倫理規(guī)制中,也是這樣。

      為了避免涉及性別、族裔和性向等“敏感屬性”(sensitive attributes)與中性特征無意關(guān)聯(lián)而觸碰紅線,羅梅(Andrea Romei)和魯格吉里(Salvatore Ruggieri)提出了觀察分析中防止歧視的四個重疊策略:①控制訓(xùn)練數(shù)據(jù)集的失真;②通過將其與反歧視標(biāo)準(zhǔn)相結(jié)合,修改分類學(xué)習(xí)算法;③提取分類模型后,對模型進(jìn)行后處理;④在應(yīng)用時,對預(yù)測進(jìn)行更正,在受保護(hù)和不受保護(hù)的群體之間保持決策的相稱性[20]。這是隨著人類智能和機器智能在應(yīng)用領(lǐng)域的融合而出現(xiàn)的特殊問題,為了讓智能算法為人類謀福利而不是帶來災(zāi)難,這些問題必須在智能算法的發(fā)展中得到實質(zhì)性解決,這就進(jìn)一步凸顯了具體事物認(rèn)識中整體觀照的地位[21]。這一點,當(dāng)智能算法設(shè)計前提性預(yù)設(shè)時更為根本,因為算法設(shè)計在根本上涉及前提性規(guī)定,包括價值和更基本的預(yù)設(shè),這是智能算法倫理研究中的深層次內(nèi)容。在這些方面,伯朗格做了很重要的工作。

      在關(guān)于智能算法的倫理研究中,伯朗格概括出“為何、如何及多少”幾個層次的問題,并在此基礎(chǔ)上嘗試建立起智能算法的倫理規(guī)則,他意識到,在建立關(guān)于算法的規(guī)則和倫理框架之前,似乎必須提供關(guān)于信息價值的概述和規(guī)格,信息價值具體取決于其使用的“為何、如何及多少”,該算法由具有固有基值的數(shù)據(jù)或信息提供。當(dāng)它用于算法機制或處理的語境時,這個值將被更多地表達(dá)出來,并增加和獲得它的全部潛力,這就把問題轉(zhuǎn)移到超出技術(shù)劃分范圍的倫理層面[2]。將價值和規(guī)則相聯(lián)系已經(jīng)是對價值和規(guī)定的深入思考,不僅涉及價值負(fù)載而且包括最基本的前提性規(guī)定,這種前提性規(guī)定也不僅涉及文化,而且還會隨著網(wǎng)絡(luò)的發(fā)展在面上擴(kuò)展。

      在伯朗格那里,“為何”最為關(guān)鍵,它關(guān)系到目的,從而關(guān)系到需要及其發(fā)展,而對需要及其發(fā)展的把握則不僅涉及很多很復(fù)雜的因素,更重要的是涉及眼光,涉及對未來的把握,因此,“為何”必定導(dǎo)致對文化的質(zhì)疑。算法依靠新的歸納邏輯形式,使決策和預(yù)測的經(jīng)典模型受到質(zhì)疑。有了算法,參與者不再局限于所屬數(shù)據(jù),而是向公共和開放數(shù)據(jù)庫開放,特別是通過網(wǎng)絡(luò)。的確,作為算法的前提性規(guī)定,不僅廣及全球網(wǎng)絡(luò),甚至深及整個人類的社會潛意識?!叭绾巍眲t涉及達(dá)到目的的手段,涉及技術(shù)但絕不純屬技術(shù)問題,因為如何達(dá)到目的往往涉及合法性和潛在風(fēng)險等,至于“如何”,更確切地說是關(guān)于日常組織的問題。實施是使大數(shù)據(jù)的使用成為可能的基礎(chǔ),一個企業(yè)應(yīng)該能夠重新配置和發(fā)展,這取決于這些數(shù)字?jǐn)?shù)據(jù)教給它什么,因此出現(xiàn)了一系列問題,諸如當(dāng)異常數(shù)據(jù)流形成(監(jiān)視)時,我們的IT安全系統(tǒng)如何快速通知我?我如何跟蹤自己的數(shù)字?jǐn)?shù)據(jù)?如何預(yù)測圍繞我的數(shù)據(jù)生命周期而產(chǎn)生的負(fù)面影響、偏見和風(fēng)險[2]?而“多少”則涉及隱私侵犯程度等。正是涉及前提性規(guī)定的“為何、如何和多少”,使智能算法的倫理規(guī)制可能深入到更基礎(chǔ)的層次,這與人工智能算法倫理規(guī)制研究發(fā)展的整體進(jìn)路密切相關(guān)。由于涉及前提性規(guī)定,伯朗格關(guān)于人工智能算法的倫理規(guī)制主要屬于內(nèi)部進(jìn)路。

      根據(jù)近年來的研究,關(guān)于智能算法的倫理規(guī)制可以大致概括為內(nèi)部進(jìn)路和外部進(jìn)路兩種基本方式。

      算法倫理問題解決的內(nèi)部進(jìn)路主要適用于解決工具性人工智能的算法倫理問題,在人工智能通用化發(fā)展層次,至少在某些階段,問題的解決必須上升到更高層次。人們意識到:我們感到迫切需要采取行動,讓來自不同領(lǐng)域的研究人員——包括法律、倫理學(xué)、政治哲學(xué)和機器學(xué)習(xí)——在現(xiàn)實世界中為不同任務(wù)設(shè)計、評估和驗證其他公平標(biāo)準(zhǔn)[7]。與此相應(yīng),智能算法倫理問題解決的外部進(jìn)路只適于各類人工智能的算法倫理問題的治理,其標(biāo)志性特征是監(jiān)管算法。

      在某種意義上,監(jiān)管算法進(jìn)路遵循通過人工智能本身的發(fā)展解決人工智能問題的原則。最近有研究試圖從可預(yù)測性入手解決問題,以此從“可預(yù)測性走向可驗證的倫理機器人行為”。由于認(rèn)識到確保自主系統(tǒng)合乎倫理地運作既復(fù)雜又困難,研究形成了由“后果引擎”組成的調(diào)控器,該引擎評估行動的可能未來結(jié)果,然后應(yīng)用安全/倫理邏輯來選擇行動。關(guān)于這一嘗試,進(jìn)一步的研究發(fā)現(xiàn)存在新的問題:擁有一個外加的“管理者”來評估系統(tǒng)所擁有的選項,并對其進(jìn)行調(diào)整以選擇最符合道德的選項這一想法,既很好理解也很吸引人,但不可能確定最合乎道德的選擇是否真的被采納,因而,在此基礎(chǔ)上,他們又將一種著名的代理驗證方法推廣到其結(jié)果引擎,使之能驗證其倫理決策的正確性[22]。這種外加“管理者”的做法,在專用人工智能發(fā)展階段應(yīng)當(dāng)是管用的,但隨著人工智能的通用化發(fā)展,“管理者”會漸失其作用和意義,也就是遲早會失效。外部進(jìn)路只有在與內(nèi)部進(jìn)路構(gòu)成雙向循環(huán)的基礎(chǔ)上,才能充分發(fā)揮應(yīng)有的作用,人工智能的應(yīng)用越廣泛深入就越是如此。

      關(guān)于人工智能倫理的算法根源、倫理屬性以及從倫理原則到規(guī)制的研究取得了很大進(jìn)展,只是人工智能發(fā)展所引起的越來越多倫理關(guān)注主要還是在傳統(tǒng)倫理意義上的。智能算法層次的倫理問題必須更自覺地作為一個貫穿存在和過程整體的維度,在造世倫理[23]層次研究。從智能算法的倫理維度加以系統(tǒng)考察,可以更清楚地看到現(xiàn)有研究提供了重要思想資源,為提升到一個更高層次理解和解決新的倫理難題創(chuàng)造了條件。

      在專用人工智能算法的倫理問題中,一些難題在人工智能和人類智能構(gòu)成的更高層次視野中就可以看到新的出路,這一點在算法歧視問題的理解中最為明顯。由于本身還不具有歧視觀念,在專用人工智能中,還談不上真正意義上的智能算法歧視,而只是算法公平性即算法公正在人類觀念中的反映,因此,在專用人工智能發(fā)展水平的當(dāng)下,算法歧視問題應(yīng)當(dāng)在考慮常規(guī)倫理規(guī)制的同時,更應(yīng)該在造世倫理層次中加以考慮。在專用人工智能發(fā)展階段,智能算法倫理問題的發(fā)生與到目前為止智能算法語境沒有得到發(fā)育有關(guān)。由于人工智能語境發(fā)展的局限,越是在專用人工智能發(fā)展階段,越可能發(fā)生類似歧視等倫理問題。只有人工智能語境得到相應(yīng)發(fā)展,并與人類語境相融通,才可能在根本上有效避免這些倫理問題的發(fā)生。面對人工智能算法自主性的發(fā)展,人類必須盡早在更高層次關(guān)注和研究智能算法的前提性規(guī)定,不是在智能算法自主進(jìn)化之后,而是現(xiàn)在,越早越主動。

      不同于傳統(tǒng)倫理問題,智能算法的倫理規(guī)制需要在新的倫理范式中進(jìn)行。在人工智能算法的倫理維度,必須在人工智能算法設(shè)計等規(guī)律性探索過程中,通過逐步完善智能算法語境,并從個體倫理上升到類群倫理,才能真正面對智能算法倫理問題。正是在這個意義上,人工智能算法的倫理維度必須在造世倫理的層次把握,而這是關(guān)于智能算法倫理的全新研究領(lǐng)域。

      在人工智能算法層次,倫理問題正在形成一個具有整體性的維度。由專用人工智能向通用人工智能發(fā)展,倫理維度越來越復(fù)雜,從主要是算法設(shè)計和使用者的倫理問題向超越人類倫理的人機倫理發(fā)展,從工具性人工智能的倫理規(guī)制走向自主進(jìn)化人工智能存在性威脅的造世倫理應(yīng)對,而在倫理維度的不斷擴(kuò)展中,則涉及越來越具有整體性的倫理問題。在專用人工智能發(fā)展中,透明性和可解釋性一直是智能算法的重要倫理原則。由人工智能算法倫理原則推出的倫理規(guī)則是智能算法倫理規(guī)制的基礎(chǔ),不僅對于保持算法公正、避免算法偏見和歧視以及保護(hù)隱私,而且對于跨越人工智能應(yīng)用的“責(zé)任鴻溝”至關(guān)重要。“責(zé)任鴻溝”的跨越關(guān)系到人工智能應(yīng)用甚至人工智能本身的發(fā)展。在人工智能算法的倫理維度,個體倫理向類群倫理發(fā)展,傳統(tǒng)倫理的界線正在“熔化”,這種變化趨勢深及規(guī)則和規(guī)律的關(guān)系層次。在智能算法深處,規(guī)則和規(guī)律越來越呈現(xiàn)一體化發(fā)展趨勢。隨著智能算法的發(fā)展,智能機器的道德主體地位及引發(fā)的相應(yīng)倫理問題將構(gòu)成對現(xiàn)有倫理觀念越來越嚴(yán)峻的挑戰(zhàn),其應(yīng)對必須建立在更高層次的倫理觀念基礎(chǔ)之上。人工智能算法倫理維度的發(fā)生和發(fā)展,具有深刻造世倫理意蘊,智能算法的造世倫理意蘊凸顯了造世倫理的理論和實踐一體化。規(guī)則和規(guī)律、理論和實踐的一體化意味著智能算法的倫理規(guī)制越來越必須在造世倫理層次展開。

      猜你喜歡
      智能算法倫理原則
      《心之死》的趣味與倫理焦慮
      神經(jīng)網(wǎng)絡(luò)智能算法在發(fā)電機主絕緣狀態(tài)評估領(lǐng)域的應(yīng)用
      基于超像素的圖像智能算法在礦物顆粒分割中的應(yīng)用
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      從雞群算法看群體智能算法的發(fā)展趨勢
      堅守原則,逐浪前行
      改進(jìn)的多目標(biāo)快速群搜索算法的應(yīng)用
      價值工程(2016年32期)2016-12-20 20:30:37
      無罪推定原則的理解與完善
      醫(yī)改莫忘構(gòu)建倫理新機制
      婚姻家庭法的倫理性及其立法延展
      怀仁县| 集贤县| 德格县| 沅江市| 呈贡县| 普兰店市| 四会市| 东乡族自治县| 大新县| 雷波县| 商洛市| 赞皇县| 黑山县| 惠安县| 桂平市| 合江县| 高要市| 汾阳市| 托克逊县| 伽师县| 蒙自县| 涟源市| 武宣县| 扶风县| 博湖县| 宜阳县| 辉县市| 鞍山市| 长海县| 马公市| 五家渠市| 霞浦县| 南丰县| 盖州市| 昌宁县| 交城县| 金昌市| 新野县| 开封县| 武穴市| 长岭县|