• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      倫理結構化:算法風險治理的邏輯與路徑

      2021-03-30 05:45:43張旺
      湖湘論壇 2021年2期
      關鍵詞:人工智能

      張旺

      摘要:算法風險觸及、引發(fā)、衍生了諸多社會問題,日益成為社會各界廣泛關注的熱點。算法風險治理的倫理結構化進路,主要是指通過建構算法設計、開發(fā)和使用的倫理原則制度,確定相對穩(wěn)定的倫理框架和邏輯體系,形成合理可靠的倫理關系結構,從而確保算法符合道德倫理要求。倫理結構化的表達與呈現(xiàn)方式對提升算法治理能力十分重要,是推進算法風險治理的重要范式,有助于從理論層面到實踐層面全面實施和執(zhí)行算法的道德規(guī)范,推動算法的倫理建設進程。算法風險倫理治理結構化的實施路徑包括:建構算法風險倫理評估模型與審查體系;提升算法的倫理信任閾值與制定評估指標;設立算法風險倫理問責機制。

      關鍵詞:人工智能;算法風險;倫理結構化;倫理評估

      中圖分類號:B82? ? 文獻標志碼:A? ? 文章編號:1004-3160(2021)02-0121-08

      倫理結構化進程是指規(guī)范化、制度化、體系化的邏輯構成,有著科學化與認同感的評價標準與評價方法,并逐步推進形成倫理規(guī)范的制度化和標準化趨向。相較于政治學與經(jīng)濟學領域中提出的新結構經(jīng)濟學、新結構政治學等理論,算法風險治理的倫理進路中,同樣需要建構相對合理穩(wěn)定的倫理框架結構。本文通過分析算法風險倫理治理的邏輯理路,探討在算法風險治理領域推進倫理結構化的必要性和可行性,闡釋算法風險倫理治理的邏輯與路徑,旨在塑造具有可解釋性和可接受性的倫理關系結構體系,適度、合理推進算法風險的倫理制度體系建構,形成較為科學的認知與評估體制機制,健全規(guī)范制度并為防范化解算法風險提供倫理支撐。

      一、問題的提出:算法風險治理倫理結構化的必要性

      隨著人工智能技術的深度發(fā)展和廣泛應用,算法作為人工智能技術的重要基石之一,算法偏見、算法歧視等引發(fā)的風險輻射影響了政治、經(jīng)濟、科技等諸多領域,其引發(fā)的現(xiàn)代風險典型特征較之傳統(tǒng)技術風險發(fā)生了質(zhì)的變化,不確定性和不可控性極大增強,觸發(fā)了公眾對算法風險問題的恐慌焦慮。如何推進人工智能算法風險的科學化治理,學界從政治、法律、倫理等相關視角都進行了相關分析探討,其中倫理治理的呼聲日益高漲,算法風險治理的倫理結構化可能成為重要的治理路徑。從倫理視角審視人工智能算法風險,可以從“風險”“算法”和“倫理結構化”三個關鍵詞出發(fā),這也是本文中最為基本的前提概念。

      “風險”的核心概念作為算法風險的切入點,學界已經(jīng)有了較為完善的研究成果,包括風險社會、風險治理等內(nèi)容的分析論證。根據(jù)考證,風險作為與其他各種不安全感相區(qū)別的一個概念出現(xiàn)在中世紀的末期,亦即14世紀早期的意大利商業(yè)城市和城市國家里。[1]對“風險”的界定,特別是技術風險的解讀,貝克、吉登斯、道格拉斯、威爾德韋斯、拉什、盧曼、福柯、里夫金、霍華德、斯洛維克、卡斯帕森等眾多風險理論學家從風險認知、風險傳播、風險治理等諸多主題進行了廣泛的研究。[2]風險問題已日益成為全球性的“熱門話題”,人們?nèi)找娓惺艿斤L險社會給人類帶來的是“全球的、無法挽救的、不再被限制的損害”。[3]

      “算法”作為人工智能領域研究的重要概念,針對指向更為聚焦,更能凸顯信息技術的時代特征。智能時代算法悄然介入甚至主導人類事務,算法從計算機領域的一個專業(yè)術語轉(zhuǎn)變?yōu)橹悄軙r代文化與社會的關鍵概念,對此概念的理解和界定也日益多元化。[4]算法的定義從塔爾頓·吉萊斯佩(Tarleton Gillespie) 的假設開始,即“算法不需要是軟件:在最廣泛的意義上,它們是基于指定計算將輸入數(shù)據(jù)轉(zhuǎn)換為期望輸出的編碼過程。這個過程既指出了一個問題,也指出了解決這個問題的步驟”。[5]也正如希爾(Hill)所解釋的,“我們看到的證據(jù)表明,任何程序或決策過程,無論其定義如何,都可以在新聞界和公共話語中被稱為‘算法”。[6]本文的研究將不局限于作為數(shù)學結構的算法,而是更具有普遍意義的人工智能算法。

      “倫理結構化”則為分析解決算法風險問題提供了不同于一般意義上的特殊視角,更具有專業(yè)特色意蘊。技術不僅是科技進步的成果,而且是社會、市場和政治力量的共同產(chǎn)物。它們已經(jīng)深深地嵌入到了有賴于人工判斷的社會實踐中。[7]在人工智能技術背景下審視道德倫理這一復雜又有深度的問題,具有重要現(xiàn)實意義。算法應用風險的主要特殊之處有三:一是范圍寬廣、形態(tài)繁多;二是評估難;三是影響深遠。[8]算法風險治理的倫理結構化維度側重從制度和結構視角進行探討,分析道德的制度化趨向、條理化脈絡和綱領化主張,從倫理層面對算法風險實現(xiàn)必要的標準化邏輯化呈現(xiàn),提升倫理治理的影響效能,實現(xiàn)工具屬性與價值屬性的高度統(tǒng)一,為推進算法風險治理提供較大的彈性空間。

      二、算法風險的倫理表現(xiàn)要素

      倫理因素是算法風險治理需要著重考慮的關鍵要素,算法、風險、倫理三者間具有鮮明的結構性關聯(lián),算法作為一種技術媒介,本應處于一種中介的地位,但其產(chǎn)生的風險,或者稱之為“技術的沖突”,需要從倫理評估的視角去設定價值理性的標準尺度。

      (一)主體性因素產(chǎn)生的倫理預設:設計者的價值偏差

      算法不可避免的充滿了價值。在進行算法風險生成的道德倫理溯源時,算法設計者的主觀價值偏差通常被認為是關鍵所在。算法作為人工智能技術的重要基石之一,本應處于一種相對中立客觀的地位,但由于算法風險的產(chǎn)生與設計者的價值理念有著密不可分的關聯(lián),其人為的價值觀偏差在很大程度上會左右算法風險。奧馬雷(OMalley,2004)曾指出,風險技術并非道德中立,考察風險技術建構和使用背后的道德觀念非常重要。[9]算法風險是如何產(chǎn)生的,歸根溯源是受到算法設計開發(fā)人員的主觀價值影響制約,這種制約不僅體現(xiàn)在算法的工具價值屬性上,也代表著算法的終極價值,甚至左右著算法可能產(chǎn)生的風險類別和破壞影響力。

      算法會做出有偏見的決定。算法不僅會繼承人類的偏見,這種偏見還有可能隨著數(shù)據(jù)的積累和算法的迭代而被強化和放大。這些都是由于算法背后的價值預設所導致的新的社會倫理問題。[10]一個算法的設計和功能反映了它的設計者和預期用途的價值,只要某種特定的設計被認為是最好或最有效的選擇?!八惴ㄗ髡叩膬r值觀,無論是否有意,都被凍結在代碼中,有效地制度化了這些價值觀”(Macnish,2012)。從算法設計者的主觀意愿出發(fā)考量,算法風險中折射的歧視、偏見、誤導等問題,既有無意為之的潛移默化行為,更多則是在利益權衡下的特定設計,社會偏見可以由個人設計師有目的地嵌入到系統(tǒng)設計中。正如吉登斯所言,“人造風險”體現(xiàn)了科技發(fā)展的副作用,它源于人們的重大決策,并且是由現(xiàn)代社會整個專家組織、經(jīng)濟集團或政治派別權衡利弊得失后所作出的理性的決策。[11]如何識別評估算法中滲透的設計者的主觀性價值,可能需要一個較為長期、多用戶或大數(shù)據(jù)基礎上分析判斷。因此,清晰準確認知算法中體現(xiàn)的倫理價值觀念,是推進算法風險治理的先決條件和首要舉措。

      (二)客觀性因素表現(xiàn)的倫理特征:算法自身的黑箱屬性

      算法偏見產(chǎn)生的誤導性證據(jù)。從技術發(fā)展的本身來看,算法由于自身的復雜性如算法黑箱等屬性,從而帶來了算法風險的不確定性和不可控性。算法作為一種程序式的代碼,絕大部分人很難理解其運行方式和作用機理,眾多學者認為算法特有的黑箱屬性是造成其風險問題的關鍵所在。如算法的不透明性,一種更具懷疑性的分析認為,“如果金融機構故意保持不透明,就是為了避免或混淆監(jiān)管,那會怎么樣?”這可能是一種更為隱蔽的規(guī)避法規(guī)方式,或者操縱使用者認知的途徑。如運營參數(shù)由開發(fā)人員制定,由用戶指定并考慮到某些價值觀和利益優(yōu)先于其他價值觀和利益。算法正在通過它所觸發(fā)的一系列行為從社會的底層架構重塑我們的世界觀,甚至修改我們的社會規(guī)則。[12]

      知識極易擴散,科技倫理失靈嚴重。[13]算法的透明度是造成算法黑箱屬性的核心要素,與算法自身的開源性密切關聯(lián)。從通俗意義上理解,算法透明度主要是指信息的可訪問性和可理解性。但有些算法的設計通常由于各種利益沖突,如商業(yè)競爭、保密等原因,故意設置為不易訪問,人為降低算法的透明度,這也產(chǎn)生了與倫理操守相背馳的“不道德”行為。另外一方面,機器學習算法中的不透明度是數(shù)據(jù)高維性、復雜代碼和可變決策邏輯的產(chǎn)物。機器學習擅長創(chuàng)建和修改規(guī)則,以便對大型數(shù)據(jù)集進行分類或群集。該算法在運行期間修改其行為結構,算法的基本原理被模糊了,這使得機器學習算法被描繪成“黑匣子”。在由算法處理的數(shù)據(jù)集中,錯誤也可能同樣出現(xiàn)。數(shù)據(jù)中的缺陷被算法無意中采用,并隱藏在輸出和生成的模型中。

      (三)算法風險的倫理衍生:外在的環(huán)境與認知失衡

      人類自主行動的能力與復雜的機器邏輯之間出現(xiàn)了一種潛在的沖突,這種復雜的邏輯有時是模糊的,但也被認為是無可辯駁的。[14]技術不管如何中立,但終究是人設計運用的,受到人的認知背景與偏見限制。我們對人工智能算法的設計與使用,更多的是從功利主義角度出發(fā),重視技術的利益價值,而忽視了其道德倫理的意蘊內(nèi)涵。這種認知的扭曲造成了行為表現(xiàn)上的偏離,致使技術的發(fā)展脫離了最初設定的軌道,并造成更劇烈的社會不平等和風險危機。人類的道德認知與情感顯示著其與機器不同的一面,雙方如何在平等的條件下進行道德溝通,取決于我們對于人工智能算法的信任閾值有多高,但這仍然是從我們自身出發(fā)去認知判斷的,而并不取決于機器的道德水平有多高。

      算法的設計和操作與我們對其倫理含義的理解之間的差距可能會對個人、群體和整個社會階層產(chǎn)生嚴重影響,算法的不透明性則很容易帶來公眾的主觀認知偏差和誤解,導致其可信賴度的下降,為算法風險的形成埋下了伏筆。從環(huán)境因素來看,使用者的利益驅(qū)使和環(huán)境的錯綜復雜等,都為算法風險提供了生成沃土。算法風險倫理評估的客觀難度較大。從倫理治理視角來看,由于內(nèi)在程序模型設計的復雜性和外在評價標準的共識度,算法風險的客觀表征難以準確衡量評估,因此也難以準確預測算法風險可能帶來的潛在或?qū)嶋H道德影響。然而,對算法的倫理評估也可以只關注操作本身。由算法驅(qū)動的行為可以根據(jù)許多道德標準和原則進行評估,一般稱之為依賴觀察者的行為及其影響的“公平性”。另外,仍然存在一些社會秩序?qū)用娴牟涣加绊?,如目前仍然在一定程度上存在對倫理?guī)范的無視,倫理制約的力度與效能都相對弱化。

      三、算法風險倫理治理的結構化范式:倫理框架、倫理解釋話語、倫理制度化

      人類和算法如何更融洽地相互適應,需要從倫理層面加以審視并給出合理答案。然而在推進算法風險倫理治理的結構化進程中,仍然有很長的距離要走,需要達成深刻的治理體系和治理能力變革。從倫理道德層面強化算法風險倫理治理的結構化范式,是推動算法風險倫理治理的重要途徑。

      首先,建構合理的倫理框架是解決算法風險倫理問題的基本前提。倫理框架為研究解決算法風險問題提供了基本的出發(fā)點和語境,并在一定的倫理規(guī)范原則和具體制度下約束算法風險。由此建構的倫理框架,作為算法風險治理的優(yōu)先級路徑,在解決算法風險問題中起到顯而易見的“潤滑調(diào)節(jié)”作用,將更為柔性地處置算法可能帶來的不透明或不公正結果,限制調(diào)節(jié)算法可能產(chǎn)生的偏見或歧視。客觀上看,算法是冷冰冰的程序代碼,不具有感情與意識,但算法的設計與使用是人的主觀能動性與技術智能屬性的高效結合,其中嵌入了設計者的價值觀念,這也在一定程度上推動了人在社會中的角色轉(zhuǎn)變,使得人類更多地借助算法解決紛繁復雜的難題,但也可能因為算法的濫用造成隱私泄露和歧視偏見現(xiàn)象的發(fā)生。倫理規(guī)范是更高層次的戒律與自覺行為,而算法風險的倫理治理框架,本質(zhì)目的是為了在避免法律強制性要求的基準下,提供必要的約束力。目前,對算法風險建構倫理框架已經(jīng)成為全球共識,并達成了高度一致性,即在算法設計伊始便要優(yōu)先考慮其價值反映,強調(diào)符合道德規(guī)范的設計,這也是解決算法倫理困境的重要前提。算法風險的倫理治理需要一定的規(guī)則和標準以及懲戒機制加以實施,從而確保規(guī)范守則在倫理框架下的遵守。

      其次,算法的倫理解釋話語,即其內(nèi)蘊的倫理表達,包括公平、平等、民主、責任等,是審視算法風險的重要倫理依據(jù)。倫理解釋話語是指我們?nèi)绾斡脗惱淼难酃馊タ剂糠此妓惴L險,進而從倫理范圍提供解決問題的思考與方案。算法本身負荷一定的倫理價值,甚至折射出其背后蘊含的文化理念。不同民族和文化的倫理傳統(tǒng)存在顯著差異,被包含在一個較大的解釋性多元論框架中,這些差異構成了對共有價值觀和規(guī)范的不同解釋和應用,從而這種共同的價值觀和規(guī)范接近于一個更普遍有效的規(guī)范和價值觀。[15]算法作為一種程序代碼,其不確定性和復雜度在一定程度上造成了算法的可解釋性不足。因此,必須在算法的開源透明與隱私保密之間尋找到一個可接受的平衡點,在充分衡量算法道德標準的共性與個性條件下,確保算法的“公平性”。例如,歐盟 《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR) 要求算法具備可解釋性(The Right to Explanation of Automated Decision),數(shù)據(jù)主體對于自動決策不滿意時,可以采取人工干預,要求對相關數(shù)據(jù)進行解釋。[16]隨著公共和私營部門組織越來越多地使用大量的個人信息和復雜的數(shù)據(jù)分析系統(tǒng)進行決策,人們對算法可解釋性的要求越來越強烈,個性化算法需要人為的干預,將倫理原則和平衡納入其中。

      再次,算法倫理規(guī)范的制度化,是約束算法風險、防止偏見進入算法的重要手段。個性化的算法需要道德衡量與倫理制約,這種倫理層面的規(guī)范實質(zhì)上是一種契約。倫理道德制度化對技術治理的行動具有兩方面的要求:一是將道德要求轉(zhuǎn)化為制度,二是將道德要求實現(xiàn)于制度過程中,即技術治理的技術性和過程性要求。[17]人類需求與算法表達之間存在需要彌合的鴻溝,隨著技術的不斷進步,算法的發(fā)展已經(jīng)超出了人類可控的范疇,向未知多元的方向發(fā)展,需要倫理制度來確保算法的可靠性,框設算法的發(fā)展空間與運行軌跡。算法的制度化趨勢越來越明顯,各種倫理規(guī)范守則為算法健康發(fā)展提供了保障支撐。“不道德的算法與算法的不道德”制造的風險,日益成為需要人們加以審視的重要問題。根據(jù)合理的道德標準和原則對算法風險進行前瞻性評估,能夠?qū)崿F(xiàn)“算法過濾”的效能,避免“倫理失衡”可能帶來的系統(tǒng)性傷害。算法的制度化能夠建立責任標準,從道德上詮釋人們的意識、隱私、信任和安全感,推動算法工具屬性與價值屬性的完美融合。

      四、算法風險倫理治理結構化的實施路徑

      數(shù)字或算法時代的倫理審視,將會顛覆傳統(tǒng)的技術倫理觀念,推動倫理范式轉(zhuǎn)變,形成負責任的研究框架與創(chuàng)新路徑。人工智能倫理框架是一個實用工具,越來越多的人工智能倫理框架試圖填補目前存在的倫理漏洞。人工智能倫理也涵蓋體現(xiàn)了價值觀和原則,在人工智能技術的開發(fā)和使用過程中,采用了廣泛接受的對錯標準來指導道德行為。[18]建構倫理框架下的算法風險評估模型與問責機制,動態(tài)描述人工智能算法風險的倫理指標體系,能夠更好地理解其所產(chǎn)生的倫理風險及破壞影響力。

      (一)建構算法風險倫理評估模型與審查體系

      人工智能應該是道德的、向善的,但對算法的道德要求、技術標準、評估體系等方面,仍然存在很大的提升空間。算法的關鍵屬性特征能夠影響風險的形成效果,而算法風險的準確評估則需要經(jīng)歷一個較為復雜的認知與實現(xiàn)過程。算法由編程代碼組成,而編程代碼本身是無法監(jiān)管的。相反,只有相應的規(guī)范管理實體或規(guī)范的實際結果才能被規(guī)范。[19]從技術層面而言,只有專業(yè)技術人員檢查系統(tǒng)代碼漏洞才能發(fā)現(xiàn)問題隱患。而從道德倫理層面而言,設計者的價值觀念如何滲透體現(xiàn)在算法之中,才是對算法風險科學認知的根本所在。康德的道德理論已經(jīng)成為把“倫理”引入機器的先行者??档碌赖伦鳛橐环N基于責任的倫理范式,承諾為機器人提供一個可實現(xiàn)的道德框架,使其得以成功遵守。[20]算法的道德倫理考量如何轉(zhuǎn)化為實際研究并應用到實踐中,進而為社會發(fā)展提供可靠方案?這里需要正確設計能夠支撐算法風險態(tài)勢檢測的動態(tài)表征框架,建構可解釋的基于認知框架之中的算法風險評估模型,科學準確評估風險指征,并對可能造成的社會倫理影響作出前瞻性的判斷預測,這也是設計算法風險倫理評估模型的初衷所在。通過強化算法風險的倫理審查,進一步凸顯倫理治理的制度性和規(guī)范性,建構形成由有效規(guī)則和標準構成的審查體系,以確保算法安全和負責任的系統(tǒng)設計。

      (二)提升算法的倫理信任閾值與制定評估指標

      為防止算法欺騙或者操縱人類,在人與算法互動的過程中維護人的能動性,提升算法倫理信任閾值是防范算法風險的重要路徑。倫理信任閾值包括算法風險與倫理相關的主題要素,如透明度、可解釋性、價值觀、公眾道德期望等。這些倫理維度的量化特征屬性,將與算法風險有關的各種度量指標納入倫理設計過程之中,涵蓋了大部分已經(jīng)達成的倫理共識原則。不正當偏見的損害性主張容易造成算法的可信度下降,因此算法在設計之初便要符合道德規(guī)范的設計,嵌入相對公平的倫理價值,以避免造成算法的越界應用和不當后果。如何從道德倫理維度衡量人工智能算法風險?對算法風險進行準確評估,設置一定的度量指標是必要的,通過倫理層面的量化特征來表達算法風險的大小,進而對風險的可能性做出準確預判。算法風險評估提供了實用的問責框架,將機構審查和公共參與影響評估結合起來。[21]分析評估人工智能算法的社會影響及道德風險,是我們建構算法倫理信任閾值的客觀依據(jù)和重要指標。因此,設置算法風險評估指標,形成基于量化特征分析的風險認知與評價體系,是一種較為科學恰當?shù)娘L險評估方法。

      (三)設立算法風險倫理問責機制

      當前公眾信息隱私面臨著重要挑戰(zhàn),算法在一定程度上推動著隱私概念的轉(zhuǎn)變,主體對算法的透明度要求越來越高,在某種程度上強化了算法風險的責任追溯機制。哲學家Tony Beavers說:“設計道德機器的項目很復雜,因為即使經(jīng)過兩千多年的道德調(diào)查,仍然沒有就如何確定道德權利和道德責任達成共識。”[22]算法以及源代碼獲取的渠道日益開源,其安全可靠性成為衡量算法風險的重要因素,這就要求我們不僅要對技術的精準使用負責,還要對其可能造成的社會倫理影響負責。從認知科學視角探討算法風險的社會影響,從倫理嵌入、風險評估、公眾參與等方面,探討基于社會影響和公眾接受度的算法風險認知,是消除算法偏見、實現(xiàn)公平正義的重要途徑。不恰當?shù)膫惱砜蚣芸赡軙で图觿∷惴L險,不利于算法的適度修改與調(diào)整。越來越多的機構與組織開始推動人工智能算法風險評估機制的運行,包括設立多樣化與包容性的倫理框架,如基于過程的治理框架(PBG);算法問責機制、算法影響評估機制、算法審計機制等治理途徑開始推行,全面推進了倫理原則和價值觀的落實與執(zhí)行。人工智能算法負責任的研究與創(chuàng)新,源于并植根于倫理立場,需要設立算法風險的道德責任溯源機制,當算法造成風險后果時,責任和制裁必須明確地分攤到算法的設計者、制造商或者使用者。

      五、結語

      喬治·戴森曾在《圖靈大教堂》一書中這樣說道:“Facebook 決定了我們是誰,亞馬遜決定了我們想要什么,Google決定了我們怎么想?!彼惴L險危機已經(jīng)給人們的行為意識造成了潛移默化影響,甚至這種影響還在不斷地加深擴大。完善基于角色、基于職責和基于結果的倫理結構化制度,探索建立基于責任的道德緩沖保障體系,不斷夯實算法風險治理的倫理根基,相信人類有足夠智慧能夠駕馭技術風險帶來的嚴峻挑戰(zhàn),真正將風險危機框設在結構與制度中,借助倫理推動更為光明的技術前景和更為美好的發(fā)展未來。在這場人類與算法的“道德游戲”中,算法風險帶來的倫理性障礙正在消除破解,人機交互的認知正在逐步推進實現(xiàn),多樣性與包容性的倫理結構提升擴展了信任空間,也為解決算法風險治理難題提供了可行的倫理方案。

      參考文獻

      [1] [德]阿明·格倫瓦爾德. 技術倫理學手冊[M]. 吳寧,譯. 北京:社會科學文獻出版社,2017:31.

      [2]張廣利.當代西方風險社會理論研究[M].上海:華東理工大學出版社,2019:2-4.

      [3] UlrickBeck,World Risk Society,Cambrige:blackwell,1999:53.

      [4]劉培,池忠軍.算法的倫理問題及其解決進路[J].東北大學學報:社會科學版,2019(2):119.

      [5]張凌寒.風險防范下算法的監(jiān)管路徑研究[J].交大法學,2018(4):50.

      [6]Robin K.Hill.What an Algorithm Is[J].Philosophy&Technology,2016,29(1):35-59. https://doi.org/10.1007/s13347-014-0184-5.

      [7] [美]弗蘭克·帕斯奎爾.黑箱社會——控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版集團,2015:267.

      [8]蘇宇.論算法規(guī)制的價值目標與機制設計[J].自然辯證法通訊,2019(10):10.

      [9]OMalley,P.The Uncertain Promise of Risk.The Australian and New Zealand[J].Journal of Criminology,2004,37(3):323-343.

      [10]張衛(wèi).算法中的道德物化及問題反思[J].大連理工大學學報:社會科學版,2020(1):118.

      [11]胡麗.科技風險的現(xiàn)代性反思[J].人民論壇,2011(17):224.

      [12]孫保學.人工智能算法倫理及其風險[J].哲學動態(tài),2019(10):97.

      [13]劉益東.致毀知識與科技倫理失靈:科技危機及其引發(fā)的智業(yè)革命[J].山東科技大學學報:社會科學版,2018(6):6.

      [14] Artificial intelligence and medical imaging 2018: French Radiology Community white paper[DB/OL](2018-11-22)[2020-11-10]. https://doi.org/10.1016/j.diii.2018.10.003.

      [15][荷蘭]尤瑞恩·范登·霍文,[澳大利亞]約翰·維克特.信息技術與道德哲學[M].趙迎歡等.譯.北京:科學出版集團,2017:171.

      [16]于雪,段偉文.人工智能的倫理建構[J].理論探索,2019(6):47.

      [17]王長征,彭小兵.技術治理與制度道德[J].自然辨證法研究,2020(6):36.

      [18]Leslie, D. Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector[R]. The Alan Turing Institute,2019:3. https://doi.org/10.5281/zenodo.3240529.

      [19]Ethics in AI: Are algorithms suppressing us?[DB/OL].(2018-11-21)[2020-11-20].https://www.elsevier.com/connect/ethics-in-ai-are-algorithms-suppressing-us.

      [20]Ryan Tonkens. A Challenge for Machine Ethics[J]. Minds & Machines,2009,19(3):422. https://doi.org/10.1007/s11023-009-9159-1.

      [21]Reisman, D.,Schultz, J.,Crawford, K.,Whittaker, M. .Algorithmic impact assessments: A practical framework for public agency accountability[R]. AI Now Institute,2018:5.

      [22]Mark R.Waser. Designing, Implementing and Enforcing a Coherent System of Laws, Ethics and Morals for Intelligent Machines (Including Humans) [J]. Procedia Computer Science,2015,71:106-111.https://doi.org/10.1016/j.procs.2015.12.213.

      責任編輯:葉民英

      猜你喜歡
      人工智能
      我校新增“人工智能”本科專業(yè)
      用“小AI”解決人工智能的“大”煩惱
      汽車零部件(2020年3期)2020-03-27 05:30:20
      當人工智能遇見再制造
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      AI人工智能解疑答問
      人工智能與就業(yè)
      基于人工智能的電力系統(tǒng)自動化控制
      人工智能,來了
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      人工智能來了
      學與玩(2017年12期)2017-02-16 06:51:12
      元朗区| 灵川县| 宿迁市| 佛教| 秦安县| 平和县| 吉隆县| 巫山县| 金秀| 道真| 玛纳斯县| 清徐县| 桐城市| 资源县| 陇南市| 汉源县| 丰镇市| 达拉特旗| 巴彦县| 小金县| 仁寿县| 开原市| 蒲城县| 桂东县| 和静县| 凤阳县| 桂阳县| 平潭县| 瓦房店市| 澎湖县| 徐水县| 九龙城区| 乌拉特前旗| 万宁市| 潜江市| 东阿县| 大厂| 罗定市| 客服| 环江| 庆安县|