• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能風險的意蘊生成與治理路徑

      2020-03-23 05:59:55鄭容坤
      黨政研究 2020年2期
      關鍵詞:風險治理風險社會人工智能

      鄭容坤

      〔摘要〕人工智能風險意指因人工智能技術的不確定性所誘發(fā)的對人類經濟結構、社會秩序、倫理道德乃至生存安全等方面的可能性后果。風險技術與技術風險共同型構人工智能的風險議題,致使人工智能呈現(xiàn)出有別于風險社會其他技術風險的客觀現(xiàn)實性、主觀建構性、技術非人化特征。風險技術是人工智能風險的生成因子,源于技術理性的認知局限、人類主體的主觀利益、類人自主的它者欲望等技術性缺陷。技術風險則是風險技術的后果顯影,指涉人工智能風險表層波及面的廣博性以及深層次的工具性與價值性兩種動態(tài)風險情形。當信息技術甚囂塵上,人工智能高歌猛進時,不斷升級的風險技術難題將加劇技術風險的嚴峻境遇,最終引致人類陷入技術化泥潭。化解人工智能附加于人類的技術化生存危機,需要立足技術迭代與人類理性的雙重考慮,更新人文治理理念、構建協(xié)同治理機制、優(yōu)化多樣治理工具等途徑不失為規(guī)避人工智能風險的有效路徑。

      〔關鍵詞〕人工智能;技術風險;風險治理;風險社會;技術倫理

      〔中圖分類號〕D63-39 〔文獻標識碼〕A 〔文章編號〕2095-8048-(2020)02-0108-11

      無論是貝克的《風險社會》,抑或吉登斯的《失控世界》,都指向現(xiàn)代社會的一個共同命題,即技術與風險的關聯(lián)性。當人類科技一路高歌猛進之時,技術的普羅米修斯效應緊跟其后。人工智能作為引領工業(yè)4.0的人類科學技術也難以逃脫技術風險的命運窠臼,“人工智能在貢獻世界、發(fā)揮影響、促成改變的同時,也易于誘發(fā)系列風險危機,例如勞動的脫嵌與消匿、人與人的疏遠與隔離、人類的被超越與被控制等”〔1〕,進而構筑人工智能的風險議題。人工智能風險意指何物?如何生成?有何形態(tài)?如何因應?對此,本文嘗試從風險社會的理論視角進行初步的探討。

      一、提出問題:人工智能風險的出場

      自1956年達特茅斯會議首提人工智能術語至今60多年來,人工智能經歷了從爆發(fā)到寒冬再到野蠻生長的歷程后,在2016年以谷歌圍棋程序人工智能AlphaGo戰(zhàn)勝世界冠軍李世石為指標性事件,人工智能開啟對人類社會權力組織、經濟生產和治理方式的顛覆性變革。人工智能“在帶給人類巨大進步與福利的同時,也帶來了不可忽視的倫理風險、極化風險、異化風險、規(guī)制風險和責任風險”〔2〕以及決策風險等現(xiàn)代性社會問題。對此,已有研究立足法學、倫理學、管理學等展開跨學科研究,打破人工智能發(fā)展的工程“技術領土”邊界,并圍繞技術、社會、治理視角進行學術反思,表達對人工智能風險及其化解的人文關懷。

      首先,技術視角的風險,主要源于算法客觀性與主觀性等技術屬性的內在缺陷。算法的客觀性在于人類有限理性之下對算法技術的不確定性認知,而算法的主觀性強調算法程序的主體惡念,兩者造就了人工智能的“算法失序”,進而衍生為人工智能風險。在人工智能算法被視為一種新的權力形態(tài)時,囿于算法歧視、算法黑箱、算法偏見以及算法自利等主客觀缺陷,人工智能算法的政治與道德風險在所難免。避免因算法失序帶來的技術風險,應實行算法監(jiān)管關口前移,“樹立以風險防范為目的的監(jiān)管思路,實行內容與算法并重的雙軌審查機制,以及設立平臺責任與技術責任雙軌并行的責任體系,并對算法的生產性資源數(shù)據(jù)的收集和使用進行合理限制”〔3〕。

      其次,社會視角的風險,來自于人工智能應用中呈現(xiàn)出來的“墨菲定律”①。一是法律風險,認為人工智能作為一種發(fā)展型的技術體系,具有超前性、復雜性的社會屬性,然而因缺乏法律的有力規(guī)制會產生法律失效危機。當前人工智能法律風險涉及智能體的法律主體資格評價〔4〕、行為責任認定以及刑罰類型設置〔5〕等議題,強調從違法主體(是人類還是類人)為出發(fā)點規(guī)避社會風險〔6〕。二是倫理風險。人工智能的發(fā)展可能引發(fā)責任倫理沖突的社會擴大問題與隱私群體化泄露風險〔7〕,通過規(guī)約智能機器設計者、所有者、使用者等主體行為,提倡人工智能研發(fā)與應用階段的倫理道德,才能在保障智能機器與系統(tǒng)的安全基礎上,維護人類社會的健康發(fā)展?!?〕三是失業(yè)風險。人工智能技術的迭代升級,一方面可能會取消大規(guī)模的簡單勞動,形成結構性失業(yè),甚至會擊垮社會分層結構的中產階級,最終致使社會資源流向少數(shù)資本精英和技術精英,加劇社會走向實質的不平等〔9〕,同時也誘發(fā)失業(yè)人員無法獲得與社會技術相匹配的新技能的再就業(yè)風險〔10〕〔11〕。有部分研究立足國家層面,剖析人工智能對國家主權安全、國際戰(zhàn)略合作、數(shù)據(jù)共建共享以及國家責任〔12〕等方面的風險治理命題。

      最后,治理視角的風險。社會領域在吸納人工智能技術實施智能化治理時,潛在著人工智能技術的“反制性”,即技術發(fā)展的不確定性導致社會治理存在從“數(shù)字民主”滑向“技術利維坦”的潛在風險〔13〕。有效規(guī)制人工智能的潛在風險,需要從善治的角度著手,“通過社會多元主體的共治,構建可控的應用環(huán)境、可靠的安全屬性、合理的責任機制,形成科學和有效的人工智能風險治理體系”〔14〕。同時,應從基礎治理、綜合治理、倫理治理相統(tǒng)一的系統(tǒng)治理思路出發(fā)構建人工智能風險化解的整體性機制。

      已有文獻立足技術、社會、治理三個視角,遵循現(xiàn)象-原因-對策的闡釋路徑反思人工智能的風險生發(fā)機理,這些研究為本文的展開提供有益支持。然而,相對于人工智能技術的突飛猛進,現(xiàn)有的研究略顯瓶頸,亟需在深度上拓展。本文以此為進路,結合風險社會理論,建構風險技術與技術風險的互構邏輯,試圖闡釋人工智能風險的內涵意蘊、生成機理、形態(tài)特征以及善治思考。

      二、人工智能風險的意蘊與特征:風險社會的新風險圖景

      在經歷兩次世界大戰(zhàn)之后,人類社會進入了極盛現(xiàn)代化表象下各類風險暗流涌動的風險社會。對于這類風險社會的理論闡釋當屬烏爾里?!へ惪耍║lrich Beck)與安東尼·吉登斯(Anthony Giddens)的風險社會理論。貝克在《風險社會》書中,首提風險社會概念,認為科技在促進社會發(fā)展的同時,也暗含著對生態(tài)環(huán)境和人類自身的副作用,人類已處在技術性風險所構筑的境遇之中。吉登斯則以西方資本主義社會的現(xiàn)代性為切入口,闡釋技術風險對社會結構與社會秩序的撕裂問題,強調現(xiàn)代社會周遭的風險屬于人造風險(manufactured risk)系列,是由人類自身制造出來而有別于自然風險的形態(tài),同時因其由人類無限制利益的驅動,將會是人類所面臨的最大威脅〔15〕。貝克和吉登斯旗幟鮮明地認為,風險社會是一個反身性(Reflexivity)現(xiàn)代化的社會,即“創(chuàng)造性地(自我)毀滅整整一個時代——工業(yè)社會時代——的可能性。這種創(chuàng)造性毀滅的‘對象不是西方現(xiàn)代化革命,也不是西方現(xiàn)代化的危機,而是西方現(xiàn)代化的勝利成果”〔16〕。他們認為風險社會的歸宿是人類現(xiàn)代文明的毀滅,其根源在于人類對技術創(chuàng)新、發(fā)展的無止境追求,而人類的這種非理性技術沖動是現(xiàn)代性制度失范的再次作用。吉登斯從制度主義視域揭示風險社會產生的制度根源,包括現(xiàn)代性賴以支撐的資本主義、工業(yè)主義、監(jiān)督和軍事力量等四類制度性失范〔17〕。貝克進認為風險治理的關鍵在于完善社會規(guī)范和制度體系,因為“風險社會的教訓是:政治和道德正在獲得——必須獲得!——替代科學論證的優(yōu)先權”〔18〕。

      風險社會理論展示風險生產的一個基本邏輯:自現(xiàn)代化以來,風險支配正逐漸由自然風險轉為人造風險,同時由于制度失范致使人類無節(jié)制地利用技術在探索未知世界的過程中,不斷地制造出可能危及人類文明的各類技術風險??寺∪恕⒑宋淦?、基因編輯嬰兒、情感機器人、性伴侶機器等人類技術的研發(fā)與應用,加劇了人類社會秩序與倫理道德的現(xiàn)實危機。隨著人工智能技術的迭代升級,人工智能技術將得以大規(guī)模普及,然而技術的副作用效應也愈發(fā)凸顯。無論是《人工智能》《終結者》《奇點》《機械姬》《Tron》等科幻作品,還是埃隆·馬斯克(Llon Musk)、史蒂芬·霍金(Stephen Hawking)、史蒂夫·沃茲尼克(Steve Wozniak)等人的批判言辭,無不飽含著對人工智能未來發(fā)展的深深擔憂。

      人工智能發(fā)軔于20世紀50年代,興盛于21世紀初,其形成軌跡契合風險社會的指涉范圍與運作機理。于風險社會而言,人工智能風險是一種人造的特殊的技術風險,然而,我們長期缺乏對人工智能風險的分析〔19〕。在現(xiàn)實中,關于人工智能風險的情境敘述更多以科幻小說或影視等體裁呈現(xiàn);從政策目標看,中央與地方涉及人工智能風險防范目標的比重分別為10.28%和3.38%,較低于社會、經濟等發(fā)展目標,表明公共政策并未對人工智能潛在的風險和挑戰(zhàn)予以應有關注〔20〕。這兩方面共同提出了一個緊迫性命題,即需要對人工智能的風險生成、形態(tài)特征以及規(guī)制途徑做出客觀判斷。人工智能是一類不斷升級的智能技術體系,界定其潛伏的風險,可以從技術視角加以解構。我們認為,人工智能風險意指因人工智能技術的不確定性所誘發(fā)的對人類經濟結構、社會秩序、倫理道德乃至生存安全等方面的可能性后果。相對于核武器、核電站、轉基因食品、基因編輯嬰兒等技術引發(fā)的風險,人工智能風險更具自主性與顛覆性,是風險社會的一種新形式險種。本質看,人工智能風險命題涵括兩個內容:一是風險層面的技術性缺失,即風險技術。二是技術層面的風險性后果,即技術風險。兩者互為因果關系,共同型構人工智能技術之于人類社會的風險議題。風險技術與技術風險合謀作用下的人工智能風險超越人類對風險的一般性感知。我們認為作為一種已經形成或正在加劇的智能性風險,人工智能風險具有客觀存在性、主觀建構性、技術非人化三個主要特征。

      首先,具有客觀存在性。人工智能風險內嵌于人造的“智能體”及其行動時空中,會通過人工智能的技術缺陷引發(fā)現(xiàn)實性安全問題。這種技術缺陷及其誘發(fā)的風險事實,并不以人類的主觀意識而轉移,而是客觀存在于人類社會中。美國路易斯維爾大學的亞姆波斯基(Roman Yampolskiy)教授在《人工智能與網(wǎng)絡安全:人工智能失效時間表》一文中,梳理2016年以來人工智能發(fā)展帶來的風險類型,比如微軟聊天機器人TAY散布種族主義;特斯拉半自動駕駛系統(tǒng)發(fā)生車禍,致人死亡;巡邏機器人失控撞擊兒童等〔21〕。這些問題業(yè)已存在人類社會之中,不僅危及人類生命健康安全,而且沖擊著人類平等、正義、民主等美好價值。

      其次,具有主觀建構性。人工智能引發(fā)的社會風險是人類主體基于邏輯判斷之后能夠感知與預測的社會問題。吉登斯認為風險標志著與傳統(tǒng)社會的根本性決裂,是面向未來的產物,而人類囿于不同的文化背景和價值觀則會形成異質性的風險認知方式。在不同的社會制度下,社會公民會持有不同的風險認知;在同一制度下由于社會分層結構以及知識體系的差異也會有各異的風險感知。對人工智能的快速發(fā)展,社會上有發(fā)展論與否定論兩種相對的觀點:前者認為“人工智能發(fā)展契合人類需求”“人工智能危機論是個偽命題”;而后者則提出“人工智能顛覆人類”“主奴關系錯置”“結構性失業(yè)”等人工智能危機說。其實這些說法,各有其合理成分,都立足于人類對技術風險的建構性與反思性。例如,就業(yè)可能是人工智能首先刺破的人類社會防線,未來人工智能技術將給就業(yè)帶來結構性變革,將會引發(fā)“大多數(shù)利益受損”和“極少數(shù)權益被剝奪”問題。有多項研究顯示,超過50%的現(xiàn)有工作崗位最終將完全被自動化和機器人替代①,而如何治理人工智能帶來的就業(yè)問題,則亟需人類的理性策略。

      最后,具有技術非人化。從本源看,技術是人性與物性的自洽。劉同舫教授認為,技術的人性是人的能動性和目的性的外化,而物性則表現(xiàn)為任何技術的產生、發(fā)展都不能脫離具有客觀實在性的自然物,不能違背自然規(guī)律?!?2〕人工智能技術作為人類科技史的高新技術,在經歷機械智能到弱人工智能再到強人工智能之后,將會達到技術奇點②。這種階段提升過程預示人工智能從機械思維到智能自主的“華麗變身”,其本質是人工智能技術逐漸脫離技術的人性與物性特征,并成為具有獨立自主的非人性力量。在奇點時代,人工智能將無視其“人性”和“物性”的質性規(guī)定性,而解構其內在統(tǒng)一性,被視為人類的強勢對手,而“人的生理能力因技術的替代而退化,人的精神能力因依附于技術而受到技術的控制和折磨”〔23〕,人類自身最終反倒為技術物化,淪為技術的附庸。這是人工智能技術對人類的最為根本性的危害。

      我們承認,當人類步入現(xiàn)代性時,就隱喻走進了險象叢生的風險世界。人類中心主義思潮主導著人類對技術的無限追求,并自詡為“人類是萬物的尺度”,宣稱人類理性能夠駕馭技術的工具性,能杜絕技術之于人類社會的潛在副作用。其實不然,人工智能的技術風險已展現(xiàn)出超越人類理性的認知邊界,這決定人工智能風險是風險社會的一類嚴峻風險情形,同時也強化審視人工智能風險必須成為人類社會的重要議題。

      三、技術與風險:人工智能風險的因果

      在人工智能時代,世人享受著智能化所帶來的物質便利與精神陶冶,然而,任何技術都是兩面性的,當我們浸淫于算法程序所設定的技術世界時,我們容易迷失自我,忘卻人類最為本真的人性價值,而將其讓渡于機器智能,致使在個體身心、社會秩序乃至人類命運出現(xiàn)深度風險。斯蒂芬·霍金(Stephen William Hawking)曾說:“人工智能之于人類,可能是最好的事情,也可能是會終結人類的最壞事情”,同時“我們不能把飛機失事歸結于萬有引力;同樣,不能把人類毀滅歸罪為人工智能”。霍氏言辭表明辯證審視人工智能技術的重要性。我們認為,人工智能風險源于風險技術,而其果為技術風險,兩者互為因果關聯(lián)。

      (一)風險技術:人工智能的風險因子

      風險技術指技術作為一種服務于主體的工具,具有自身的結構性缺陷。就表現(xiàn)形式而言,風險技術誘發(fā)人工智能風險主要通過技術理性的認知局限、人類自身的主觀利益、類人自主的它者欲望三個方面展開。

      首先,技術理性的認知局限。理性是技術的生存論基礎,體現(xiàn)為合客觀性與合邏輯性的統(tǒng)一〔24〕,人類的技術認知局限隱喻著對技術發(fā)展客觀性與邏輯性的有限掌握與階段體悟。換言之,人類無法憑借自身的認知維度去窮盡技術的內涵邊界,對于技術迭代升級的追求只能限定在人類的有限理性之中?,F(xiàn)階段因人工智能技術的不成熟性所導致的安全風險比比皆是,這些風險可能源于算法不可解釋性、數(shù)據(jù)強依賴性等單向或復合的技術局限性問題。但是人類按照目前的知識儲備,難以科學辨識其根源,導致人工智能技術的研發(fā)與應用充滿了“試錯”風險。超強算法是人工智能技術的核心要件,但是逆向攻擊可導致算法模型內部的數(shù)據(jù)泄露;算法設計或實施有誤可產生與預期不符甚至傷害性結果;算法黑箱導致人工智能決策不可解釋,引發(fā)監(jiān)督審查困境;對抗樣本攻擊可誘使算法識別出現(xiàn)誤判漏判,產生錯誤結果。①例如,2018 年 3 月,Uber 自動駕駛汽車因機器視覺系統(tǒng)未及時識別出路上突然出現(xiàn)的行人,導致與行人相撞致人死亡。對于算法的程序構造及其具體運算過程,人類目前尚未找到有效的解決途徑,這在一定程度上反映了人類對技術知識的認知局限。

      其次,人類自身的主觀利益。人工智能技術的飛速更新,并非僅僅是人類對技術的好奇心,而是夾著更多的資本與利益訴求。一方面高新技術企業(yè)是追求人工智能技術的主要動力源,通過研發(fā)、推廣、運用智能技術得以迅速占據(jù)技術市場。蘋果公司、Facebook、Google、IBM、華為、阿里巴巴以及騰訊等公司都將發(fā)展人工智能技術作為公司首要戰(zhàn)略,在研發(fā)經費、人才引進等方面加大投入以贏得比較優(yōu)勢,企及獲取更為優(yōu)厚的經濟效益。據(jù)CB Insights2017年發(fā)布的《人工智能狀況》顯示,人工智能公司的股價在最近的5年中上漲了5倍,相關投資也從2012年的5.59億美元暴增至2016年的48.71億美元〔25〕。這表明人工智能的技術利益“大戰(zhàn)”已經開始拉開。另一方面,世界主要發(fā)達國家高度重視人工智能發(fā)展,將其視為國家未來拓殖的重要戰(zhàn)略空間。2014年以來美國、英國、歐盟、日本等國家密集發(fā)布人工智能相關的國家戰(zhàn)略,并單列財政經費支持。美國是世界上第一個將人工智能發(fā)展上升到國家層面的國家,人工智能戰(zhàn)略規(guī)劃被視為美國新的阿波羅登月計劃。2016年 10月,美國總統(tǒng)辦公室連續(xù)發(fā)布《國家人工智能發(fā)展與研究戰(zhàn)略計劃》和《為人工智能的未來做好準備》兩份人工智能發(fā)展戰(zhàn)略,提出美國扶持人工智能研發(fā)的七項戰(zhàn)略與二十三條建議。同年11月,美國白宮發(fā)布《人工智能、自動化與經濟》報告,2018年3月和9月白宮又分別發(fā)布《美國國家機器智能戰(zhàn)略報告》和《機器崛起:人工智能及對美國政策不斷增長的影響》,2019年2月美國國家科技政策辦公室發(fā)布《美國人工智能倡議》。英國通過《2020年發(fā)展戰(zhàn)略》加速人工智能研發(fā);歐盟2014年啟動全球最大的民用機器人研發(fā)計劃“SPARC”;日本政府在2015年制定《日本機器人戰(zhàn)略:愿景、戰(zhàn)略、行動計劃》促進人工智能發(fā)展。由此可知,人工智能發(fā)展已經成為人類社會發(fā)展的新一輪技術海嘯,無論是國家權力主體,還是企業(yè)組織都試圖獲取人工智能的技術紅利,體現(xiàn)了人類的利益至上性。

      最后,類人自主的它者欲望。一方面人類受制于技術魅惑,退化為單向度的人。美國學者尼古拉斯·尼葛洛龐帝在20世紀90年代提出“數(shù)字化生存”術語,表達對信息技術發(fā)展未來的一種大膽預測,發(fā)出“技術推動的文明進步是好還是壞”的追問。其實,技術是客觀性存在的且服務于人類的工具性手段,其無所謂好壞之分。只是,人類在運用技術改造社會的過程中,因逐漸讓渡自身的主體性而失去生存的精神維度,最終導致技術異化為“主體”,人類反制于技術時,技術才被賦予否定性批判?!叭说靡孕麄髯约菏堑厍虻闹髟椎哪欠N技術展現(xiàn)給人帶來的不是偉大的自由和自身性,因為他如此嚴重地受到技術本質的支配,以致他與事物和世界遭受同一命運:對事物的特性和自身性的毀滅和消滅已經向人進行報應,并殘酷地以同樣喪失其獨立性,以人的本質的喪失而為自己報了仇”〔26〕。馬爾庫塞(Herbert Marcuse)更為悲觀地批判技術魅惑,“機器本身變成了機械工具和關系的體系,并因此而遠遠超過了個別勞動過程,人類生產者受到機器的支配成為機器的附屬物”〔27〕??梢哉f,數(shù)字化生存時代,技術的解放力量成為解放的桎梏,造成的直接后果是社會變成單向度的社會,而人類成為單向度的人。這是智能技術對人類及其社會發(fā)動的首輪“戰(zhàn)爭”,而人類的社會性防線在數(shù)字化時代所構建的算法邊界中失守了。另一方面,智能體已不再是人類的工具,而是具有獨立性和自主性的它者存在,并在與人類的時空競爭中建構智能體的統(tǒng)治權。維納(N.Winener)認為,“機器能夠并肯定會超越他們的設計者的某些局限性,并且當機器實現(xiàn)時,他們可能既是高效的又是危險的”〔28〕。維納的觀點強調人工智能與人類之間存在不可調和的矛盾,人工智能發(fā)展的終結,將會是技術反制人類,“機械作為人類與自然斗爭的工具將最終支配人類、人類有可能成為機械的奴隸”〔29〕。當人工智能的自主性逐漸增強時,人類與機器脫鉤的風險也正在成型,這決定了人類審視人工智能風險后果的必要性。

      (二)技術風險:人工智能的風險后果

      馬基雅維利(Niccolò Machiavelli)曾指出:“誰渴望預見未來,就必須征詢過去,因為人類的事物從來都是與過往的時代類似”,究其根本在于“無論過去,還是未來,人類都被同樣的熱情激勵。結果就是,每個時代都存在同樣的問題”〔30〕。1811年至1816年間的英國“盧德運動”(Luddite Movement)就是這種社會問題的一個例證。在“盧德運動”中,工人以破壞機器等物質層面的舉動來表達對技術進步的內心憂慮與生存抗爭。人工智能作為新一輪的技術形態(tài),其危害程度更甚于以往任何時代的技術革命對人類的影響??傮w看,技術的不確定性及其根源的社會性,催生人工智能的風險性,導致人工智能風險后果的廣博性與動態(tài)性。

      一方面,從風險涉及面看,由于技術應用的廣泛性,人工智能將帶來沖擊網(wǎng)絡安全、社會就業(yè)、法律倫理等問題,并對國家政治、經濟和社會安全帶來諸多風險和挑戰(zhàn)。以人工智能引發(fā)的政治風險為例,人工智能算法逐漸嵌入民主政治架構中,給政治價值和政治管理以革命性的變革。從技術哲學的角度看,算法作為一種運算能力,根植于“客觀實體”內部,并依據(jù)“主體”的價值偏好、有限理性對外部世界做出決策判斷。我們認為,人工智能算法失靈引致的政治風險是指基于算法運作規(guī)則的人工智能體,由于自身內在的算法偏見、算法自利、算法黑箱①等失靈問題,引發(fā)對政治正義、政治透明、政治公意等民主價值理念的沖擊、損毀乃至背棄,最終給政治系統(tǒng)的有效運行和人類社會發(fā)展加蓋了一層陰影。基于此,人工智能的政治風險意味著算法失靈的政治風險,預示技術理性對人文價值的撕裂,所帶來的后果將會是根本性、全局性和災難性的。

      與此相對應的,美國人工智能研究專家Colin Garvey認為人工智能除了引致政治風險外,還存在軍事風險、經濟風險、社會風險、環(huán)境風險、心理生理風險以及精神風險〔31〕。這些風險并非單列存在,而是相互交織共生出技術風險。Colin Garvey從人工智能的政治風險角度,指出人工智能和大數(shù)據(jù)為精英們提供了前所未有的工具來操縱大眾的觀點〔32〕:例如2016年英國脫歐(Brexit)和美國唐納德·特朗普的當選;新聞信息和搜索結果背后的人工智能導致了黨派隔離,將選民鎖在政黨所屬的回音室里;最終AI風險鞏固和增強美國和其他地方的“后真相時代”的民主危機。同時,Colin Garvey也強調,社會風險會對人工生成的數(shù)據(jù)進行培訓的人工智能系統(tǒng)再現(xiàn)了數(shù)據(jù)偏見的再生產,〔33〕進一步強化對窮人、種族的社會歧視以及發(fā)展中國家的相對剝奪。

      另一方面,從風險產生的路徑看,人工智能風險會經歷從工具性風險到價值性風險的動態(tài)變遷。在《技術壟斷:文化向技術投降》一書中,尼爾·波斯曼(Neil Postman)通過思考技術對人類社會、文化和心理的影響,提出免于技術對文化造成傷害的具體建議。他認為,人類技術的發(fā)展可分為工具使用、技術統(tǒng)治和技術壟斷三個階段,對應的人類文化大致也可分為工具使用文化、技術統(tǒng)治文化和技術壟斷文化三種類型。在工具使用文化階段,技術服務、從屬于社會和文化;在技術統(tǒng)治文化階段,技術向文化發(fā)起攻擊,并試圖取而代之,但難以撼動文化;在技術壟斷文化階段,技術使信息泛濫成災,使傳統(tǒng)世界觀消失得無影無形,技術壟斷就是集權主義的技術統(tǒng)治〔34〕。尼爾·波斯曼技術與文明的演進邏輯對思考當前人工智能之于人類社會的影響具有啟發(fā)價值。以整體發(fā)展階段的檢視,人工智能可劃分為“弱人工智能、強人工智能和超人工智能三個階段。弱人工智能擅長于在特定領域、有限規(guī)則內模擬和延伸人的智能;強人工智能具有意識、自我和創(chuàng)新思維,能夠進行思考、計劃、解決問題、抽象思維、理解復雜理念、快速學習和從經驗中學習等人類級別智能的工作;超人工智能是在所有領域都大幅超越人類智能的機器智能”②。換言之,就弱人工智能而言,計算機在心靈研究中的主要價值是為我們提供一個強有力的工具,是人類改造自然和社會的人化力量;就強人工智能(或超人工智能)而言,計算機不只是研究心靈的工具,更確切地說,帶有正確程序的計算機其實就是一個心靈,已經具備了機器自主性意識?!?5〕

      這三個階段的技術轉換,潛藏著工具性風險與價值性的風險形態(tài)。在弱人工智能階段,技術風險以工具屬性而出現(xiàn),是一種現(xiàn)實性的風險情形,屬于人類可控的風險范疇。隨著人類對智能技術的日益精深,工具層面的技術缺陷會被逐漸攻克,弱人工智能階段的工具性風險會得到有效化解。然而在強(或超)人工智能階段,人工智能體作為具有獨立意識的“主體”而存在,將擺脫服務于人類的工具性行動模式,并與人類處于競爭狀態(tài),最終會誘發(fā)人工智能的工具性風險升級為價值性風險。在價值性風險階段,人工智能體逐漸脫離“人類制造”的智能,異化為一種獨立人類的它者,有著自身的運作程式和生存機理,它們既不愿受制于阿西莫夫所規(guī)制的“機器人三定律”①,又可能以“自身”的“主體性”重構智能體的它者秩序,與人類平分秋色,共享生存空間。這種智能體的價值性訴求,將會是人類有史以來最為嚴重的社會風險。面對人工智能技術已然形成的社會問題與即將到來的技術風險,人類如何因應,是選擇鴕鳥心態(tài),聽之任之,還是主動迎擊,展現(xiàn)造物主之擔當?人類必須有所抉擇。

      四、科技向善:人工智能風險的化解思考

      2018年10月31日,習近平總書記在中共政治局集體學習會議上強調:“要加強人工智能發(fā)展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”。為此,我們認為規(guī)避人工智能風險必須經由技術自身的發(fā)展邏輯然后達于人自身,通過更新人文治理理念、健全治理結構、優(yōu)化治理工具等面向圈定技術發(fā)展邊界,最終堅守“在技術發(fā)展面前維護人類尊嚴的底線”〔36〕。

      (一)在治理理念上:審視人工智能迭代中技術邊界與人類底線的關聯(lián)性

      技術邊界標識技術作為工具性存在的質的規(guī)定,體現(xiàn)為技術功能的有限和極限,人類底線則指人相對于自然法則而存在的人的主體性,以及作為人的精神特質和精神生活而顯現(xiàn)的人的精神維度〔37〕。人類底線是人之為人的最低標準,是人類區(qū)別于其他自然物種的根本屬性,而技術邊界體現(xiàn)了人類發(fā)揮主體性改造自然和社會關系的工具性能力,也歸屬于人類能夠駕馭的技術理性范疇。人類的底線為合理追求技術圈定了有效邊界。在技術邊界之內,人類可以憑借理性判斷維系正常的秩序空間與人類生存,而技術因滿足了人類需求而得以更新發(fā)展。人的底線思維標識人類價值存在的基礎性要件,也是處理人與技術關系的最低尺度。在人工智能技術廣泛運用于人類社會時,這種底線維度不能喪失或淪陷,而必須得到應有的重視與強化。原因在于人的主體性與技術的工具性。人類為了維護社會發(fā)展目的,必然要制造、使用工具,以釋放人類自身的生理局限,這是主體的人類之于工具性的要求。反之,如果人類喪失了底線思維,工具或技術成為主體,人類反制于技術,則表明人性的泯滅與社會秩序瓦解,會衍生出系列社會風險。因此,強化人的底線思維與審視技術發(fā)展的邊界是今后人工智能技術推廣應有的重要議題。

      (二)在治理結構上:構筑人工智能風險化解的協(xié)同治理格局

      人工智能風險的生成源于技術的客觀性缺陷與人類的主觀性動機,是高端技術嵌入人類社會系統(tǒng)的不確定性后果,這決定人工智能風險治理是政府、科學共同體、公民社會共同所面臨的亟待合作治理才能化解的一項艱巨任務。其一,在傳統(tǒng)治理模式中,政府作為風險社會的危機應對主體,擁有化解技術風險的資源優(yōu)勢,然而,由于人工智能的高端技術性與不確定性,其所衍生的技術風險更為復雜性、多樣性、嚴重性,致使單憑政府一己之力難以有效規(guī)制風險。其二,“科技風險具有無法預知性,科學共同體難以保持技術中立的立場去提供客觀可靠的知識,各治理主體已經不能單純依靠技術專家的建議展開治理實踐”〔38〕。其三,風險具有建構性,是社會公眾基于所處時代環(huán)境與文化的前瞻性判斷,然而在人工智能所引領的時代中,社會公民由于無法獲取類似于政府或高端技術企業(yè)的知識優(yōu)勢,在風險感知與建構上缺少話語表達權,將加劇人類風險治理的難度。這三類主體化解技術風險的能力缺陷,致使人類社會進入了科林格里奇困境①。改變這種困境的可能路徑建要通過構建一種良性互動、橫縱聯(lián)通的協(xié)同共治機制。人工智能風險的協(xié)同治理機制涵蓋政府組織、非政府組織、專家團體以及公眾等多元主體。這種治理機制可以“利用各自優(yōu)勢而逐漸組成技術治理的決策權威聯(lián)盟”〔39〕以克服“沒有任何一個機構能夠提供支撐決策的全部知識”〔40〕的決策難題,而且“整個決策過程可由共同行動對象網(wǎng)絡代替等級關系領導來完成”〔41〕,最終實現(xiàn)政府單一治理體系向多元主體協(xié)同共治的模式轉變。從協(xié)同方式看,人工智能治理風險的協(xié)同治理機制在于打破傳統(tǒng)風險治理的命令——控制模式,倡導政府與非政府組織、公民等利益主體之間的民主協(xié)商與平等互動網(wǎng)絡,構建“主體間默契配合、井然有序的自發(fā)和自組織集體行動過程,通過集體的自組織行為實現(xiàn)社會治理資源配置效用最大化和社會系統(tǒng)整體功能的提升”〔42〕,進而促進人工智能風險的有效治理。

      (三)在治理工具上:優(yōu)化人工智能風險治理的多樣載體

      公共政策學認為,治理工具是政策主體依治理形勢所采納使用而促使政策共識落地,并轉化為治理目標的中介手段與途徑。在人工智能風險化解中,治理工具一般涵蓋“國家科技規(guī)劃、行政法規(guī)、財政資金與基礎設施等為代表的政府性工具,也有價值敏感性設計、社會技術愿景、建構性因素評估、監(jiān)管式自治、技術利基等科學共同體為主導的治理工具,還有公民社會通過非正式或經政府授權或賦權的治理工具”〔43〕三類??傮w看,政府、科技共同體、公民社會的三類主體所設計與選用的工具呈現(xiàn)出剛性與柔性之特色,僅憑單一類治理工具難以實現(xiàn)人工智能風險的治理目標,需要通過優(yōu)化、整合多樣化的治理工具,才能發(fā)揮人工智能風險治理的最優(yōu)效能。其一,就政府主體而言,人工智能風險治理需要堅持多層級立法互補原則適時出臺相關法律體系。在國家層面對民事商事法、行政法、刑法、經濟法等現(xiàn)行法律制度進行修訂,使之適應人工智能的發(fā)展需要;在中間層面,要通過國務院行政法規(guī)項目推動制定“機器人使用安全管理條例”等;在地方性立法層面,要出臺人工智能在政務、家居、醫(yī)療衛(wèi)生等領域的應用發(fā)展與風險防治②等具體地方性規(guī)章。其二,要提升科技共同體的行業(yè)倫理建設,增強人工智能風險化解的可操作性。2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出人工智能治理的框架和行動指南,強調和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理等八條原則。這些原則有助于治理人工智能發(fā)展過程中的有限理性、利益導向以及防范類人主體性,然而由于這些原則多屬于抽象性、概括性、原則性的話語表述,對人工智能風險的治理是否帶有實踐層面的價值則有待實際檢驗。今后需要從操作層面上,制定防范人工智能風險的管治策略。其三,要加強人工智能技術知識的普及度,提升公民個體對人工智能風險的感知能力與化解能力。上文已從風險涉及面,談及人工智能將會沖擊網(wǎng)絡安全、社會就業(yè)、法律倫理等問題,同時從風險產生路徑,分析人工智能風險從工具性到價值性的階段躍遷。這兩個層面的認知超出了社會公民的一般風險感知能力,長此以往將會造成人類對人工智能風險的內心焦慮與心智失序,而這需要在政府關于人工智能風險知識的系統(tǒng)化普及和制度性救濟,構筑社會公民對人工智能風險的理性認知。通過優(yōu)化、組合政府組織的立法、科技行業(yè)的倫理自律、社會公民的風險感知等多樣治理工具,方能在發(fā)展人工智能技術的同時,有效規(guī)制人工智能附加于人類的技術風險。

      人工智能風險是因人工智能技術的不確定性所誘發(fā)的對人類經濟結構、社會秩序、倫理道德乃至生存安全等方面的可能性后果。風險技術即技術缺陷,技術風險即技術后果,兩者互為因果共筑人工智能風險的客觀現(xiàn)實性、主觀建構性、技術非人性等特征,致使人工智能風險成為風險社會的一種新的風險類型。同時,人類在推動人工智能邁向風險社會的叢林中,裹挾著資本與權力的合謀、技術人性與物性的撕裂以及人類有限理性與無限欲望的悖論,這是人類社會必須解決的時代議題。雖然我們不可能像盧梭所提倡的那樣,返回到原始的、未經文明“污染”的狀態(tài),從而完全放棄和拒絕技術,但是我們可以通過更新人文治理理念、構建協(xié)同治理機制、優(yōu)化多樣治理工具等途徑,并以詩意化方式對待技術與人類的關系,進而有效規(guī)避人工智能風險,最終實現(xiàn)人之為人的本性追求。

      〔參考文獻〕

      〔1〕 劉盾,劉健,徐東波.風險預測與憂患深思:人工智能對教育發(fā)展的沖擊與變革——哲學與倫理的思考〔J〕.高教探索,2019,(7).

      〔2〕 馬長山.人工智能的社會風險及其法律規(guī)制〔J〕.法律科學(西北政法大學學報),2018,(6).

      〔3〕 張凌寒.風險防范下算法的監(jiān)管路徑研究〔J〕.交大法學,2018,(4).

      〔4〕 熊波.人工智能刑事風險的樣態(tài)評價與規(guī)制理念〔J〕.探索與爭鳴,2019,(5).

      〔5〕 姚萬勤.對通過新增罪名應對人工智能風險的質疑〔J〕.當代法學,2019,(3).

      〔6〕 王燕玲,韓蓄.人工智能體的刑事風險與應對措施〔J〕.學習與實踐,2019,(3).

      〔7〕 〔英〕維克托·邁爾·舍恩伯格,肯尼思·庫克耶.大數(shù)據(jù)時代:生活、工作與思維的大變革〔M〕.盛楊燕,周濤譯.杭州:浙江人民出版社,2018.193.

      〔8〕 閆坤如,馬少卿.人工智能倫理問題及其規(guī)約之徑〔J〕.東北大學學報(社會科學版),2018,(4).

      〔9〕 張學博.人工智能的憲制想象——從歷史的觀點切入〔J〕.理論視野,2018,(5).

      〔10〕 萬昆.人工智能技術帶來的就業(yè)風險及教育因應〔J〕.廣西社會科學,2019,(6).

      〔11〕 李穎.人工智能時代技術進步對就業(yè)影響的研究述評〔J〕.黨政研究,2019,(4).

      〔12〕 高奇琦.人工智能時代發(fā)展中國家的“邊緣化風險”與中國使命〔J〕.國際觀察,2018,(4).

      〔13〕 王小芳,王磊.“技術利維坦”:人工智能嵌入社會治理的潛在風險與政府應對〔J〕.電子政務,2019,(5).

      〔14〕 唐鈞.人工智能的風險善治研究〔J〕.中國行政管理,2019,(4).

      〔15〕〔17〕 〔英〕安東尼·吉登斯.現(xiàn)代性的后果〔M〕.田禾譯.南京:譯林出版社,2004.115,52.

      〔16〕 〔法〕烏爾里?!へ惪耍灿ⅰ嘲矕|尼·吉登斯,〔英〕斯科特·拉什.自反性現(xiàn)代化〔M〕.趙文書譯.北京:商務印書館,2001.5.

      〔18〕 〔法〕烏爾里?!へ惪?風險社會政治學〔J〕.劉寧寧,沈天霄編譯.馬克思主義與現(xiàn)實,2005,(3).

      〔19〕 James Barrat.2013.Our Final Invention: Artificial Intelligence and the End of the Human Era. Thomas Dunne Books, New York.

      〔20〕 劉紅波,林彬.中國人工智能發(fā)展的價值取向、議題建構與路徑選擇——基于政策文本的量化研究〔J〕.電子政務,2018,(11).

      〔21〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016.

      〔22〕〔23〕〔37〕 劉同舫.技術的當代哲學視野〔M〕.北京:人民出版社,2017.7,10,5-6.

      〔24〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016,16-17.

      〔25〕 高奇琦.人工智能:馴服賽維坦〔M〕.上海:上海交通大學出版社,2018.190.

      〔26〕 〔德〕岡特·紹伊博爾德.海德格爾分析新時代的技術〔M〕.宋祖良譯.北京:中國社會科學出版社,1993.207.

      〔27〕 〔美〕赫伯特·馬爾庫賽.單向度的人〔M〕.張峰,等譯.重慶:重慶出版社,1988.25.

      〔28〕 N.Wiener.Some moral and technical consequences of automation,Science,Vol.3410(1960).

      〔29〕 A.M.Olson.Review:Jaspers,Heideffer,and‘The Phantom of Exitentialism,Human Studies,Vol.7,1984(3/4):387-395.

      〔30〕 〔南非〕伊恩·戈爾丁,〔加〕克里斯·柯塔納.發(fā)現(xiàn)的時代:21世紀風險指南〔M〕.李果譯.北京:中信出版社,2017.53.

      〔31〕 Colin Garvey.AI Risk Mitigation Through Democratic Governance:Introducing the 7-Dimensional AI Risk Horizon.AIES18,F(xiàn)ebruary 2-3,2018,New Orleans,LA, USA.https://doi.org/10.1145/3278721.3278801.

      〔32〕 Cathy ONeil.2016.Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.Broadway Books,New York.

      〔33〕 Aylin Caliskan,Joanna J.Bryson,and Arvind Narayanan.2017.Semantics Derived Automatically from Language Corpora Contain Human-like Biases.Science 356(6334),183-186.

      〔34〕 〔美〕尼爾·波茲曼.技術壟斷:文明向技術投降〔M〕.北京:機械工業(yè)出版社,2013.

      〔35〕 廉師友.人工智能技術導論〔M〕.西安:西安電子科技大學出版社,2000.1.

      〔36〕 田海平,鄭春林.人工智能時代的道德:讓算法遵循“善法”〔J〕.東南大學學報(哲學社會科學版),2019,(5).

      〔38〕 Kathrin Braun,Cordula Kropp.Beyond Speaking Truth: Institutional responses to Uncertainty in Scientific Governance〔J〕.Science,Technology & Human Values,2010,35(6):771-782.

      〔39〕 譚九生,楊建武.人工智能技術的倫理風險及其協(xié)同治理〔J〕.中國行政管理,2019,(10).

      〔40〕 Newman J. Modernising Governance. London:SAGA,2001.

      〔41〕 Bache J. Governing Through Governance: Education Policy Control Under New Labour.Political Studies,2003,52(2).

      〔42〕 范如國.復雜網(wǎng)絡結構范型下的社會治理協(xié)同創(chuàng)新〔J〕.中國社會科學,2014,(4).

      〔43〕 朱本用,陳喜樂.試論科技治理的柔性模式〔J〕.自然辨證法研究,2019,(10).

      【責任編輯:朱鳳霞】

      猜你喜歡
      風險治理風險社會人工智能
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      IT經理世界(2018年20期)2018-10-24 02:38:24
      江蘇省中小企業(yè)技術創(chuàng)新風險社會分攤制度實踐研究
      價值工程(2017年24期)2017-07-17 15:05:01
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      山西文化旅游產業(yè)集群風險治理研究
      全球治理下的外層空問國際環(huán)境法治問題
      風險社會背景下大學生安全意識及防范能力調查
      風險社會理論范式下中國“環(huán)境沖突”問題及其協(xié)同治理論
      互聯(lián)網(wǎng)金融分析
      時代金融(2016年27期)2016-11-25 16:13:38
      論風險社會下生態(tài)文明建設中新聞媒體角度的塑造
      人間(2016年27期)2016-11-11 16:48:04
      正镶白旗| 当涂县| 巴彦淖尔市| 木里| 沂源县| 彰化市| 新安县| 景谷| 松阳县| 祁东县| 沿河| 凌海市| 柳林县| 嘉荫县| 连城县| 宿迁市| 赤城县| 肃宁县| 永泰县| 榆树市| 隆子县| 广平县| 胶南市| 肇庆市| 英德市| 自治县| 开阳县| 滨州市| 霍山县| 通海县| 汉沽区| 江城| 寻甸| 江川县| 绵竹市| 巴彦县| 嘉鱼县| 开阳县| 静宁县| 房山区| 东源县|