• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      關(guān)于人工智能治理問題的若干思考

      2017-12-02 21:46:48陳偉光
      人民論壇·學(xué)術(shù)前沿 2017年20期
      關(guān)鍵詞:全球治理人工智能

      陳偉光

      【摘要】人工智能是引領(lǐng)未來的戰(zhàn)略性技術(shù),主要發(fā)達國家都將其作為提升國家競爭力、維護國家安全、占據(jù)前沿科技主導(dǎo)權(quán)的重大戰(zhàn)略。中國推動人工智能發(fā)展戰(zhàn)略,是中國作為全球性大國提升綜合實力和順應(yīng)國際形勢發(fā)展的產(chǎn)物。然而,人工智能又是一種顛覆性的技術(shù),我們要對人工智能的負面影響和沖擊充分預(yù)估,構(gòu)筑人工智能多層次治理體系。人工智能治理既是其技術(shù)和運用發(fā)展到一定階段的必然結(jié)果,又是對其研究、開發(fā)、生產(chǎn)和運用過程中可能會出現(xiàn)的公共安全、道德倫理等問題進行協(xié)調(diào)、處理、監(jiān)管和規(guī)范的過程。中國作為人工智能大國,應(yīng)抓住未來發(fā)展機遇,積極參與國際人工智能規(guī)則和標準設(shè)計,為人工智能全球治理貢獻中國智慧,以“善治”謀求人工智能的“善智”而造福于人類。

      【關(guān)鍵詞】人工智能 道德倫理 規(guī)則標準 全球治理

      【中圖分類號】TP18 【文獻標識碼】A

      【DOI】10.16619/j.cnki.rmltxsqy.2017.20.006

      前言

      人工智能是人類科技文明發(fā)展到一定階段的產(chǎn)物,是研究、開發(fā)用于模擬、延伸和擴展人類智能的技術(shù)科學(xué)。作為一種快速發(fā)展的并具有劃時代意義的高科技,其廣泛應(yīng)用必將對現(xiàn)代人類社會發(fā)展產(chǎn)生全面而又深刻的影響。人工智能將極大地促進全要素生產(chǎn)率提升,據(jù)埃森哲發(fā)布的報告預(yù)測,2035年人工智能預(yù)期可以為12個發(fā)達經(jīng)濟體帶來兩倍的經(jīng)濟增長速度,中國的經(jīng)濟增長率將從6.3%提速至7.9%。①軍事上,人工智能和機器人有可能大規(guī)模投入未來戰(zhàn)場,或?qū)⒏淖儜?zhàn)爭模式乃至國際軍事格局。人工智能在極大地解放生產(chǎn)力的同時,也將深刻地改變?nèi)祟惖纳a(chǎn)方式、工作方式和生活方式。然而,作為一種顛覆性的技術(shù),我們要對人工智能的負面影響和沖擊充分預(yù)估,理性思考人工智能的安全治理問題。實際上,一些科學(xué)家、有識之士以及社會各界也開始認識到這一問題的重要性。一般來說,安全性評估和審慎監(jiān)管原則適合于任何一項科學(xué)技術(shù)革命,但由于人類利益動機、預(yù)估不足、外部性和道德風(fēng)險等問題的存在,往往導(dǎo)致治理滯后、治理赤字和治理失靈等現(xiàn)象,如工業(yè)革命以來走過的“先污染,后治理”的教訓(xùn)以及溫室氣體排放與氣候談判的曲折等,都是這一問題的表現(xiàn)。人工智能由于其技術(shù)復(fù)雜性、擴展性、不可控性和不可預(yù)知性,可能更需要做好風(fēng)險預(yù)估和防范,引導(dǎo)其健康、有序、安全發(fā)展,以規(guī)范人工智能研發(fā)、生產(chǎn)和消費秩序,通過對人工智能的“善治”謀求人工智能造福于人類的“善智”。②

      人工智能引發(fā)的治理問題

      人類社會需要面對人工智能正在發(fā)生的問題,也需要預(yù)估、評判和預(yù)防未來人工智能發(fā)展可能引發(fā)的問題。應(yīng)該說,從問題的嚴重性來講,人們最擔(dān)心的是未來人工智能對人類生存的挑戰(zhàn)。從科學(xué)家霍金的“人類最后的文明”到人工智能預(yù)測家?guī)炱濏f爾全面超越人類智慧的“奇點”論,都表現(xiàn)為對人工智能未來的“超人類性”、“另人類性”以及“非可控性”的擔(dān)憂。在霍金看來,人工智能的廣泛使用具有極高的風(fēng)險性,一方面人工智能帶來的收益是巨大的,人類或許可以借助這一強大的工具,減少工業(yè)化對自然的傷害。但是“我們不確定我們是會被智能無限地幫助,還是被無限地邊緣化,甚至毀滅”,人工智能的崛起可能是人類文明的終結(jié)。因此,人類必須建立有效機制盡早識別威脅所在,防止人工智能對人類帶來的威脅進一步上升。③

      庫茲韋爾認為,人工智能可以全面超越人類智能,而且超越的速度遠超過人們的預(yù)期。他認為,2045年是“奇點”到達的時期,這將是極具深刻性和分裂性的時間點,非生物智能在這一年將會10億倍于今天所有人類的智慧。④當(dāng)然,大多數(shù)科學(xué)家和人工智能專家對人工智能全面超越人類持否定態(tài)度,認為這是杞人憂天式的臆想,對人工智能征服人類的擔(dān)心就像擔(dān)心火星上塞車一樣。航天器發(fā)明之前,其可能墜毀的風(fēng)險擔(dān)憂并沒有阻止航空航天事業(yè)的發(fā)展。從這一點說,我們幾乎沒有可能阻止人工智能的快速發(fā)展,但從現(xiàn)在起,給予人工智能更多的人文關(guān)注、價值判斷和理性思考,是一種比較正確的態(tài)度。事實上,人文社會科學(xué)的發(fā)展應(yīng)該走在自然科學(xué)的前面,在人工智能安全問題之前做好充分的理論準備。

      第二類問題是人工智能可能引發(fā)的安全問題。其一是操作權(quán)失控或惡意使用導(dǎo)致的安全威脅。人工智能對人類的利害作用取決于掌控和使用人工智能的人。例如,黑客可能通過智能方法發(fā)起網(wǎng)絡(luò)攻擊,還可利用人工智能技術(shù)非法竊取私人信息。其二是技術(shù)失控或管理不當(dāng)所致的安全問題。某些技術(shù)缺陷也會導(dǎo)致人工智能系統(tǒng)出現(xiàn)安全隱患,比如深度學(xué)習(xí)采用的黑箱模式會使模型可解釋性不強,機器人、無人智能系統(tǒng)的設(shè)計、生產(chǎn)不當(dāng)會導(dǎo)致運行異常等。

      第三類是人工智能倫理規(guī)范的挑戰(zhàn)。倫理問題是人工智能技術(shù)應(yīng)用值得關(guān)注的問題。如人工智能的行為規(guī)則問題,人工智能技術(shù)的應(yīng)用正在將一些生活中的倫理性問題在系統(tǒng)中規(guī)則化。系統(tǒng)的研發(fā)設(shè)計必須要與社會倫理匹配對接,機器規(guī)范和人類規(guī)范必須兼容,從而導(dǎo)致社會損害。再如機器人的“人格”和權(quán)力問題。目前在司法、醫(yī)療、指揮等領(lǐng)域正在發(fā)揮作用,不遠的將來,人工智能在審判分析、疾病診斷上將替代人類。但是,在給機器授予決策權(quán)后,人們不僅要考慮人工智能的安全風(fēng)險,而且還要面臨一個新的倫理問題,即機器獨立行使專業(yè)決策的資格。有倫理學(xué)家認為,未來機器人不僅有感知、認知和決策能力,人工智能在不同環(huán)境中學(xué)習(xí)和演化,還會形成不同的個性。所以機器人使用者需要承擔(dān)類似監(jiān)護人一樣的道德責(zé)任甚至法律責(zé)任,以免對社會文明產(chǎn)生不良影響。⑤

      第四類問題是人工智能可能引發(fā)的隱私問題。大數(shù)據(jù)驅(qū)動模式主導(dǎo)了近年來人工智能的發(fā)展,隱私問題是數(shù)據(jù)資源開發(fā)利用中的主要威脅之一,人工智能應(yīng)用中必然存在隱私侵犯風(fēng)險。比如數(shù)據(jù)采集中的隱私侵犯。隨著各類數(shù)據(jù)采集設(shè)施的廣泛使用,智能系統(tǒng)掌握了個人的大量信息,如果出于商業(yè)目的非法使用某些私人信息,就會造成隱私侵犯。再如云計算中的隱私風(fēng)險。因為云計算技術(shù)使用便捷、成本低廉,許多用戶開始將數(shù)據(jù)存儲至云端。將隱私信息存儲至云端后,這些信息就容易遭到各種威脅和攻擊。目前在許多人工智能應(yīng)用中,云計算已經(jīng)被配置為主要架構(gòu),因此云端隱私保護是需要考慮的問題。還有知識抽取中的隱私問題。由數(shù)據(jù)到知識的抽取是人工智能的重要能力,知識抽取工具正在變得越來越強大,無數(shù)個看似不相關(guān)的數(shù)據(jù)片段可能被整合在一起,識別出個人行為特征甚至性格特征。但是,這些個性化定制過程又伴隨著對個人隱私的發(fā)現(xiàn)和曝光,如何規(guī)范隱私保護是需要與技術(shù)應(yīng)用同步考慮的一個問題。⑥endprint

      人工智能治理難題

      盡管對人工智能風(fēng)險認識和評價有相當(dāng)大的分歧和爭議,但學(xué)界、業(yè)界以及政界對人工智能治理的必要性已形成基本共識。不僅霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》,強調(diào)人工智能的規(guī)范發(fā)展必須納入正確軌道,而且各國政府和行業(yè)協(xié)會在其人工智能發(fā)展戰(zhàn)略規(guī)劃或行業(yè)報告中,都有比較明確的人工智能監(jiān)管和治理要求,如2016年9月,英國標準協(xié)會發(fā)布《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》,是業(yè)界第一個關(guān)于機器人倫理設(shè)計的公開標準,旨在指導(dǎo)機器人設(shè)計研究者和制造商如何對一個機器人做出道德風(fēng)險評估,以保證人類生產(chǎn)出來的智能機器人能夠融入人類社會現(xiàn)有的道德規(guī)范。⑦2016年6月,日本AI學(xué)會的倫理委員會發(fā)布人工智能研究人員應(yīng)該遵守的倫理指標草案,以引導(dǎo)和規(guī)范研究人員正確處理人工智能進一步發(fā)展導(dǎo)致的倫理道德、安全問題。⑧美國的《國家人工智能研究和發(fā)展戰(zhàn)略計劃》全面搭建了美國推動人工智能研發(fā)的實施框架,并強調(diào)保障人工智能系統(tǒng)的友好性,推動人工智能系統(tǒng)的公平、透明與符合倫理。同時,確保人工智能系統(tǒng)的安全可靠,提高信任度、可驗證和可確認性,并實現(xiàn)自我安全防御與優(yōu)化。⑨

      問題的關(guān)鍵不是人工智能需不需要治理的問題,而是人工智能究竟應(yīng)該如何治理、治理什么的問題,人工智能本身的復(fù)雜性特征使得人工智能在治理機制設(shè)計和構(gòu)建中遭遇多重難題。

      首先是事前的風(fēng)險識別和預(yù)防難題。不同于原子能、化工等研究開發(fā)的基礎(chǔ)設(shè)施的大規(guī)模性、風(fēng)險源的明確性,監(jiān)管者或治理行為體能夠非常容易地確定潛在的公共危險源的制造者和發(fā)生地。人工智能研發(fā)具有秘密性、分散性、不連續(xù)性及不透明性。秘密性是指人工智能的研究與開發(fā)只需要極少的可見設(shè)施;分散性是指研究人工智能系統(tǒng)不同組成部分的研發(fā)人員可能分布在不同的地方;不連續(xù)性是指人工智能的研發(fā)不需要所有的部件同時就位,也不需要不同部門的研究人員通力合作;不透明性,是指人工智能系統(tǒng)運行可能處在秘密狀態(tài),由于信息的嚴重不對稱,外部人員很難發(fā)現(xiàn)人工智能系統(tǒng)中潛在的危險而無法采取針對性的監(jiān)管措施。⑩人工智能這些特征,為其事前監(jiān)管帶來許多不便,也為有效的人工智能治理設(shè)計帶來困惑,畢竟科學(xué)的風(fēng)險識別和預(yù)防機制的構(gòu)建是治理有效性的關(guān)鍵。

      其次是風(fēng)險發(fā)生的不可預(yù)知性難題。人工智能與其他傳統(tǒng)科技最大的不同是可以獨立完成預(yù)定任務(wù)的自主性,但是人工智能自主行為與人類的決策和行動存在根本的不同,盡管人工智能系統(tǒng)設(shè)計總是模仿人腦的工作方式。人類智能由于其在限定的時間里的計算速度有限,很難在窮舉中得出最優(yōu)解,而往往通過經(jīng)驗、直覺等方法得出自認為滿意的答案,而非一個最佳的解決方法,經(jīng)濟學(xué)家Herbert Simon稱之為“滿意法”。?而人工智能通過合并算法和深度學(xué)習(xí)可以在極短的時間內(nèi)精確計算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,做出的結(jié)論可能同人類的認知系統(tǒng)做出的決策產(chǎn)生極大的不同。一個能夠自主學(xué)習(xí)的人工智能系統(tǒng)的行為部分依靠其后天的經(jīng)歷,即使是最細心的設(shè)計者、編程者以及制造者都沒有辦法控制或者預(yù)測人工智能系統(tǒng)在脫離他們之后將會經(jīng)歷些什么。?所以,人工智能的不可預(yù)知性,使得人工智能系統(tǒng)在做出難以預(yù)測的損害性行為時,讓設(shè)計者承擔(dān)責(zé)任可能會導(dǎo)致不公平和非正義。值得注意的是,對于產(chǎn)品生產(chǎn)者的嚴格責(zé)任,規(guī)定有“當(dāng)前科學(xué)水平尚不能發(fā)現(xiàn)缺陷”的免責(zé)事由。但是這項免責(zé)事由在人工智能領(lǐng)域是否適用值得討論。盡管在深度學(xué)習(xí)訓(xùn)練數(shù)據(jù)和學(xué)習(xí)過程存在不可預(yù)見性,但考慮到人工智能的算法完全由開發(fā)者編寫,開發(fā)者對風(fēng)險源頭具有絕對的控制力,司法機關(guān)可能會推定開發(fā)者應(yīng)當(dāng)預(yù)見算法執(zhí)行中的可能風(fēng)險或要求開發(fā)者對風(fēng)險程度的增加承擔(dān)責(zé)任。

      再次是事后責(zé)任認定和分配的難題。以規(guī)則為基礎(chǔ)的治理是現(xiàn)代治理的根本特征,法律法規(guī)作為正式規(guī)則主體形式使得“法治”構(gòu)成有效社會治理的核心,人工智能的治理難題集中表現(xiàn)為法律困惑和政策困境。一是人工智能的不可控性導(dǎo)致的監(jiān)管兩難。隨著人工智能技術(shù)升級到強人工智能階段,不可控性可能成為一個嚴峻的問題,未雨綢繆人工智能的局部失控乃至可能出現(xiàn)的全面失控是當(dāng)代人的責(zé)任。從現(xiàn)在來講,各國不會像用法律禁止克隆人一樣規(guī)避人工智能風(fēng)險,人們所焦慮的是如何在不束縛人工智能良性發(fā)展的前提下最大限度地防控人工智能風(fēng)險。二是人工智能風(fēng)險主體的多元性和不可預(yù)知性問題也導(dǎo)致了對其監(jiān)管的法律困惑,由于參與人工智能系統(tǒng)部件的主體多元和不可預(yù)知,很難確定出責(zé)任主體。例如,人工智能系統(tǒng)的部件的制造者可能沒有想到他們生產(chǎn)的部件被用在了人工智能系統(tǒng)上,如果造成了損害就更非他們的本意了。在這種情況下,將責(zé)任分配給人工智能系統(tǒng)某一部件的設(shè)計者,就顯得非常的不公平,同樣,人工智能系統(tǒng)運轉(zhuǎn)的不透明讓法院也不能輕易判斷將人工智能系統(tǒng)造成第三人損害的責(zé)任歸責(zé)于運營者還是使用者。三是人工智能法律主體的難題。人工智能的自主性隨著人工智能技術(shù)進步進化到強人工智能階段后,人工智能載體如機器人是不是人格意義的道德體、行為體乃至法律主體?由于機器可以像人類一樣獨立思考和決策,該階段的人工智能如果和人類一樣,成為獨立的主體享有權(quán)利,并對自己的行為承擔(dān)責(zé)任,傳統(tǒng)法律體系將產(chǎn)生巨大的沖擊。?

      最后是人工智能對就業(yè)崗位的沖擊,將引發(fā)分配政策的重塑。人工智能在體力特別是腦力替代人類的勞動,在極大改善生產(chǎn)效率的同時,也將對社會就業(yè)產(chǎn)生全面的沖擊。當(dāng)前,人工智能正在眾多領(lǐng)域發(fā)揮作用并具備巨大潛力,如醫(yī)療衛(wèi)生、交通出行、環(huán)境監(jiān)測、司法調(diào)查等領(lǐng)域。按照人工智能的發(fā)展速度,不遠的將來,人工智能將很快滲透到駕駛、新聞記者、翻譯、醫(yī)療等職業(yè)中。另一方面,人工智能也將推動新的就業(yè)產(chǎn)生。未來,直接由人工智能驅(qū)動的工作將出現(xiàn),包括人類與現(xiàn)有人工智能技術(shù)的合作、開發(fā)新的人工智能技術(shù)、在實踐中監(jiān)督人工智能技術(shù)等。?

      人工智能所引發(fā)的就業(yè)問題的解決本身不是人工智能治理問題。隨著社會就業(yè)結(jié)構(gòu)的改變,社會財富分配差距可能更加分化,收入分配不公將成為嚴峻的社會問題。這些問題的解決需要政策體系的全面調(diào)整,如社會保障體系、教育政策體系的變革,從這方面上講,人工智能將為社會治理問題帶來新的沖擊。endprint

      人工智能治理體系的構(gòu)建

      從1956年在美國達特茅斯(Dartmouth)大學(xué)舉辦人類歷史上第一次人工智能研討會開始,人工智能幾經(jīng)波折走過了60年的發(fā)展歷程。近年來,人工智能得益于大數(shù)據(jù)、互聯(lián)網(wǎng)、學(xué)習(xí)算法和計算能力的改進,取得了迅猛發(fā)展。一些發(fā)達國家和新興市場國家高度重視人工智能的發(fā)展,相繼在國家戰(zhàn)略層面上對人工智能作出頂層設(shè)計。在各國的人工智能發(fā)展規(guī)劃中,都把人工智能的必要性和政府介入人工智能的監(jiān)管作為其中的重要內(nèi)容。如在各自出臺的人工智能發(fā)展戰(zhàn)略政策報告中,美國明確提出政府是人工智能發(fā)展過程中安全和公平的重要監(jiān)管人;英國以全球人工智能系統(tǒng)的道德標準研究領(lǐng)域的領(lǐng)導(dǎo)者自居,并為未來引領(lǐng)人工智能監(jiān)管作準備;歐盟積極呼吁加強機器人相關(guān)的立法。與此同時,IEEE也發(fā)布了人工智能合倫理設(shè)計指南,引起了國際上相關(guān)同仁的重視。?總體上講,由于認識、倫理和法律問題存在,人工智能治理機制的建立滯后于其技術(shù)發(fā)展的步伐,目前還處于起步階段。但是正如互聯(lián)網(wǎng)公共治理快速發(fā)展一樣,人工智能治理體系建設(shè)必將快速展開。

      人工智能治理是其技術(shù)和運用發(fā)展到一定階段的產(chǎn)物,是對人工智能研究、開發(fā)、生產(chǎn)和運用過程中可能會出現(xiàn)的公共安全、道德倫理等問題進行協(xié)調(diào)、處理、監(jiān)管和規(guī)范的過程。人工智能治理同氣候治理、互聯(lián)網(wǎng)治理一樣屬于專業(yè)治理、社會治理和政府治理共同合作的范疇。

      人工智能治理的要素由人工智能治理的行為體、治理對象、治理規(guī)則、治理目標和理念以及治理績效構(gòu)成。與其他社會治理一樣,人工智能的行為體是多元的,不僅由研究開發(fā)的科學(xué)家群體、開發(fā)商等自律性的主體組成,也由運營商、消費者等利益攸關(guān)者相關(guān)主體組成。由于人工智能的安全性、倫理和法律問題的復(fù)雜性,特別是人工智能的戰(zhàn)略安全等方面的重要性,國家政府是人工智能治理重要的行為主體。作為人工智能治理的平臺,一些國家相繼成立了人工智能治理的各類組織和機構(gòu),如科學(xué)家組織、學(xué)術(shù)團體和協(xié)會、高校研發(fā)機構(gòu),還有國家層面的專業(yè)性監(jiān)管組織。一些傳統(tǒng)的國際性組織也開始關(guān)注人工智能治理的問題,聯(lián)合國教科文組織(The United Nations Education, Scientific and Cultural Organization)和世界科學(xué)知識與技術(shù)倫理委員會(World Commission on the Ethics of Scientific Knowledge and Technology)近年來連續(xù)多次聯(lián)合發(fā)布報告,針對人工智能及機器人技術(shù)的發(fā)展帶來的各種問題,提出了全新的思考方式與解決路徑,對世界各國的人工智能監(jiān)管具有重要指導(dǎo)意義。

      人工智能治理規(guī)則是保障人工智能全過程的正式和非正式的制度和規(guī)范,包括人工智能的研發(fā)道德規(guī)范、產(chǎn)品標準和安全性能要求以及相關(guān)法律程序、責(zé)任分配等。在以規(guī)則為基礎(chǔ)的現(xiàn)代治理模式中,規(guī)則體系構(gòu)建是人工智能治理的關(guān)鍵。目前來看,各國人工智能治理規(guī)則體系還處于討論、醞釀階段,如美國除了自動駕駛和無人機進入了立法程序之外,其他的正式規(guī)則還未建構(gòu),還不存在針對人工智能的專門的監(jiān)管法律與機構(gòu)。事實上,美國的法院也沒有針對人工智能造成損害案件的裁判標準。?

      人工智能治理理念是關(guān)于人工智能價值觀念的哲學(xué)思考。不同于一般科學(xué)技術(shù),人工智能的系統(tǒng)的開發(fā)與應(yīng)用直接關(guān)乎道德倫理和人的權(quán)利、尊嚴等根本性問題?!耙?guī)則為基礎(chǔ)的治理”需要與“以倫理為基準的設(shè)計”高度契合,人工智能系統(tǒng)的工作核心是將價值標準和倫理思考嵌套在智能系統(tǒng)設(shè)計之中,這是人工智能治理的核心理念和根本要求。人工智能需建立一套能跨越種族和國家的具有普適性的倫理原則,使之成為各國在發(fā)展人工智能技術(shù)普遍遵守或共同認可的規(guī)范。當(dāng)然,涉及到倫理相關(guān)的治理不只是一套規(guī)則,而是一個持續(xù)的調(diào)和過程,在文化多樣性中尋找最大公約數(shù)和均衡結(jié)果。?

      人工智能的治理對象是人工智能可能引發(fā)的公共問題。包括由人工智能系統(tǒng)可能引發(fā)的公共安全、道德倫理和行為規(guī)范在內(nèi)的負外部性問題。由于人工智能的風(fēng)險源的不可預(yù)知性和模糊性,人工智能治理對象的邊界不可能十分清晰。這也是其治理難度的表現(xiàn)。

      需要說明的是,人類社會正邁進人工智能與互聯(lián)網(wǎng)、大數(shù)據(jù)高度融合的時代,人工智能時代是人類進入網(wǎng)絡(luò)時代、大數(shù)據(jù)時代的自然結(jié)果,只有人工智能才能處理任何強大的自然人與傳統(tǒng)組織都無法處理的龐大數(shù)據(jù),實現(xiàn)對數(shù)據(jù)的分析、處理和再現(xiàn)過程。?因此,人工智能治理僅從單一的專業(yè)治理理解可能會有失偏頗,需要納入多層次綜合治理的軌道。從地域范圍來看,人工智能治理是地區(qū)治理、國家治理和全球治理,從領(lǐng)域來看,涉及道德倫理、傳統(tǒng)安全、非傳統(tǒng)安全、就業(yè)政策、技術(shù)治理等,還包括互聯(lián)網(wǎng)治理和數(shù)據(jù)治理中涉及人工智能的領(lǐng)域。

      人工智能治理與中國

      與國際上人工智能的發(fā)展情況相比,中國的人工智能研究和開發(fā)是在發(fā)達國家人工智能開創(chuàng)20余年后開始起步的。改革開放后,中國人工智能逐步走上了加速發(fā)展的軌道。黨的十八大以來,中國人工智能發(fā)展被提升到國家戰(zhàn)略高度,開啟了中國人工智能變革與創(chuàng)新的新時代。近年來,國家相繼出臺了人工智能建設(shè)發(fā)展的系列規(guī)劃,如《“互聯(lián)網(wǎng)+”人工智能三年行動實施方案》《智能制造2025》和《機器人產(chǎn)業(yè)發(fā)展規(guī)劃(2016~2020)》等。2017年,發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,系統(tǒng)全面地提出了我國新一代人工智能發(fā)展的指導(dǎo)思想、戰(zhàn)略目標、重點任務(wù)和保障措施。人工智能成為國家戰(zhàn)略,是世界主要大國的通行做法。作為引領(lǐng)未來的戰(zhàn)略性技術(shù),主要發(fā)達國家都把發(fā)展人工智能作為提升國家競爭力、維護國家安全、占據(jù)前沿科技主導(dǎo)權(quán)的重大戰(zhàn)略。中國推動人工智能發(fā)展戰(zhàn)略,是中國作為全球性大國的綜合實力提升和順應(yīng)國際形勢發(fā)展的產(chǎn)物。

      在中國人工智能戰(zhàn)略規(guī)劃中,人工智能治理作為人工智能發(fā)展的有機組成部分成為重要關(guān)切。一是提出建立人工智能技術(shù)標準,建立安全監(jiān)管和評估體系,制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范。二是強調(diào)積極參與人工智能全球治理,加強機器人異化和安全監(jiān)管等人工智能重大國際共性問題研究。三是深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應(yīng)對全球性挑戰(zhàn)。endprint

      中國是國際人工智能后來者,但與18世紀工業(yè)革命以來中國錯失的技術(shù)革命機遇不同,中國表現(xiàn)出前所未有的戰(zhàn)略敏感性,依托后發(fā)優(yōu)勢實現(xiàn)彎道搶跑,在人工智能一些領(lǐng)域中取得了世界領(lǐng)先地位。雖然中國人工智能在部分領(lǐng)域特別是運用領(lǐng)域取得了驕人成績,有的達到甚至超越了世界同類項目的最高水平,但整體能力和水平遠未達到通用智能化程度,人工智能基礎(chǔ)研究、組織工作推進、產(chǎn)業(yè)協(xié)同創(chuàng)新、環(huán)境發(fā)展優(yōu)化的總體水平與國際先進水平仍然存在明顯差距。?

      盡管世界各國在人工智能治理上目前還處于起步階段,但是按照人工智能的發(fā)展趨勢,在不遠的將來一些重要大國的人工智能治理機制會很快建構(gòu)并完善起來,這是人工智能規(guī)范、有序發(fā)展的必由之路。尤其是人工智能與大數(shù)據(jù)、互聯(lián)網(wǎng)和云計算等技術(shù)深度融合,人工智能的資源配置、技術(shù)外溢和社會影響的外部性極容易超越一國的邊界而成為全球性的公共問題,因此人工智能客觀上需要全球性協(xié)調(diào)機制、全球性協(xié)作平臺以及全球性的標準和規(guī)則,也需要人工智能的道德倫理系統(tǒng)和價值理念的碰撞和討論,這些都是人工智能全球治理的應(yīng)有之義。正如聯(lián)合國教科文組織和世界科學(xué)知識與技術(shù)倫理委員會在報告(2016年)中所指出的:需要呼吁世界各國采用全新的視角看待人工智能系統(tǒng)的未來監(jiān)管。2016年12月,標準制定組織IEEE發(fā)布《合倫理設(shè)計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景(第一版)》,旨在鼓勵科技人員在AI研發(fā)過程中,優(yōu)先考慮倫理問題。這份由IEEE全球計劃下屬各委員會共同完成的文件為人工智能的全球治理提供了重要參考(騰訊研究院:《信任、公正與責(zé)任:IEEE人工智能合倫理設(shè)計指南解讀》)。中國作為人工智能大國,應(yīng)抓住未來發(fā)展機遇,積極參與國際人工智能合作,為人工智能治理國際合作貢獻中國智慧。

      一是積極推動國家人工智能治理體系的建立和完善。國家人工智能治理體系建立和完善是參與人工智能全球治理的基礎(chǔ)和前提。目前需要按照國家的人工智能建設(shè)規(guī)劃,貫徹有關(guān)人工智能技術(shù)標準、法律法規(guī)和倫理規(guī)范等建設(shè)任務(wù)。為了提升行動效率,建議設(shè)立國家人工智能專門治理機構(gòu)如人工智能發(fā)展協(xié)調(diào)委員會,負責(zé)制定和執(zhí)行國家人工智能政策,加強研究與產(chǎn)業(yè)推進等工作的組織協(xié)調(diào)。推動建立國家級人工智能產(chǎn)業(yè)聯(lián)盟,加強業(yè)界的交流與產(chǎn)業(yè)協(xié)作、知識產(chǎn)權(quán)共享和儲備,推動產(chǎn)業(yè)鏈上下游緊密合作,促進重點領(lǐng)域如智能裝備、智能機器人、智能汽車、智能終端等重點產(chǎn)品的研發(fā)與成果產(chǎn)業(yè)轉(zhuǎn)化。在發(fā)揮好國內(nèi)現(xiàn)有的人工智能學(xué)術(shù)團體和學(xué)會作用的基礎(chǔ)上,成立跨部門跨學(xué)科專家委員會,推動人工智能重大、前沿、綜合問題研究,定期評估技術(shù)演進、產(chǎn)業(yè)發(fā)展態(tài)勢以及對經(jīng)濟社會發(fā)展的貢獻與影響,推動對人工智能可能帶來的就業(yè)、法律、倫理等社會問題開展研究,并提出適當(dāng)?shù)慕ㄔO(shè)性、前瞻性公共政策建議與實施框架。?

      二是搭建人工智能治理國際合作平臺。鼓勵高校和科研院所積極開展人工智能國際合作和學(xué)術(shù)交流,倡導(dǎo)人工智能科學(xué)家團體、專家委員會與發(fā)達國家的相關(guān)組織以及國際組織的合作交流、學(xué)術(shù)互動。探索人工智能產(chǎn)業(yè)聯(lián)盟開展國際交流的機制,參與和引領(lǐng)國際人工智能相關(guān)標準的制定,提高中國在人工智能全球治理中的制度性話語權(quán)。

      三是確立在人工智能治理國際合作中的合理定位。中國是現(xiàn)有全球治理體系的建設(shè)者、完善者和改革者,不做全球治理體系旁觀者,也不推倒重來、重起爐灶。在人工智能治理領(lǐng)域,中國應(yīng)該利用先發(fā)優(yōu)勢,力爭成為未來全球人工智能治理規(guī)制的重要設(shè)計者、標準的制定者和倫理價值的倡導(dǎo)者。

      四是為人工智能全球治理貢獻中國智慧。人工智能已開始沖擊現(xiàn)存的人類社會結(jié)構(gòu),人—機器二元社會正在逐漸地向人—機器—智能機器三元社會發(fā)展。如何保持人、機器、智能機器和睦共處是人工智能時代必須面對的問題。在中國傳統(tǒng)文化中,無論是先秦的“天人合一”論還是宋明的“萬物一體”論,都強調(diào)人與人、人與物、人與社會以及人與自然的整體性、和諧性、統(tǒng)一性關(guān)系。從當(dāng)代中國看,人類命運共同體思想是立足當(dāng)今世界不斷加強的相互依賴關(guān)系并思考人類未來關(guān)系的價值觀和方法論。從古到今,都能從中國文化元素和政策主張中尋找到三元社會結(jié)構(gòu)“共生共存共濟”的良方。

      (本文系國家社科基金重大項目“提高中國在參與全球經(jīng)濟治理中的制度性話語權(quán)研究”的階段性研究成果,項目批準號:15ZDA062)

      注釋

      《埃森哲:AI使經(jīng)濟發(fā)達國家成為最大受益者》,網(wǎng)易科技,2016,http://tech.163.com/16/1013/07/C388K55N00097U80.html。

      高奇琦、李陽:《善智:人工智能的價值目標》,《中國社會科學(xué)報》,2017年8月23日。

      黃志澄:《如何看待霍金對人工智能的警告》,《中國青年報》,2017年6月5日,第2版。

      [美]庫茲韋爾:《奇點臨近》,李慶誠、董振華、田源譯,北京:機械工業(yè)出版社,2014年,第80頁。

      李修全:《人工智能應(yīng)用中的安全、隱私和倫理挑戰(zhàn)及應(yīng)對思考》,《科技導(dǎo)報》,2017/35(15)。

      Brianna Crandall, "BSI standard tackles ethical hazards ofrobots," FMLink, http://fmlink.com/articles/bsi-standard-tackles-ethicalhazards-robots.

      李修全、蔣鴻玲:《美日歐政府發(fā)展人工智能的新舉措及對我國的啟示》,《全球科技經(jīng)濟瞭望》,2016年第10期。

      尹昊智、劉鐵志:《人工智能各國戰(zhàn)略解讀:美國人工智能報告解析》,《電信網(wǎng)技術(shù)》,2017年第2期。

      [美]馬修U.謝勒:《監(jiān)管人工智能系統(tǒng):風(fēng)險、挑戰(zhàn)、能力和策略》,曹建峰、李金磊譯,《信息安全與通信保密》,2017年第5期。

      Herbert A. Simon, "Rational Choice and theStructure of the Environment," 63 PSYCHOL.REV. 129, 136 (1956)

      See Pei Wang, "The Risk and Safety of AI", AGENERAL THEORY OF INTELLIGENCE, https://sites.google.com/site/narswang/EBook/ topic-list/the-risk-and-safety-of-ai[https://perma.cc/5LY3-CTLD. "An adaptivesystem's behaviors are determined both by itsnature (i.e., initial design) and its nurture (i.e.,postnatal experience). Though it is still possibleto give the system certain innate beliefs andmotivations, they will not fully determine thesystem's behaviors."

      聶東明:《人工智能或?qū)氐最嵏踩祟惉F(xiàn)行法律體系》,阿里研究院。

      尹昊智、劉鐵志:《人工智能各國戰(zhàn)略解讀:美國人工智能報告解析》,《電信網(wǎng)技術(shù)》,2017年2月第2期。

      齊昆鵬:《2017年人工智能:技術(shù)、倫理與法律》,《科學(xué)與社會》,2017年第2期。

      何哲:《人工智能時代的政府適應(yīng)與轉(zhuǎn)型》,《行政管理改革》,2016年第8期

      蔡自興:《中國人工智能40年》,《科技導(dǎo)報》,2016/34(15)。

      陸汝鈐:《張鈸獲中國計算機學(xué)會終身成就獎》,《中國科學(xué)報》,2015年2月2日。

      責(zé) 編∕樊保玲endprint

      猜你喜歡
      全球治理人工智能
      我校新增“人工智能”本科專業(yè)
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      中國參與極地開發(fā)與治理的前景透視
      全球治理下跨國公司社會責(zé)任監(jiān)管模式轉(zhuǎn)變
      中華文化中的全球治理之道
      人民論壇(2016年22期)2016-12-13 11:09:24
      公共危機的全球治理
      國際觀察(2016年2期)2016-12-12 15:41:13
      下一幕,人工智能!
      下一幕,人工智能!
      阳谷县| 衡阳县| 疏附县| 蒙阴县| 潞西市| 泸西县| 阆中市| 华安县| 玉树县| 太白县| 东阿县| 黄山市| 上犹县| 苏尼特右旗| 绥中县| 罗江县| 石狮市| 甘谷县| 山阴县| 台中市| 鹤岗市| 桐庐县| 东丽区| 瑞安市| 清水县| 江北区| 鲜城| 阆中市| 巴林左旗| 龙门县| 西和县| 谢通门县| 保山市| 禹州市| 汕头市| 象山县| 休宁县| 诸城市| 黔江区| 綦江县| 洛浦县|