• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能時代背景下的國家安全治理:應(yīng)用范式、風險識別與路徑選擇*

      2020-01-02 03:36:02闕天舒張紀騰
      國際安全研究 2020年1期
      關(guān)鍵詞:人工智能

      闕天舒 張紀騰

      人工智能時代背景下的國家安全治理:應(yīng)用范式、風險識別與路徑選擇*

      闕天舒 張紀騰

      作為新一輪科技革命和產(chǎn)業(yè)變革的核心驅(qū)動力量,人工智能技術(shù)的發(fā)展與應(yīng)用在為社會提供強大發(fā)展動力的同時,也對國家安全治理造成了一系列影響。實際上,人工智能技術(shù)與國家安全之間存在一種結(jié)構(gòu)性互動的關(guān)系。一方面,人工智能技術(shù)能夠基于進化賦能的實踐應(yīng)用,從傳統(tǒng)安全、非傳統(tǒng)安全以及兩者間的重疊領(lǐng)域,為國家安全提供更為有效的維護和保障機制;另一方面,人工智能技術(shù)的應(yīng)用也存在著超出預(yù)期設(shè)想的可能性。因此,人工智能在國家安全治理中的應(yīng)用就極易在“界域與有效性”“效能與可靠性”以及“競爭與穩(wěn)定性”之間出現(xiàn)矛盾。尤其是在因人工智能技術(shù)嵌入所導(dǎo)致的力量失衡以及安全格局的轉(zhuǎn)變下,國家安全就極有可能在國家競爭的穩(wěn)定性、社會治理的有序性與技術(shù)應(yīng)用的穩(wěn)定性三方面遭受巨大的沖擊。需要指出的是,目前人工智能技術(shù)所導(dǎo)致的國家安全風險已經(jīng)逐步顯現(xiàn),而全面評估人工智能技術(shù)對國家安全治理帶來的機遇與挑戰(zhàn)將是解決這一技術(shù)安全悖論的關(guān)鍵所在。為此,中國應(yīng)在緊抓人工智能技術(shù)發(fā)展契機的同時,更要加強對這一技術(shù)發(fā)展?jié)撛陲L險的研判和預(yù)防,從而維護好中國的國家安全與人民利益。

      人工智能;國家安全;應(yīng)用范式;安全悖論;路徑選擇

      一般認為,科學(xué)技術(shù)的發(fā)展及應(yīng)用是維護國家安全的重要基礎(chǔ)之一。實際上,技術(shù)發(fā)展本身是以一國的綜合實力為基礎(chǔ),并且技術(shù)應(yīng)用形態(tài)的多樣化、指涉對象的多元化和涉及領(lǐng)域的廣泛性更是進一步擴大了各國間的力量對比。[1]與此同時,技術(shù)應(yīng)用在推動社會發(fā)展的同時也導(dǎo)致了一系列社會問題的出現(xiàn),這些問題往往無法在現(xiàn)有的社會框架下得到妥善解決。隨著互聯(lián)網(wǎng)時代下計算機性能的提升和大數(shù)據(jù)時代下海量數(shù)據(jù)的積累,人工智能技術(shù)依托算力的提高、數(shù)據(jù)的幾何增長以及算法的優(yōu)化,終于進入到新一輪高速發(fā)展期。事實上,人工智能的技術(shù)包容度與統(tǒng)攝力使其具備主導(dǎo)技術(shù)發(fā)展和推動社會形態(tài)轉(zhuǎn)變的基本潛質(zhì)。因此,人工智能被世界各國視為推動新一輪科技革命的關(guān)鍵力量。

      從國家安全治理來看,人工智能技術(shù)在信息收集、決策制定、方案執(zhí)行和監(jiān)控實施等認知域和物理域的應(yīng)用將極大程度地提升國家在安全領(lǐng)域的治理水平,進而能夠有效地推動國家安全的內(nèi)涵及其治理范式的轉(zhuǎn)型與升級。正如人工智能領(lǐng)域的先驅(qū)、美國計算機科學(xué)家佩德羅?多明戈斯(Pedro Domingos)所言:“人工智能是保護國家的重要壁壘?!盵2]然而,人工智能技術(shù)的嵌入在提升國家安全治理效能的同時,還將深化國家安全的向度和擴展國家安全的維度,進而也會催生一種技術(shù)安全悖論。英國哲學(xué)家、牛津大學(xué)人類未來研究所創(chuàng)始者尼克·博斯特羅姆(Nick Bostrom)指出:“人工智能不僅僅是一種顛覆性技術(shù),它也可能是人類遇到的最具破壞性的技術(shù)?!盵3]

      目前,多數(shù)發(fā)達國家政府不僅相繼出臺了戰(zhàn)略規(guī)劃和配套政策來促進本國人工智能的發(fā)展,也對人工智能與國家安全的研究同樣給予了高度關(guān)注。例如,2017年7月,美國哈佛大學(xué)肯尼迪政府學(xué)院貝爾弗科學(xué)與國際事務(wù)中心發(fā)布了《人工智能與國家安全》報告,率先就人工智能與國家安全之間的關(guān)系進行了分析,并從隱私、安全、透明、責任等方面對人工智能技術(shù)進行了評估。[4]又如,2018年2月,來自英國劍橋大學(xué)、牛津大學(xué)與美國耶魯大學(xué)的26名學(xué)者、專家聯(lián)合撰寫的《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》報告,將人工智能技術(shù)可能帶來的風險劃分為“數(shù)字威脅、物理威脅和政治威脅”,并從技術(shù)安全的維度對這些問題進行了具體的分析。[5]近些年,中國學(xué)術(shù)界也開始關(guān)注人工智能在經(jīng)濟、社會以及倫理等領(lǐng)域中的應(yīng)用。那么,人工智能將對國家安全帶來哪些挑戰(zhàn)?又如何有效地應(yīng)對這些挑戰(zhàn)?為此,本文旨在分析人工智能在國家安全治理中的應(yīng)用范式,剖析國家安全在人工智能時代可能面臨的風險,繼而探討中國在維護人工智能技術(shù)發(fā)展的路徑選擇。

      一 人工智能:作為新的歷史起點的深刻技術(shù)革命

      在正式討論人工智能與國家安全的關(guān)系前,我們需要對人工智能這一技術(shù)進行簡單的梳理。自約翰·麥卡錫(John McCarthy)、馬文·明斯基(Marvin Minsky)與納撒尼爾·羅切斯特(Nathaniel Rochester)等計算機專家于1956 年首次提出“人工智能”(Artificial Intelligent)的概念以來,這一技術(shù)在概念和應(yīng)用上不斷擴展和演進。[6]然而,在此后的幾十年內(nèi),由于受到諸多主客觀條件的限制,人工智能并未真正在產(chǎn)業(yè)層面實現(xiàn)技術(shù)應(yīng)用,相關(guān)研究也主要集中于如何運用人工智能進行模式識別以及數(shù)據(jù)歸納等基礎(chǔ)層面。例如,盡管機器學(xué)習概念和淺層學(xué)習算法早于多年前就被提出,但是由于當時缺乏海量數(shù)據(jù)的積累以及與之相匹配的高水平計算能力的支撐,故而這些算法模型始終無法得到持續(xù)的優(yōu)化與突破性的進步。[7]

      進入21世紀以來,隨著技術(shù)的發(fā)展與突破,人工智能技術(shù)逐漸步入了新一輪蓬勃發(fā)展期。[8]從本質(zhì)上說,本輪人工智能技術(shù)發(fā)展熱潮是建立在圖形處理器通用計算(General-purpose computing on graphics processing units, GPGPU)高性能運算架構(gòu)所形成的計算資源與移動互聯(lián)網(wǎng)興起所產(chǎn)生的大量數(shù)據(jù)的基礎(chǔ)上的,而在這兩者的催化下又形成了基于套嵌式的多層次模式識別的深度學(xué)習算法?;ヂ?lián)網(wǎng)所孕育的大數(shù)據(jù)時代為深度學(xué)習算法的優(yōu)化提供了海量、多維度的訓(xùn)練數(shù)據(jù),并且圖形處理器(GPGPU)芯片彌補了中央處理器(CPU)在并行計算上的短板,為深度學(xué)習的訓(xùn)練提供了大規(guī)模、高速率的算力支撐。與此同時,深度學(xué)習能夠通過組合低層特征形成更加抽象的高層屬性與類別,并以自主學(xué)習數(shù)據(jù)的分布特點進行特征判別和邏輯推測,進而構(gòu)建了以“數(shù)據(jù)挖掘、自動學(xué)習和自主認知”為基本分析路徑的機器學(xué)習范式。因此,在“數(shù)據(jù)、算力與算法”三者的共振下,人工智能就逐漸進化為一種能夠進行自我學(xué)習、自我推理以及自我適應(yīng)的技術(shù),并具備以近乎“人類思維”處理復(fù)雜問題的能力。

      人工智能的進一步發(fā)展還催生了強化學(xué)習、遷移學(xué)習、生成對抗網(wǎng)絡(luò)等新型算法,并推動了算法模型、圖像識別、自然語言處理等方面出現(xiàn)迭代式的技術(shù)突破。[9]正如圖靈獎得主吉姆·格雷(Jim Gray)所言,新的信息技術(shù)推動了科學(xué)研究的“第四范式”出現(xiàn)——數(shù)據(jù)密集型科學(xué)發(fā)現(xiàn)(Data-Intensive Scientific Discovery)。[10]而基于數(shù)據(jù)、算法與算力驅(qū)動的人工智能技術(shù)是這一范式的典型技術(shù)代表。實際上,由于人工智能的廣泛應(yīng)用將對交通、醫(yī)療、教育、法律、金融、傳媒等諸多社會領(lǐng)域產(chǎn)生巨大影響,因此,多數(shù)研究將人工智能視為第四次工業(yè)革命的引領(lǐng)性技術(shù),也將這次革命稱為“智能革命”。

      目前,學(xué)界尚未對人工智能研究及應(yīng)用的領(lǐng)域形成統(tǒng)一的認識,但就當前人工智能的技術(shù)研究和應(yīng)用代表來說,可以將其分為以下六個子研究領(lǐng)域:一是機器學(xué)習(machine learning),即通過設(shè)定模型、輸入數(shù)據(jù)對機器進行訓(xùn)練,讓機器生成特定的算法,并利用這一經(jīng)由歸納、聚合而形成的算法對未知數(shù)據(jù)進行識別、判斷與預(yù)測。[11]二是深度學(xué)習(deep learning),主要是指一種基于對數(shù)據(jù)表征學(xué)習的機器學(xué)習方法,強調(diào)使用特定的表示方法從實例中對機器進行訓(xùn)練。三是自然語言處理(natural language processing),主要是指實現(xiàn)人與計算機之間用自然語言進行有效通信的理論與方法。[12]四是計算機視覺(compute version),主要是指使機器能夠?qū)Νh(huán)境及其中的刺激進行可視化分析的學(xué)科。[13]五是過程自動化(automation),是指采用自動化腳本的方法實現(xiàn)機器的自我運作,并使表征其工作狀態(tài)的物理參數(shù)盡可能接近設(shè)定值的一項技術(shù)。六是機器人技術(shù)(robotics),主要是指具備一定程度的人工智能的多軸可編程設(shè)備,是多項人工智能技術(shù)的集成與融合發(fā)展的結(jié)果?;谏鲜鲱I(lǐng)域,人工智能技術(shù)就形成了以縱向的計算芯片、數(shù)據(jù)平臺技術(shù)與開源算法為代表的技術(shù)生態(tài)系統(tǒng)和以橫向的智能安防、智能制造、智能醫(yī)療與智能零售為代表的應(yīng)用生態(tài)系統(tǒng)。

      不同于其他領(lǐng)域的高新科技,人工智能技術(shù)具有更強的適用性和前瞻性,并具有以下特性:

      第一,通用目的性,即人工智能技術(shù)能夠同其他各類技術(shù)以及物質(zhì)力量相結(jié)合,形成新型綜合性集成解決方案(integrated solution)或場景化的一體化應(yīng)用。因此,作為一種底層的平臺性技術(shù),人工智能能夠向各類創(chuàng)新性的應(yīng)用場景和不同行業(yè)快速滲透融合。[14]

      第二,自我學(xué)習與進化,即人工智能技術(shù)基于規(guī)則系統(tǒng)、思維邏輯模擬系統(tǒng)以及學(xué)習與交互系統(tǒng),并結(jié)合多類交叉學(xué)科知識,根據(jù)環(huán)境的響應(yīng)和優(yōu)化規(guī)則來實現(xiàn)自我算法的優(yōu)化。因此,人工智能技術(shù)也是一種自感受、自處理、自反饋與自進化的循環(huán)系統(tǒng)集成。

      第三,技術(shù)的開源性,即人工智能技術(shù)以通用性較強的開源框架和分布式的數(shù)據(jù)庫為基礎(chǔ),并且廣泛支持Python、Java和Scala等流行開發(fā)語言。當然,人工智能技術(shù)的開源性主要集中在基礎(chǔ)的開發(fā)技術(shù)上,多數(shù)的受訓(xùn)模型和數(shù)據(jù)庫仍未實現(xiàn)廣泛的共享。目前來看,主流的開源機器學(xué)習框架有各公司開發(fā)的TensorFlow(谷歌)、Spark(阿帕奇)、CNTK(微軟)以及PyTorch(臉書)等。

      第四,研發(fā)的系統(tǒng)性,即人工智能技術(shù)的研發(fā)對數(shù)據(jù)、人力以及資本有著一定的前期要求,并且人工智能也具備很強的學(xué)科交叉性,涵蓋知識抽象、學(xué)習策略以及推理機制等主題。因此,技術(shù)強國往往在該領(lǐng)域具有一定的先行優(yōu)勢。

      第五,數(shù)字性的依賴,即人工智能技術(shù)的核心驅(qū)動要素為算法、算力與數(shù)據(jù),并且這三者要素形成相互融合、優(yōu)勢互補的良好關(guān)系。這也意味著,哪個國家擁有的計算資源越多、研發(fā)的算法越先進、掌握的數(shù)據(jù)越多,就越有可能在人工智能領(lǐng)域獲得更大的優(yōu)勢。

      當然,人工智能技術(shù)的發(fā)展也存在著特定的階段性。第一,根據(jù)學(xué)習方式的差異可以將人工智能技術(shù)分為反應(yīng)型的機器學(xué)習階段(運用一系列初級算法從事實經(jīng)驗中進行歸納學(xué)習)、有限記憶型的機器智能階段(運用一系列高級算法從歷史經(jīng)驗中進行預(yù)測學(xué)習)以及自我意識型的機器自主階段(不需要外部數(shù)據(jù)就能從經(jīng)驗中進行自我學(xué)習)。[15]第二,根據(jù)技術(shù)解決問題的能力可以將人工智能技術(shù)分為弱人工智能(又稱“狹義人工智能”,Artificial Narrow Intelligence)、強人工智能(又稱“通用人工智能”,Artificial General Intelligence)。弱人工智能主要是指針對特定任務(wù)而設(shè)計和訓(xùn)練的人工智能技術(shù),強人工智能則是指具備足夠的智能解決不熟悉的問題以及具備通用化應(yīng)用能力的人工智能技術(shù)。[16]第三,根據(jù)應(yīng)用層級可將人工智能技術(shù)分為推動社會生產(chǎn)力進步的通用技術(shù)、改革社會秩序的信息化技術(shù)以及實現(xiàn)社會形態(tài)轉(zhuǎn)變的智能化技術(shù)。當然,這一遞進式的發(fā)展以人工智能技術(shù)在全行業(yè)、全領(lǐng)域的爆發(fā)性應(yīng)用為基礎(chǔ)。[17]

      就當下而言,盡管人工智能技術(shù)取得了較大的突破,逐步成為傳統(tǒng)行業(yè)轉(zhuǎn)型與升級的關(guān)鍵,但是目前的人工智能發(fā)展成果主要集中在弱人工智能域內(nèi),并且在一些重難點問題上仍舊無法形成實質(zhì)性的突破,能夠跨領(lǐng)域解決問題的通用人工智能的前景仍具有較大的不確定性。因此,人類社會也將在相當長的一段時間內(nèi)處于人工智能技術(shù)的初級階段。與此同時,盡管人工智能技術(shù)已經(jīng)形成了一定的先期能力優(yōu)勢,但這一技術(shù)發(fā)展的范式遷移必然有一個過程。在這一縱深發(fā)展的過程中,人工智能所造成的社會影響既有其內(nèi)生的不確定性,又有外部延遞的模糊性。因此,對于國家安全而言,人工智能的創(chuàng)新性蘊涵了高度的戰(zhàn)略價值,但其演進路徑的不確定性則帶來了相應(yīng)的風險。

      二 技術(shù)多維嵌入:人工智能在國家安全治理中的應(yīng)用范式

      作為國際政治與軍事戰(zhàn)略領(lǐng)域所關(guān)注的一大重要議題,“國家安全”(National Security)這一概念最初來自世界強國對于戰(zhàn)爭與外交實踐的總結(jié)。根據(jù)理論內(nèi)涵與實踐范疇的差異,國家安全大致經(jīng)歷了“以軍事安全為內(nèi)涵主體的起始階段、以經(jīng)濟安全為重要關(guān)注的雙軌發(fā)展階段及以實現(xiàn)綜合安全為要求的全面治理階段”三個主要階段。[18]盡管不同時期、不同國家對于國家安全的界定、認識與需求各不相同,但從整體發(fā)展趨勢來看,國家安全的關(guān)注點逐步從傳統(tǒng)的軍事領(lǐng)域、經(jīng)濟領(lǐng)域向上游區(qū)間的科學(xué)與技術(shù)領(lǐng)域轉(zhuǎn)移,其他有形要素在國家安全中的比重則相對下降。正如英國倫敦政治經(jīng)濟學(xué)院教授巴里·布贊(Barry Buzan)所言,新技術(shù)演進以及它們在威脅、攻擊和穩(wěn)定戰(zhàn)略關(guān)系中的作用與影響不僅是國家安全治理的重要驅(qū)動力,并且對全球戰(zhàn)略關(guān)系與國際安全也同樣有著極為重要的影響。[19]與此同時,國家安全的指涉對象與關(guān)注領(lǐng)域隨著全球化、現(xiàn)代化等因素的嵌入而發(fā)生了分野。人類安全威脅多層次化的現(xiàn)實呼喚則是導(dǎo)致這一現(xiàn)象發(fā)生的直接原因,其中又以發(fā)展與和諧為主要議題的非傳統(tǒng)安全不斷凸顯和強化。新現(xiàn)實主義、新自由主義以及建構(gòu)主義等國際關(guān)系理論均對國家安全的這一轉(zhuǎn)向予以了密切關(guān)注。[20]

      作為下一輪科技革命的引領(lǐng)性技術(shù),人工智能在國家安全治理領(lǐng)域中的討論和應(yīng)用并非一個新鮮事物。早在20世紀80年代中后期,就有一批專家學(xué)者對此進行了討論。例如,美國國際關(guān)系學(xué)者史蒂文·希姆巴拉(Stephen Cimbala)、菲利普·施羅特(Philip Schrodt)以及保羅·萊納(Paul Lehner)等人從國家安全的角度對人工智能技術(shù)可能造成的影響進行了分析。[21]實際上,本輪人工智能技術(shù)的發(fā)展熱潮更是進一步深化了其在國家安全中的嵌入程度。筆者認為,可以根據(jù)國家安全的主要關(guān)注領(lǐng)域,將人工智能在國家安全中的應(yīng)用范式分為傳統(tǒng)安全與非傳統(tǒng)安全兩個方面。從傳統(tǒng)安全領(lǐng)域出發(fā),主要關(guān)注人工智能在軍事力量與戰(zhàn)略對抗中的威脅性使用與控制,非傳統(tǒng)安全領(lǐng)域則主要關(guān)注人工智能在經(jīng)濟、政治和文化等社會領(lǐng)域中的應(yīng)用與規(guī)范。當然,國家安全治理本身由諸多交叉的治理議題和治理體制組成,結(jié)合人工智能技術(shù)應(yīng)用的特性,這就使得人工智能在國家安全治理中的各類應(yīng)用存在的交叉性更為凸顯。[22]

      具體來看,人工智能在國家安全中的應(yīng)用范式主要表現(xiàn)為以下幾個方面:

      第一,從傳統(tǒng)安全來看,人工智能的軍事化應(yīng)用將推動形成新的軍事能力和戰(zhàn)略博弈模式。目前來看,人工智能軍事化應(yīng)用最為普遍與最為成熟的便是這一技術(shù)在戰(zhàn)場數(shù)據(jù)收集與分析上的應(yīng)用。與傳統(tǒng)的數(shù)字化、網(wǎng)絡(luò)化等信息化技術(shù)的軍事應(yīng)用不同,基于數(shù)據(jù)信息全方位收集的基礎(chǔ),人工智能可以更為完整地還原全部戰(zhàn)場信息,并據(jù)此全盤推演和模擬分析作戰(zhàn)策略的預(yù)期結(jié)果,進而能夠更為全面、準確地掌握戰(zhàn)場態(tài)勢,并據(jù)此提出更加精確的決策建議。[23]例如,美國國防部成立的“算法戰(zhàn)跨部門小組”(AWCFT)便致力于運用人工智能技術(shù)對無人機所收集的全動態(tài)視頻(FMV)數(shù)據(jù)進行自動化處理,并據(jù)此為作戰(zhàn)提供全面的數(shù)據(jù)分析及決策支持。[24]在數(shù)據(jù)分析應(yīng)用的基礎(chǔ)上,人工智能還將推動傳統(tǒng)的指揮模式向智能化指揮與控制機制轉(zhuǎn)變,即在態(tài)勢認知、戰(zhàn)略決策以及行動主體的智能化、自主化的基礎(chǔ)上,實現(xiàn)信息力與作戰(zhàn)單元的密切融合。對此,美國布魯金斯學(xué)會在《人工智能改變世界》報告中提出了“極速戰(zhàn)”(hyper war)的概念,即人工智能有助于實現(xiàn)從搜索發(fā)現(xiàn)目標、威脅評估到鎖定摧毀、效果評估的智能化處理,形成高效精確的感知、判斷、決策、控制、評估閉環(huán),從而大幅縮短“感知——決策——行動”的周期,提升作戰(zhàn)的整體效率(參見圖1)。因此,人工智能所具備的自我學(xué)習、認知和創(chuàng)造力能顯著強化對戰(zhàn)場信息的感知與分析能力,打破傳統(tǒng)信息化技術(shù)對于人工數(shù)據(jù)分析與決策選擇的依賴。

      圖1 人工智能技術(shù)在戰(zhàn)場態(tài)勢感知的路徑——以觀察、調(diào)整、決策與行動循環(huán)為例 [25]

      資料來源:作者自制。

      除智能化的戰(zhàn)場數(shù)據(jù)分析與決策指揮外,人工智能還將推動智能無人化武器的大規(guī)模應(yīng)用。針對這一點,新美國安全中心首席執(zhí)行官羅伯特?沃克(Robert Work)與新美國安全中心執(zhí)行副總裁兼研究主任肖恩?布里姆利(Shawn Brimley)指出,“完全實現(xiàn)機器人作戰(zhàn)體系有可能使軍事力量與人口基數(shù)以及傳統(tǒng)的潛在軍事力量的有效度量脫鉤”,“消滅敵方有生力量”等作戰(zhàn)法則可能失去原有的實際意義。[26]美國布魯金斯學(xué)會高級研究員邁克爾·漢?。∕ichael Hanlon)更是進一步指出,未來戰(zhàn)爭的革命性技術(shù)變化極有可能發(fā)生在計算機和機器人的部分領(lǐng)域,其中人工智能將從機器人、自主化和網(wǎng)絡(luò)安全三方面推動形成新的軍事能力。[27]

      人工智能還將催化諸如算法戰(zhàn)、意識戰(zhàn)等新型戰(zhàn)略對抗方式的形成。以意識戰(zhàn)為例,人工智能通過利用算法自主生成內(nèi)容“子彈”(自動生成具有誘導(dǎo)性或欺騙性的內(nèi)容)、實施個性化的“靶向”鎖定(利用情感篩選鎖定最易受到影響的受眾)和密集的信息“轟炸”組合而成的“影響力機器”(the Influence Machine)來操縱他國國內(nèi)的社會輿論。[28]實際上,這一新型對抗模式能夠以更為隱蔽的和更具破壞性的方式來加劇敵對國家社會內(nèi)部的兩極分化,進而干擾其內(nèi)部政治事務(wù)與破壞其現(xiàn)有政府的合法性。例如,劍橋分析公司(Cambridge Analytica)被爆出利用人工智能技術(shù)對美國民眾的性格特征、政治傾向等特征進行估計及分類,并據(jù)此分別投放不同的、有針對性的政治廣告新聞,從而達到干預(yù)民眾的投票等政治行為的目的。[29]

      當然,人工智能技術(shù)的應(yīng)用的全質(zhì)性還使其能夠同多種物質(zhì)力量相結(jié)合,進而能夠在態(tài)勢感知、威脅分析、策略生成以及攻防對抗等方面形成更為有效的作戰(zhàn)能力。例如,基于人工智能技術(shù)的優(yōu)化,作為致命性自主武器系統(tǒng)(LAWS)應(yīng)用代表的無人機就對戰(zhàn)場數(shù)據(jù)進行更為全面的智能化收集、處理與判斷,并據(jù)此實現(xiàn)自主飛行控制、作戰(zhàn)目標識別、作戰(zhàn)任務(wù)分配與系統(tǒng)自我協(xié)調(diào),組建成“蜂群”式的有機作戰(zhàn)整體。[30]而這一“蜂群”所具備的智能化與集群化的特性能夠通過數(shù)據(jù)共享而實現(xiàn)“多中心化”的協(xié)同作戰(zhàn),并使得無人機群的作戰(zhàn)效能達到最大程度的飽和,最大限度地發(fā)揮集群作戰(zhàn)的優(yōu)勢。[31]

      可見,人工智能不僅能夠通過強化物理效能、生物效能或者重塑武器能量來源、作用原理等純粹的技術(shù)層面來影響戰(zhàn)爭形態(tài),并且還能夠從戰(zhàn)略決策與作戰(zhàn)指揮等主體選擇層面來推動戰(zhàn)爭形態(tài)變革。需要說明的是,當前人工智能技術(shù)的軍事化應(yīng)用多數(shù)仍停留在以信息技術(shù)和精確打擊武器為核心的“初智”階段。因此,人工智能技術(shù)的軍事化應(yīng)用還存在著較大的不確定性。[32]但可以明確的是,占據(jù)人工智能技術(shù)高地的國家將在對抗中獲得更大的主動權(quán),并且國家之間對抗也將不再局限于裝備層面的較量。相反,對抗與競爭領(lǐng)域?qū)㈦S著技術(shù)的發(fā)展而不斷被拓寬,技術(shù)儲備、數(shù)據(jù)知識、創(chuàng)新實力、協(xié)同能力的對抗將達到傳統(tǒng)戰(zhàn)爭不可想象的高度。當然,如果伴隨著技術(shù)的突破,人工智能也有可能推動戰(zhàn)爭從“精確化”向“智能化”轉(zhuǎn)變,使其躍升為以整合多項戰(zhàn)略技術(shù)為支撐的“高智”階段,進而對傳統(tǒng)國家安全乃至國際安全領(lǐng)域造成更具顛覆性的影響。

      第二,從非傳統(tǒng)安全來看,人工智能技術(shù)能夠為各類社會風險的應(yīng)對提供更為有效精準的預(yù)測、感知和糾錯機制。與傳統(tǒng)安全不同,人工智能在非傳統(tǒng)安全領(lǐng)域的應(yīng)用主要是從知識生產(chǎn)與問題分析角度切入的。實際上,以大數(shù)據(jù)分析為基礎(chǔ)的對安全態(tài)勢感知的預(yù)測本身就著眼于關(guān)聯(lián)共現(xiàn)關(guān)系的沖突特征模式識別。[33]人工智能技術(shù)的嵌入則有助于實現(xiàn)這一過程的智能化,進而統(tǒng)合安全中的“預(yù)測、防御、檢測與響應(yīng)”來構(gòu)建一種自適應(yīng)安全架構(gòu)(Adaptive Security Architecture)。[34]在這一架構(gòu)中,人工智能技術(shù)能夠基于時間軸自主地對多源數(shù)據(jù)進行全方位的感知、挖掘與清洗,并對大量模糊的非結(jié)構(gòu)化數(shù)據(jù)進行聚合、分類與序列化處理,從而細粒度、多角度、動態(tài)化地對危險來源進行目標檢測、跟蹤和屬性提取。[35]在此基礎(chǔ)上,人工智能技術(shù)便能夠構(gòu)建相應(yīng)的模型來捕捉各類風險因子的作用路徑及推斷其發(fā)生的概率,并根據(jù)當前的分析結(jié)果主動快速地選擇應(yīng)對策略,從而能夠不斷優(yōu)化安全防御機制和從容應(yīng)對潛在的安全威脅。[36]

      目前,人工智能技術(shù)已在經(jīng)濟安全、醫(yī)療保護、環(huán)境安全、網(wǎng)絡(luò)安全、能源安全、打擊恐怖主義和跨境犯罪等諸多領(lǐng)域得到較為廣泛的應(yīng)用,具體如下:

      第一,在危機預(yù)測方面,人工智能不僅能夠擴大危機預(yù)測的適用范圍,并且也能提高預(yù)測的準確性和時效性,進而為維護社會穩(wěn)定構(gòu)建一種預(yù)測型防護機制。[37]對此,英國艾倫圖靈研究所特別項目主任艾倫·威爾遜(Alan Wilson)及其研究團隊認為,人工智能可以通過擴大數(shù)據(jù)收集、減少信息未知性以及建立相關(guān)分析模型,更好地預(yù)測戰(zhàn)爭及其他沖突發(fā)生的可能性,并以此及時介入其中,以遏制這些社會沖突可能帶來的負面影響。[38]當然,人工智能技術(shù)同樣可以應(yīng)用于全球范圍內(nèi)的自然災(zāi)害和其他社會危機的預(yù)警。例如,公共衛(wèi)生部門能夠利用人工智能技術(shù)來對實際疫情數(shù)據(jù)進行分析,并更準確、有效地對各類傳染疾病進行跟蹤和預(yù)防,從而更高效地利用公共衛(wèi)生資源。[39]

      第二,在反恐方面,人工智能可以基于已有恐怖活動案例的數(shù)據(jù)及社交媒體等其他相關(guān)數(shù)據(jù),對恐怖組織的優(yōu)先目標、網(wǎng)絡(luò)結(jié)構(gòu)及其行動路徑進行智能化的分析,并據(jù)此來預(yù)測潛在的恐怖行為、甄別恐怖活動嫌疑人以及制定相應(yīng)的反恐方案。[40]例如,美國亞利桑那州立大學(xué)的網(wǎng)絡(luò)社會學(xué)智能系統(tǒng)實驗室(Cyber-Socio Intelligent Systems Laboratory)便利用機器學(xué)習以及神經(jīng)網(wǎng)絡(luò)等人工智能技術(shù)對2014年6月8日至12月31日間發(fā)生的2 200起“伊斯蘭國”的恐怖襲擊及其軍事行動進行了分析,并據(jù)此構(gòu)建了一個模擬該恐怖組織行動的模型,以此來推導(dǎo)“伊斯蘭國”各類恐怖活動的發(fā)生規(guī)律以及同聯(lián)軍反制行為之間的關(guān)系。[41]

      第三,在安防方面,人工智能技術(shù)能夠推動被動防御安防系統(tǒng)向主動判斷與預(yù)警的智能安防系統(tǒng)升級。一方面,經(jīng)由人工智能算法訓(xùn)練的人臉識別、圖像識別與視頻結(jié)構(gòu)化等技術(shù)能夠有效地提高安防部門識別罪犯的能力,并根據(jù)罪犯的相關(guān)信息給出更優(yōu)的判決結(jié)果;[42]另一方面,公安部門也能夠利用機器學(xué)習,對犯罪區(qū)域及其他環(huán)境數(shù)據(jù)集進行分析,從而預(yù)測可能發(fā)生犯罪的地區(qū),并據(jù)此優(yōu)化相應(yīng)警力資源的部署。[43]正如美國斯坦福大學(xué)“人工智能百年研究”(AI100)項目小組所指出的,人工智能技術(shù)不僅可以輔助公安部門及其他安全部門進行犯罪現(xiàn)場搜索、檢測犯罪行為和開展救援活動,而且還可用于排列警務(wù)任務(wù)的優(yōu)先次序以及分配相關(guān)警力資源。[44]

      第四,在網(wǎng)絡(luò)安全方面,人工智能有助于實現(xiàn)“端點檢測響應(yīng)”(End-point Detection Response)和“網(wǎng)絡(luò)檢測響應(yīng)”(Network Detection Response),即人工智能技術(shù)能夠在信息交互的過程中提前對網(wǎng)絡(luò)威脅進行評估與研判,并智能化地對不合理的行為進行及時阻斷,實現(xiàn)防護邊界泛網(wǎng)絡(luò)化以適應(yīng)網(wǎng)絡(luò)空間安全邊界的擴張,進而為網(wǎng)絡(luò)安全的機密性、可用性和完整性提供更為有效的防御工具。[45]美國電氣和電子工程師協(xié)會(IEEE)便在其發(fā)布的《人工智能與機器學(xué)習在網(wǎng)絡(luò)安全領(lǐng)域的應(yīng)用》中指出,基于人工智能技術(shù)所構(gòu)建的網(wǎng)絡(luò)安全系統(tǒng)能夠?qū)W(wǎng)絡(luò)安全漏洞進行及時的檢測,并規(guī)模化、高速度地對網(wǎng)絡(luò)安全威脅做出應(yīng)對,進而能夠有效提升網(wǎng)絡(luò)安全系統(tǒng)的防護能力。[46]此外,人工智能技術(shù)還可用于網(wǎng)絡(luò)文本、圖片、視頻和語音內(nèi)容的識別、檢測與分類,并且對于網(wǎng)絡(luò)技術(shù)的各類場景化應(yīng)用提供輔助工具,進而從網(wǎng)絡(luò)內(nèi)容安全與物理網(wǎng)絡(luò)系統(tǒng)安全來賦能網(wǎng)絡(luò)安全。[47]

      第五,在金融安全方面,人工智能的應(yīng)用有助于提高金融體系的安全度和穩(wěn)定性。一方面,人工智能可以通過構(gòu)建反洗錢、反欺詐以及信用評估等智能模型,為開展多源金融數(shù)據(jù)整合與交易邏輯校驗等金融風控業(yè)務(wù)提供更為有效的工具。[48]公認反洗錢師協(xié)會(Association of Certified Anti-Money Laundering Specialists, ACAMS)就高度肯定了人工智能技術(shù)在反洗錢領(lǐng)域的應(yīng)用價值。[49]目前,摩根士丹利、匯豐銀行和高盛等多家金融機構(gòu)已將人工智能技術(shù)應(yīng)用于風險評估、交易篩查、交易監(jiān)控等具體金融風險控制場景。[50]另一方面,人工智能還有助于構(gòu)建金融知識圖譜或關(guān)聯(lián)網(wǎng)絡(luò),從而提升金融預(yù)測的效能與延展金融風控的覆蓋范圍。針對這一點,金融穩(wěn)定理事會(FSB)認為,監(jiān)管部門可以將人工智能技術(shù)運用于監(jiān)測流動性風險、資金壓力、房價和失業(yè)率等市場變化趨勢,從而更為準確地把握當下的經(jīng)濟形勢與金融環(huán)境。[51]

      總的來看,人工智能基于進化賦能的實踐應(yīng)用在國家安全治理中存在著一定的技術(shù)發(fā)展正循環(huán)。這一廣域治理的特征不僅意味著人工智能將成為保障國家安全的重要驅(qū)動力,而且也將進一步拓展國家安全治理的理念、方式與界域。實際上,由于傳統(tǒng)安全與非傳統(tǒng)安全往往是相互影響的,因此科技在兩者之間的應(yīng)用也存在著一定的交叉。人工智能技術(shù)在國家安全治理中的應(yīng)用也具有這一特性,并且人工智能所具有的通用性更是模糊了其在傳統(tǒng)安全與非傳統(tǒng)安全中的應(yīng)用邊界。例如,在傳統(tǒng)安全中的無人機“蜂群”可以用于遙感測繪、森林防火、電力巡線、搜索救援等非傳統(tǒng)安全類活動,而用于標記照片和識別商品的圖像識別算法也被用于分析作戰(zhàn)單元所捕獲的戰(zhàn)場信息。[52]因此,人工智能在傳統(tǒng)安全與非傳統(tǒng)安全兩個領(lǐng)域之間存在著相互支持的作用。當然,由于受到數(shù)據(jù)樣本的不完全、算法優(yōu)化的高要求以及模型構(gòu)建的復(fù)雜性等要素的限制,人工智能在現(xiàn)階段的實際應(yīng)用過程中仍存在著明顯的缺陷。[53]而我們對于人工智能在國家安全治理中應(yīng)用的認知,多數(shù)還是建立在當前已知技術(shù)應(yīng)用的基礎(chǔ)上的,尚且只能根據(jù)現(xiàn)有和能大致預(yù)見到的人工智能技術(shù)及其發(fā)展趨勢,來探討其已經(jīng)和可能在國家安全治理中的應(yīng)用。[54]

      三 安全格局之變:人工智能在國家安全治理中的風險識別

      科技革命的發(fā)生往往會對國家力量對比、地緣政治結(jié)構(gòu)以及社會治理等多個方面產(chǎn)生深遠影響,進而也就會從多個領(lǐng)域?qū)野踩卫碓斐筛拘缘奶魬?zhàn)。例如,科技革命所帶動的軍事變革可能加劇大國間的戰(zhàn)略競爭、擴大全球戰(zhàn)略失衡的風險,并導(dǎo)致對抗規(guī)模更大、速度更快以及強度更高;科技革命所推動的社會形態(tài)轉(zhuǎn)變將使得經(jīng)濟安全、金融安全、信息安全、文化安全、環(huán)境安全等非傳統(tǒng)安全領(lǐng)域面臨新的“安全困境”。[55]如上文所述,隨著人工智能實現(xiàn)了新一輪的技術(shù)突破,這一技術(shù)極大地提升了國家安全的重要意義。人工智能不僅對國家安全及其戰(zhàn)略行為模式具有極強的“破壁效應(yīng)”,同時這一技術(shù)的應(yīng)用也存在著超出預(yù)期設(shè)想的可能。因此,人工智能技術(shù)也將從國家戰(zhàn)略競爭的穩(wěn)定性、社會治理的有序性以及技術(shù)應(yīng)用的穩(wěn)定性等方面對國家安全產(chǎn)生一定沖擊。此外,人工智能綜合應(yīng)用所存在著的交叉性還將放大這些沖擊所造成的風險。

      (一)人工智能將對現(xiàn)有國際戰(zhàn)略競爭平衡產(chǎn)生一定的沖擊

      軍事安全與戰(zhàn)略平衡是國家傳統(tǒng)安全領(lǐng)域探討的首要議題,而科技對于軍事力量發(fā)展的作用則對軍事安全與戰(zhàn)略平衡產(chǎn)生直接影響。這是由于某項新科技的軍事化應(yīng)用往往存在打破原有國家間力量對比的可能,并且各國技術(shù)水平的差異往往容易加劇國家間的軍事與戰(zhàn)略競爭。[56]從這一維度出發(fā),人工智能對于國家安全的影響可以分為以下三個方面:

      第一,從競爭領(lǐng)域來看,人工智能作為一項具有通用性的平臺技術(shù),其軍事化應(yīng)用不會局限于某類單一的武器或作戰(zhàn)平臺,而是將在各個軍事領(lǐng)域內(nèi)實現(xiàn)全面的擴散。因此,擁有人工智能技術(shù)優(yōu)勢的一方將在多領(lǐng)域中研發(fā)出打擊效用更大與預(yù)期風險更低的軍事設(shè)備,而技術(shù)劣勢方則難以用數(shù)量疊層或策略戰(zhàn)術(shù)等手段進行中和或彌補這一力量差距。同時,人工智能還將為各類小規(guī)模、短時間、低烈度的非傳統(tǒng)的戰(zhàn)法及非戰(zhàn)爭的軍事行動提供更為有效的技術(shù)支撐。非常規(guī)的軍事行動出現(xiàn)與進化本身就可能模糊戰(zhàn)爭與沖突的界限,而人工智能軍事化應(yīng)用圖景的不明確則將進一步深化這一不確定性。[57]此外,現(xiàn)有的軍備控制體系與國際裁軍協(xié)議并未將人工智能軍事化應(yīng)用涵蓋在內(nèi),并且各方也尚未就這一議題形成廣泛的共識。[58]因此,人工智能軍事化應(yīng)用所存在的全域式特性以及對非常規(guī)軍事行動的支撐作用將加劇國家在這一領(lǐng)域內(nèi)的競爭,并且全球性規(guī)制的缺失還可能導(dǎo)致人工智能軍事化應(yīng)用出現(xiàn)無序競爭的格局。

      第二,從沖突成本來看,人工智能的軍事化應(yīng)用不僅能夠?qū)崿F(xiàn)作戰(zhàn)效率的全方位提高,并且還能夠以無人化的作戰(zhàn)形式來降低可能造成的傷亡。針對這一點,美國學(xué)者邁克爾·邁耶(Michael Mayer)認為,新型無人武器發(fā)展帶來的影響不僅限于提供了可升級的遠程精確打擊能力,更為關(guān)鍵的是使用這種武器將會避免對己方作戰(zhàn)人員帶來傷亡的風險。[59]這樣來看,人工智能的介入將顯著地降低損益、周期、規(guī)模以及性質(zhì)等諸多因素在內(nèi)的預(yù)期成本對于戰(zhàn)爭決斷及其進程的限制,尤其是原有制衡戰(zhàn)爭的兩大主要因素——軍事成本與國內(nèi)政治代價——在一定程度上被削弱了(甚至消失)。[60]與此同時,人工智能軍事化應(yīng)用所帶來效用的提高也可能導(dǎo)致國家更傾向于使用這一技術(shù)。喬治梅森大學(xué)教授杰瑞米·拉布金(Jeremy Rabkin)與加州大學(xué)伯克利分校教授約翰·柳(John Yoo)認為,在動用大規(guī)模的軍事響應(yīng)過于嚴重的情況下,各國便可能會更加頻繁采取人工智能等作戰(zhàn)效能更高和戰(zhàn)爭成本更低的新技術(shù)來達到目標。[61]可見,盡管人工智能的軍事化應(yīng)用帶來了一系列戰(zhàn)略收益,但也降低了戰(zhàn)爭的門檻及其負面效應(yīng),進而在技術(shù)層面刺激各行為主體趨向于選擇沖突與對抗。[62]

      第三,從核威懾體系來看,人工智能技術(shù)的介入可能對這一建立在“確保相互摧毀”原則基礎(chǔ)上的體系造成巨大的沖擊。實際上,國際行為體間的戰(zhàn)略互動往往是一種基于“不完全信息”的博弈過程,這也是核威懾體系存在的前提之一。[63]然而,擁有人工智能技術(shù)優(yōu)勢的一方能夠?qū)υ胁淮_定的戰(zhàn)略意圖以及復(fù)雜的對抗情況進行全景式的智能化分析,從而能夠在核威懾的決策上做出更加靈活、準確的戰(zhàn)略判斷與選擇。[64]例如,蘭德公司發(fā)布的《人工智能對核戰(zhàn)爭風險的影響》報告顯示,技術(shù)優(yōu)勢方可以運用人工智能技術(shù)對敵方安全基礎(chǔ)設(shè)施實行大規(guī)模監(jiān)控,并據(jù)此確定對手的行為模式與實施更具針對性的反制措施。[65]與此同時,人工智能所導(dǎo)致的軍事競爭領(lǐng)域的擴大還將催生不對等的戰(zhàn)略威脅手段。例如,人工智能可以實現(xiàn)天基武器情報和武力的實時整合,并以智能化的方式提升軌道武器的精準度,進而構(gòu)建一個更為有效的反導(dǎo)防御系統(tǒng)。這一不對等戰(zhàn)略威脅手段的出現(xiàn)可能導(dǎo)致技術(shù)弱勢方所具備的威懾戰(zhàn)略趨于低效或者無效,進而對現(xiàn)有的核威懾體系形成一定沖擊。[66]因此,正如美國哈德遜研究所高級研究員安德魯·克雷皮內(nèi)維奇(Andrew Krepinevich)所言,新興技術(shù)的出現(xiàn)將模糊常規(guī)戰(zhàn)爭與核戰(zhàn)爭間的界限,并且不對等的軍事能力同樣具有打破核威懾平衡的可能。[67]

      從上述三個角度的分析來看,無論是軍事競爭的領(lǐng)域,還是對抗沖突的意愿,抑或是核威懾體系,人工智能技術(shù)均有可能對現(xiàn)有的博弈結(jié)構(gòu)造成較大的沖擊。其中,人工智能技術(shù)相對薄弱的國家將在戰(zhàn)略判斷、策略選擇與執(zhí)行效率等多方面處于絕對劣勢,占據(jù)技術(shù)優(yōu)勢的國家則將通過占據(jù)新的技術(shù)制高點來獲得全面超越傳統(tǒng)力量對抗的能力。在這一狀態(tài)下,各國對于實力差距、國家安全與利益沖突的擔憂將會更加明顯,進而使得各國在人工智能發(fā)展上的不對稱性逐步放大為國家安全偏好上的差異性:第一,技術(shù)強國在選擇沖突對抗時所獲得的收益將不斷增加,技術(shù)弱國則難以憑借常規(guī)的對抗手段形成有效的對外制約。[68]因此,技術(shù)強國所具備的“積極幻想”的適應(yīng)性優(yōu)勢使其更易形成獲取霸權(quán)的進攻性需求,即技術(shù)強國在戰(zhàn)爭方面的決策可能變得更加寬松,并傾向于實現(xiàn)人工智能的大規(guī)模軍事化應(yīng)用以構(gòu)建自身的絕對優(yōu)勢。[69]第二,技術(shù)弱國所處的被動位置則使其形成獲取維護安全的防御性需求,即技術(shù)弱國更易于傾向采取激進的反制措施,傾向于尋求人工智能武器的擴散以獲得新的制衡手段。第三,由于各國無法直觀地判斷相互間在人工智能技術(shù)上的差距,更是可能導(dǎo)致各國不得不做出最為極端的選擇,即將潛在對手的威脅最大化。[70]

      這樣看來,在人工智能軍事化應(yīng)用的影響下,國家安全的客觀外延性(extensionality)與主觀意向性(intentionality)極有可能發(fā)生重疊,即因人工智能技術(shù)發(fā)展的差異性所導(dǎo)致的“生存性焦慮”存在被放大為“生存性威脅”的可能(如圖2所示)。而“客觀安全與主觀安全的喪失將導(dǎo)致國家行為大幅度的偏離理性軌道”,因此無論是技術(shù)強國還是技術(shù)弱國,均有在人工智能軍事化應(yīng)用中強化戰(zhàn)略競爭的傾向。[71]人工智能技術(shù)發(fā)展所導(dǎo)致的力量失衡以及安全格局的轉(zhuǎn)變,就將導(dǎo)致國際體系出現(xiàn)更大的不確定性與不穩(wěn)定性。

      圖2 人工智能軍事化應(yīng)用之下國家安全偏好的轉(zhuǎn)變

      資料來源:筆者自制。

      (二)人工智能將進一步拉大國際行為主體間的能力代差

      軍事能力與經(jīng)濟實力是一國在國際社會中塑造自身權(quán)力的兩大重要來源,但就現(xiàn)代社會的發(fā)展而言,后者對于國家安全的重要性更為凸顯。[72]作為一種生產(chǎn)力革命的手段,人工智能對于經(jīng)濟發(fā)展的重要性是不言而喻的。然而,就目前而言,發(fā)達國家在人工智能技術(shù)的發(fā)展上仍處于絕對的優(yōu)勢地位,多數(shù)發(fā)展中國家在這一技術(shù)上則存在著天然的缺陷。因此,盡管人工智能技術(shù)的應(yīng)用能夠有效地推動社會整體的發(fā)展,但是這一內(nèi)嵌的技術(shù)霸權(quán)邏輯則將導(dǎo)致國際競爭中出現(xiàn)更多的消極因素,并且還將加劇全球發(fā)展中的不均衡與不公正。[73]

      第一,人工智能所推動的生產(chǎn)方式變革將對全球性的整合與現(xiàn)代性的擴散產(chǎn)生一定的限制。人工智能在產(chǎn)業(yè)層面應(yīng)用的核心邏輯在于通過智能機器人來實現(xiàn)社會生產(chǎn)的自動化與智能化。盡管這一生產(chǎn)方式的轉(zhuǎn)變能夠?qū)崿F(xiàn)社會生產(chǎn)力的釋放,但同時也將對現(xiàn)有的產(chǎn)品生命周期和國際分工模式造成極大的沖擊。尤其是無人化生產(chǎn)方式的應(yīng)用將稀釋發(fā)展中國家在勞動力資源上所具備的比較優(yōu)勢,部分制造加工業(yè)回流到自動化程度較高的發(fā)達國家。在這種情況下,發(fā)展中國家就難以通過自身的人口紅利來吸引國際產(chǎn)業(yè)的轉(zhuǎn)移,進而就面臨著外資紅利與全球技術(shù)知識外溢的紅利縮減的風險。同時,人工智能應(yīng)用所導(dǎo)致的全球產(chǎn)業(yè)鏈向價值鏈的躍升將使得具備技術(shù)優(yōu)勢的發(fā)達國家獲得引領(lǐng)新一輪產(chǎn)業(yè)升級的能力。針對這一點,麥肯錫全球研究院在其報告中指出,占據(jù)人工智能技術(shù)高地的發(fā)達國家和地區(qū)將在目前基礎(chǔ)上獲得20%~25%的額外經(jīng)濟增長,而發(fā)展中國家可能僅僅只能獲得5%~15%的額外經(jīng)濟增長。[74]此外,人工智能技術(shù)還將導(dǎo)致發(fā)達國家與發(fā)展中國家之間出現(xiàn)新的技術(shù)圍墻。例如,以色列耶路撒冷希伯來大學(xué)歷史系教授尤瓦爾·赫拉利(Yuval Harari)指出,在人工智能時代,技術(shù)強國所“天然”具有壟斷數(shù)據(jù)的能力可能導(dǎo)致少數(shù)幾個大國掌控全球的數(shù)據(jù)信息,而技術(shù)弱國則極有可能面臨“數(shù)據(jù)殖民”的危機。[75]這樣看來,盡管發(fā)展中國家也將在智能革命中獲得更好的發(fā)展機會,但是原有全球化所帶來的“現(xiàn)代性擴散”可能難以再為發(fā)展中國家的產(chǎn)業(yè)升級與社會轉(zhuǎn)型提供有效的支撐,部分發(fā)展中國家甚至可能面臨被全球價值鏈淘汰的風險。[76]

      第二,人工智能技術(shù)創(chuàng)新與應(yīng)用的高門檻將導(dǎo)致發(fā)展中國家面臨“技術(shù)邊緣化”的風險。[77]從技術(shù)創(chuàng)新來看,多數(shù)發(fā)展中國家在人工智能的技術(shù)創(chuàng)新與投資能力上非常薄弱。根據(jù)加拿大人工智能孵化公司Element AI發(fā)布的《2019年全球人工智能人才報告》顯示,全球范圍內(nèi)72% 的人工智能技術(shù)人才被美國、中國、英國、德國和加拿大五國包攬,而排名前18強的國家則包攬了94% 的人才;[78]再如,根據(jù)全球知名創(chuàng)投研究機構(gòu)CB Insights發(fā)布的2019年《人工智能企業(yè)100強榜單》顯示,在百強榜單中有77家企業(yè)來自美國,并且專利申請數(shù)量最多的公司也同樣來自美國。[79]與此同時,人工智能技術(shù)的前期研發(fā)與布局上也需要投入大量的成本,并且其發(fā)展初期存在著“索洛悖論”(Solow Paradox)的難題,即人工智能所推動社會生產(chǎn)率的提升與技術(shù)進步之間存在遲滯,并且勞動生產(chǎn)率的提升難以同步轉(zhuǎn)化為人們收入的普遍增長和消費成本的普遍下降。[80]對于發(fā)展中國家來說,人工智能技術(shù)研發(fā)的高昂成本本身就是難以負擔的,并且這一技術(shù)應(yīng)用與吸收所需經(jīng)歷緩慢的“燃燒周期”更是加重了其實現(xiàn)技術(shù)應(yīng)用的負擔。從這一角度來看,那些技術(shù)條件和資本基礎(chǔ)薄弱的發(fā)展中國家甚至在人工智能領(lǐng)域喪失實質(zhì)性的發(fā)展機會。[81]

      第三,人工智能的過度競爭還將催生新的地緣政治風險與技術(shù)風險。由于發(fā)達國家在人工智能技術(shù)的原發(fā)性創(chuàng)新與價值定義上具有絕對的先發(fā)優(yōu)勢,因此這些國家往往能夠在人工智能的標準及治理規(guī)則的制定上也發(fā)揮出極強的主導(dǎo)作用。在這種情況下,技術(shù)強國憑借自身在人工智能技術(shù)上的優(yōu)勢而成為新的權(quán)力中心,其他技術(shù)弱國則將參與由技術(shù)強國所構(gòu)建的技術(shù)秩序。因此,技術(shù)弱國對技術(shù)強國就形成了新的技術(shù)性依附。然而,人工智能作為一項集成式的平臺性技術(shù),本身就涉及算力、數(shù)據(jù)與算法等多方面的技術(shù),這就使得各國在人工智能領(lǐng)域的競爭本身就帶有全域式競爭的趨向。在這一依附關(guān)系下,這一全域式競爭的趨向就從技術(shù)強國之間的局部競爭擴大為全球性的競爭,即個別技術(shù)強國的主觀競爭意愿將體現(xiàn)為國家之間的技術(shù)競爭現(xiàn)實。而這種格局一旦形成,就極易導(dǎo)致各國在人工智能領(lǐng)域的競爭超出正常的范疇,甚至可能引發(fā)各國采取諸如技術(shù)封鎖、技術(shù)對抗等更為激進的技術(shù)發(fā)展策略。[82]然而,過度競爭就會導(dǎo)致人工智能的發(fā)展出現(xiàn)更為無序的狀態(tài),尤其是技術(shù)割裂所造成技術(shù)生態(tài)的封閉與失序就極易誘發(fā)一系列的新生技術(shù)風險。例如,不同的人工智能系統(tǒng)本身就存在著兼容性的問題,并且這些系統(tǒng)之間安全防護協(xié)議的差異也可能導(dǎo)致出現(xiàn)一定的安全漏洞。而在技術(shù)對抗或者封鎖的狀態(tài)下,各國就難以通過合作來共同解決這些問題。[83]

      (三)人工智能將導(dǎo)致使資本獲得“超級權(quán)力”

      在技術(shù)發(fā)展和治理需求的推動下,市場中的結(jié)構(gòu)性權(quán)力往往會出現(xiàn)持續(xù)性的擴張。在人工智能時代,盡管政府仍將具備一定的數(shù)據(jù)資源優(yōu)勢,但是治理難度的增加及技術(shù)應(yīng)用的不充分也可能導(dǎo)致政府不得不將部分的治理權(quán)力讓渡給科技巨頭企業(yè)。正如美國經(jīng)濟學(xué)家、諾貝爾經(jīng)濟學(xué)獎得主約瑟夫·斯蒂格利茨(Joseph Stiglitz)所言,人工智能技術(shù)的復(fù)雜性以及科技企業(yè)的優(yōu)勢將導(dǎo)致后者在相關(guān)技術(shù)治理準則的制定中擁有相當大的話語權(quán)。[84]科技巨頭企業(yè)也將憑借自身在人工智能技術(shù)以及產(chǎn)品供應(yīng)上的重要作用,獲得相應(yīng)的社會治理權(quán)力與能力。因此,人工智能在一定程度上將強化資本權(quán)力的壟斷地位,其中科技巨頭企業(yè)極有可能成為新型的權(quán)力中樞。

      目前來看,多數(shù)重要的人工智能領(lǐng)域的突破性成果都是出自Alphabet、IBM、微軟、亞馬遜和蘋果等科技巨頭企業(yè)所支持的研究平臺,并且這些巨頭企業(yè)也通過收購與兼并來強化自己在人工智能技術(shù)生態(tài)的戰(zhàn)略優(yōu)勢。例如,根據(jù)CB Insights的統(tǒng)計,上述所提及的科技巨頭企業(yè)在過去的17年內(nèi)分別收購了諸如深度思考(DeepMind)、Github、領(lǐng)英(LinkedIn)、Siri、安卓(Android)等200多家人工智能創(chuàng)業(yè)公司。[85]因此,這些科技巨頭企業(yè)極有可能成為人工智能時代的巨頭企業(yè)??萍季揞^企業(yè)所構(gòu)建的是一種自上而下的全產(chǎn)業(yè)鏈式的人工智能技術(shù)生態(tài),并且這一生態(tài)體系在發(fā)展初期是不同專業(yè)領(lǐng)域的企業(yè)以開放、互動的形式共建而成。因此,人工智能技術(shù)的競爭要素集中度會隨著這一過程而不斷集中,因而更易形成“贏者通吃”的寡頭競爭格局。例如,盡管當前多數(shù)科技巨頭企業(yè)所提供的人工智能算法多是開源的,但這些算法(與Linux等經(jīng)典開源軟件不同)在戰(zhàn)略、設(shè)計和開發(fā)上仍是封閉的和不透明的,并且初創(chuàng)企業(yè)幾乎難以擺脫對這些開源算法的依賴。[86]此外,數(shù)據(jù)、算法等人工智能的核心要素在一定程度上可以脫離主權(quán)和地理空間的限制,并且人工智能技術(shù)的諸多特性本身就便利于壟斷行為的實施。因此,科技巨頭企業(yè)的活動空間則將隨著人工智能技術(shù)的發(fā)展而得到持續(xù)性的擴張,而相關(guān)部門的監(jiān)管也面臨著更大的挑戰(zhàn)。[87]

      與此同時,人工智能的發(fā)展還將推動新一輪的“溫特爾主義”(Wintelism)的形成。[88]科技巨頭企業(yè)在數(shù)據(jù)、算力與算法上的優(yōu)勢地位決定了它們具備操縱全球人工智能產(chǎn)業(yè)結(jié)構(gòu)與技術(shù)實踐的能力。對于主權(quán)國家而言,為確保自身在人工智能技術(shù)上處于絕對領(lǐng)先地位的目的,技術(shù)強國(相對于技術(shù)弱國)與市場結(jié)構(gòu)性權(quán)力之間形成一種相互利用與共謀的關(guān)系,即兩者極有可能通過制定行業(yè)標準、模塊化生產(chǎn)等策略來主導(dǎo)人工智能技術(shù)的發(fā)展。美國紐約大學(xué)信息法研究所研究員茱莉亞·波爾斯(Julia Powles)將此稱為“因技術(shù)發(fā)展而形成的力量轉(zhuǎn)移與結(jié)合”。[89]然而,對于人工智能而言,這種技術(shù)發(fā)展的模式卻可能導(dǎo)致兩方面的不良后果:從內(nèi)部視角來看,為了充分搶占人工智能技術(shù)的高地,政府會予以科技巨頭企業(yè)更多的權(quán)力讓渡,繼而導(dǎo)致這些巨頭企業(yè)的壟斷地位被不斷強化,并對技術(shù)創(chuàng)新、產(chǎn)業(yè)制造以及社會治理等方面造成極大的擠出效應(yīng)。[90]從外部視角來看,這一發(fā)展模式極易擴大國家利益與企業(yè)利益在人工智能技術(shù)發(fā)展上所具有的一致性,并使得企業(yè)間的商業(yè)性競爭上升為國家間的戰(zhàn)略性競爭,進而導(dǎo)致人工智能面臨更多的消極競爭因素。[91]顯然,這兩種情況均不利于人工智能技術(shù)的可持續(xù)發(fā)展,并且也容易導(dǎo)致各類主體在這一技術(shù)競爭中脫離正常的范疇,進而從技術(shù)發(fā)展和競爭秩序兩方面對國家安全造成極為不利的影響。

      (四)人工智能將導(dǎo)致社會治理面臨新的挑戰(zhàn)

      人工智能技術(shù)的發(fā)展與應(yīng)用將推動新一輪的技術(shù)革命和產(chǎn)業(yè)革命,但同樣不可忽視的是,人工智能技術(shù)的介入也將從利益再分配、法律規(guī)范和倫理道德等多個層面對社會治理形成新的沖擊。與此同時,人工智能本身存在運作的自主性、參與的多元性和風險的不可預(yù)知性等特征對于社會治理也提出了更高的要求。因此,人工智能對于社會治理所帶來的一系列新挑戰(zhàn)也是國家安全治理需要重點關(guān)注的領(lǐng)域。

      當前人工智能對于社會治理最為突出的影響便是這一技術(shù)應(yīng)用所可能導(dǎo)致的社會結(jié)構(gòu)性失業(yè)問題。根據(jù)麥肯錫全球研究院2018年9月發(fā)布的《前沿筆記:人工智能對全球經(jīng)濟影響的模擬計算》顯示,根據(jù)不同的使用場景,到2030年,智能代理和機器人將取代4億~8億個工作崗位。其中,重復(fù)性勞動與低水平數(shù)字技能為特征的崗位需求在未來20年中下降近10%,而非重復(fù)性活動或高水平數(shù)字技能的崗位需求則將獲得相應(yīng)的份額。[92]這就意味著,人工智能將導(dǎo)致依靠勞動密集型產(chǎn)業(yè)和依賴信息不對稱而存在的部分行業(yè)遭受極大的沖擊。[93]實際上,這種失業(yè)的主要原因并不在于技術(shù)替代,而是人工智能嵌入所導(dǎo)致的社會技能結(jié)構(gòu)和人才供需之間的不平衡。人工智能技術(shù)本身無法均等地滲透到所有國家、地區(qū)、產(chǎn)業(yè)和經(jīng)營主體,其帶來的經(jīng)濟增長也同樣難以以涓流的方式惠及所有群體。然而,恰恰是這種不平等與不對稱擴大了人工智能所造成的社會各產(chǎn)業(yè)間、群體間與階層間在發(fā)展能力、資源占有程度與社會影響力等方面的失衡。[94]因此,人工智能所導(dǎo)致的這一結(jié)構(gòu)性失業(yè)不僅可能降低勞動參與率與加劇收入的“二元”分化,還將擴大社會貧富差距和減弱階層流動性。社會包容度衰減等問題也將因此變得更為突出。

      數(shù)據(jù)隱私也是當前人工智能發(fā)展急需解決的問題。人工智能技術(shù)對用戶隱私的侵權(quán)主要表現(xiàn)為個人數(shù)據(jù)的不當收集、數(shù)據(jù)收集方濫用、數(shù)據(jù)二次使用與擴散。實際上,人工智能技術(shù)研發(fā)本身就是以大數(shù)據(jù)技術(shù)為支撐的。然而,數(shù)據(jù)的高度依賴性要求用戶讓渡一定的個人數(shù)據(jù)使用權(quán),并且人工智能所形成的用戶畫像(profiling)還將對用戶的隱私進行“窺探”。例如,將個人的瀏覽記錄、聊天內(nèi)容和購物過程等數(shù)據(jù)片段進行組合,就可以勾勒出用戶的行為軌跡,并據(jù)此推斷出個人偏好、性格特征和行為習慣。此外,在現(xiàn)行的網(wǎng)絡(luò)數(shù)據(jù)安全架構(gòu)下,對于個人數(shù)據(jù)的被遺忘權(quán)、攜帶權(quán)等新型數(shù)據(jù)權(quán)利未能形成社會共識性的保護機制,數(shù)據(jù)跨境流動管理等全球數(shù)據(jù)管理更是處于真空地帶。例如,盡管微軟公司近期出于隱私的考慮,刪除了旗下的公開人臉識別數(shù)據(jù)庫MS Celeb,但這些數(shù)據(jù)早已在業(yè)內(nèi)進行了廣泛傳播,并且基于這些數(shù)據(jù)而優(yōu)化的算法更是無法消除其內(nèi)嵌的對于個人隱私的破壞。[95]

      數(shù)據(jù)質(zhì)量缺陷以及算法平衡價值觀念缺失所導(dǎo)致的算法歧視也是人工智能對社會治理所形成的一大挑戰(zhàn)。實際上,算法的數(shù)據(jù)運用、決策機制以及結(jié)果表征等仍是基于開發(fā)者的主觀價值選擇而形成,開發(fā)者的潛在性偏見由此也可能被嵌入其中。此外,人工智能技術(shù)的甄別邏輯來自輸入數(shù)據(jù),如果數(shù)據(jù)本身不完整或者存在某種傾向性,算法就可能把數(shù)據(jù)中的干擾因素或數(shù)據(jù)噪音進一步放大或固化,進而導(dǎo)致“自我實現(xiàn)的歧視性反饋循環(huán)”。[96]例如,根據(jù)美國公民自由聯(lián)盟(ACLU)的一項測試顯示,由亞馬遜公司所開發(fā)的Rekognition圖像識別技術(shù)錯誤地將28名美國國會議員識別為嫌疑犯,其中有色人種議員占比達到了39%;根據(jù)美國麻省理工學(xué)院媒體實驗室的研究顯示,該技術(shù)也無法可靠地識別“女性和皮膚黝黑的人”,其中19%的女性形象被誤判為男性,而黑皮膚女性在其中占比為31%。[97]這種因數(shù)據(jù)或算法而導(dǎo)致的歧視,就可能引發(fā)種族歧視、性別歧視等社會偏見得到技術(shù)性的強化,進而對公民的相關(guān)權(quán)利造成一定的威脅,并對社會秩序的穩(wěn)定與公平也造成相應(yīng)的破壞。

      (五)人工智能將加劇“技術(shù)恐怖”現(xiàn)象的發(fā)生

      人工智能自身的技術(shù)自主性、高度復(fù)雜性和風險存續(xù)性導(dǎo)致其技術(shù)失控存在更大的破壞性,從而導(dǎo)致國家安全可能面臨“技術(shù)恐怖”的困境。根據(jù)德勤公司(Deloitte)發(fā)布《懸而未決的人工智能競賽——全球企業(yè)人工智能發(fā)展現(xiàn)狀》報告顯示,當前人工智能發(fā)展最突出的三大技術(shù)風險分別是“網(wǎng)絡(luò)安全漏洞、人工智能決策的潛在偏見與基于人工智能的建議做出錯誤決策”。[98]其中,前兩者主要是從人工智能技術(shù)本身出發(fā)的。英國牛津大學(xué)人工智能治理中心研究員雷姆科·澤維斯洛特(Remco Zwetsloot)則將人工智能在技術(shù)層面的風險劃分為“事故風險和濫用風險”。[99]實際上,人工智能不僅存在因惡意使用所導(dǎo)致的技術(shù)外溢風險,而且也面臨著因技術(shù)失控或管理不當所導(dǎo)致的技術(shù)內(nèi)生風險。

      從技術(shù)外溢風險來看,人工智能技術(shù)的成熟以及相關(guān)數(shù)字資源的開放不僅會催生新的技術(shù)擴散風險,并且人工智能本身的技術(shù)漏洞也會增加其被攻擊或利用的可能。一方面,犯罪分子不僅可以更為便捷、隱蔽地進行小型無人攻擊系統(tǒng)及武器的自主研發(fā),并且也能通過對人工智能應(yīng)用的破壞來獲取新型的犯罪能力。[100]例如,機器學(xué)習中所使用的神經(jīng)網(wǎng)絡(luò)已在無人駕駛、機器人等領(lǐng)域得到了廣泛應(yīng)用,但原本無害的神經(jīng)網(wǎng)絡(luò)可能在遭受對抗樣本(Adversarial Example)攻擊或遭遇數(shù)據(jù)劫持后就極易出現(xiàn)隱藏性的偏差,而犯罪分子就能夠通過這些人工智能裝置來發(fā)動非接觸式的攻擊。[101]另一方面,人工智能技術(shù)研發(fā)的秘密性、分散性與不透明性加大了打擊技術(shù)犯罪以及調(diào)控技術(shù)穩(wěn)定性的難度,并且人工智能技術(shù)應(yīng)用邊界的模糊性更是加劇了管控技術(shù)擴散的難度。[102]例如,在開源編程逐漸興起的條件下,人工智能技術(shù)的研發(fā)便能夠在相對秘密的情況下進行,相關(guān)研究項目的參與者也具有一定的分散性,進而導(dǎo)致監(jiān)管者難以對公共危險源進行識別,也無法對這些參與者進行有效的監(jiān)管。[103]

      從技術(shù)內(nèi)生風險來看,不確定的技術(shù)缺陷與安全防護措施的不完善是導(dǎo)致人工智能技術(shù)出現(xiàn)這一風險的主要原因。人工智能所具有“自我學(xué)習”能力使其能夠在不需要外部控制或者監(jiān)督的情況下,就能自主地完成某些任務(wù)。正如斯坦福大學(xué)人工智能與倫理學(xué)教授杰瑞·卡普蘭(Jerry Kaplan)所言,“機器學(xué)習系統(tǒng)能夠發(fā)展出自己的直覺,并依照這一直覺來行動”。[104]但是如果人工智能躍升成具有“自主思維”的主體,形成了自身運行的“技術(shù)理性”,那么人工智能就將具備去本地化控制的能力。然而,在人工智能的運行過程中,算法并不會對決策結(jié)果進行解釋,也無法確定某個特定的數(shù)據(jù)實例是否會對決策產(chǎn)生干擾。[105]因此,使用者既無法充分理解算法運行的原理,也無法完全掌控智能系統(tǒng)的決策及其實施進程,進而被動地陷入一種“算法黑箱”(black box)的狀態(tài)。[106]同時,盡管人工智能有助于實現(xiàn)決策的強理性與概率化的變革,但是情感、道德等主觀性因素無法被充分嵌入這一決策機制,甚至有可能被完全排除在外。這意味著,人工智能難以充分地識別非人道行為,甚至可能自發(fā)制定出既定目標之外的非意圖性目標(unintended impact)。[107]此外,基于歷史數(shù)據(jù)的算法模型對潛在的突發(fā)性變化并不具備完全的預(yù)判能力與應(yīng)變能力,并且監(jiān)管環(huán)境、風險環(huán)境或風險策略等基礎(chǔ)條件的變化對于人工智能也具有一定的實時性要求。因此,一旦人工智能不能及時對此進行調(diào)整,則同樣也可能帶來相應(yīng)的風險。

      不難看出,無論是因技術(shù)濫用而導(dǎo)致的技術(shù)外溢風險,還是因技術(shù)缺陷而產(chǎn)生的技術(shù)內(nèi)生風險,人工智能在某種程度上的確存在失去人為有效控制的可能?!耙粋€真實環(huán)境中的人工智能系統(tǒng),會面臨數(shù)據(jù)安全、模型/算法安全、實現(xiàn)安全等多方面的安全威脅?!盵108]當然,人工智能技術(shù)的內(nèi)生風險要比其外溢風險相對更難以控制,前者所可能造成的危害也比后者相對更為嚴重。尤其是當人類失去對人工智能技術(shù)的本地化控制時,就難以再對人工智能技術(shù)的研發(fā)與應(yīng)用進行有效監(jiān)管與控制。在這一狀態(tài)下,國家安全就可能面臨著更多因人工智能技術(shù)濫用及其演進路徑不確定所導(dǎo)致的“技術(shù)恐怖”現(xiàn)象。

      綜上所述,人工智能技術(shù)的發(fā)展及應(yīng)用將對國家安全帶來新的挑戰(zhàn)。一方面,人工智能技術(shù)的介入將加速新型軍事能力和戰(zhàn)略博弈模式的形成,打破傳統(tǒng)的戰(zhàn)略對抗模式及其博弈的平衡,進而導(dǎo)致國際體系出現(xiàn)更大的不穩(wěn)定性與不確定性;另一方面,盡管人工智能技術(shù)的應(yīng)用將有力地推動新一輪產(chǎn)業(yè)革命,但同時也將拉大國際行為主體間的能力代差,擴大資本壟斷技術(shù)與市場的能力,導(dǎo)致社會治理面臨諸如算法歧視、數(shù)據(jù)壟斷以及隱私保護等問題,并催生一系列“技術(shù)恐怖”的現(xiàn)象。需要指出的是,人工智能技術(shù)所導(dǎo)致的國家安全風險已經(jīng)逐步顯現(xiàn),前述所提及的部分風險也是其他新興技術(shù)應(yīng)用的共有特性。因此,國家安全在技術(shù)共振之下更有可能面臨系統(tǒng)性的風險。

      四 對中國的啟示:人工智能時代下國家安全治理路徑選擇

      在國家目標和利益的追求序列中,國家安全應(yīng)是需要國家把握的核心問題,而人工智能技術(shù)發(fā)展浪潮將導(dǎo)致國家安全治理格局的轉(zhuǎn)變。對于兼具大國與發(fā)展中國家的雙重身份的中國而言,人工智能技術(shù)的發(fā)展及其應(yīng)用所帶來的挑戰(zhàn)與機遇是尤為突出的。一方面,人工智能技術(shù)不僅是中國抓住新一輪科技革命機遇的重要性因素,也是保障中國國家安全的重要驅(qū)動力。正如習近平總書記在中共中央政治局第九次集體學(xué)習時指出的:“加快發(fā)展新一代人工智能是我國贏得全球科技競爭主動權(quán)的重要戰(zhàn)略抓手,是推動我國科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升的重要戰(zhàn)略資源。”[109]另一方面,中國國家安全在經(jīng)濟、政治、軍事、社會、宗教、網(wǎng)絡(luò)、能源和環(huán)境等各個領(lǐng)域均面臨著多種威脅與挑戰(zhàn)。[110]人工智能技術(shù)的嵌入則將促發(fā)更多的安全風險,技術(shù)研究整體圖像的不明晰以及安全治理機制的時滯性還將進一步放大這些安全風險。因此,我們既要緊抓人工智能技術(shù)發(fā)展的契機,推動、容納和接受這一新興技術(shù)的突破和創(chuàng)新,更要關(guān)注這一技術(shù)對國家安全所可能造成的系統(tǒng)性風險。

      (一)持續(xù)完善人工智能技術(shù)發(fā)展的戰(zhàn)略布局

      對于中國而言,人工智能技術(shù)的發(fā)展不僅有助于加快轉(zhuǎn)變經(jīng)濟發(fā)展方式,更是維護國家安全與提升國際競爭力的關(guān)鍵所在。這一技術(shù)自主性的提升將在一定程度上減少安全領(lǐng)域的外部脆弱性,尤其是當技術(shù)競爭加劇的時候,這一自主性的保障將變得更為重要。目前來看,中國已經(jīng)將發(fā)展人工智能上升至國家戰(zhàn)略的高度,并初步構(gòu)建了支持人工智能技術(shù)發(fā)展的政策框架,以期在推動新舊動能轉(zhuǎn)換中充分發(fā)揮人工智能的作用。然而,中國人工智能的發(fā)展相對更加偏好于技術(shù)相對成熟、應(yīng)用場景清晰的領(lǐng)域,對基礎(chǔ)理論、核心算法、芯片制造、關(guān)鍵設(shè)備等基礎(chǔ)技術(shù)領(lǐng)域的研究和創(chuàng)新卻有所缺失。

      中國人工智能發(fā)展戰(zhàn)略還需要對以下三個問題進行深入思考:第一,如何處理中國人工智能技術(shù)發(fā)展不平衡、不充分的問題?即如何解決中國人工智能發(fā)展在人才、資金、體制和產(chǎn)業(yè)鏈配套上存在的協(xié)調(diào)性問題。第二,如何實現(xiàn)人工智能發(fā)展過程中的正外部性與負外部性之間的平衡?正外部性主要是指人工智能的發(fā)展能夠顯著地促進其他新技術(shù)的創(chuàng)新和應(yīng)用,而負外部性則是人工智能發(fā)展導(dǎo)致一系列社會問題。第三,如何實現(xiàn)人工智能技術(shù)研發(fā)的成果保障與地位維護?例如,中國人工智能企業(yè)所采用的基于圖形硬件的編程技術(shù)(GPU)多數(shù)由英特爾、ADM和英偉達(Nvidia)三大巨頭企業(yè)提供,其所使用的人工智能技術(shù)開源框架也均非自主搭建。

      從上述問題來看,人工智能發(fā)展戰(zhàn)略的完善可從以下三方面著手:第一,強化對人工智能技術(shù)發(fā)展的敏感性與理解力,突出強調(diào)對人工智能核心技術(shù)的把控,構(gòu)建自主可控、可持續(xù)發(fā)展的人工智能的技術(shù)創(chuàng)新體系和應(yīng)用產(chǎn)業(yè)體系,從而加強人工智能技術(shù)的自主性和掌握發(fā)展的主動權(quán)。第二,創(chuàng)新人工智能發(fā)展的生態(tài)布局,在體制機制、人才培養(yǎng)、產(chǎn)業(yè)扶持和資金保障等方面提供更多更為全面的配套政策,建立更強有力的公私伙伴關(guān)系以推動政策與各類社會資本的共同發(fā)力,從而加強技術(shù)與產(chǎn)業(yè)緊密結(jié)合的相互增益和提升人工智能技術(shù)發(fā)展的可持續(xù)性。第三,克服從研發(fā)端到部署端的功能孤島,將包容性原則(Inclusiveness)和開放性原則(Openness)充分納入到人工智能技術(shù)發(fā)展的戰(zhàn)略規(guī)劃中,從而加快技術(shù)成果轉(zhuǎn)移和促進其他前沿技術(shù)的共同發(fā)展。例如,在保護數(shù)據(jù)隱私和數(shù)據(jù)安全性的前提下,開放衛(wèi)星圖像、交通數(shù)據(jù)、金融數(shù)據(jù)等數(shù)據(jù)集供公眾使用,并制定數(shù)據(jù)集的使用標準、分類標準和共享標準,進而為人工智能技術(shù)的發(fā)展構(gòu)建開放、靈活的數(shù)據(jù)生態(tài)。

      (二)構(gòu)建人工智能技術(shù)的風險評估機制與保障體系

      減少國家安全治理體系調(diào)試決策失誤的風險和成本的關(guān)鍵在于安全意識的強化和風險應(yīng)對機制的構(gòu)建。[111]根據(jù)美國國際戰(zhàn)略研究中心(CSIS)發(fā)布的《人工智能與國家安全:人工智能生態(tài)系統(tǒng)的重要性》報告顯示,安全可靠的技術(shù)基礎(chǔ)是搭建良性人工智能技術(shù)發(fā)展的生態(tài)系統(tǒng)不可或缺的一部分。[112]因此,減少人工智能技術(shù)發(fā)展與應(yīng)用所帶來的社會風險同樣需要構(gòu)建完整的風險評估機制及保障體系,并從安全技術(shù)和安全管理等層面來協(xié)同防范安全風險。為此,我們應(yīng)在綜合考慮人工智能技術(shù)發(fā)展狀況、社會環(huán)境、倫理價值等因素的基礎(chǔ)上,加強對數(shù)據(jù)壟斷、算法歧視、隱私保護以及倫理道德等問題的預(yù)判,為人工智能技術(shù)的發(fā)展制定相應(yīng)的規(guī)范框架。例如,對于人工智能可能導(dǎo)致的結(jié)構(gòu)性失業(yè)應(yīng)進行系統(tǒng)性評估,據(jù)此及時、合理地調(diào)整人才技能結(jié)構(gòu),使其適應(yīng)新時期經(jīng)濟發(fā)展的需要。

      與此同時,針對人工智能技術(shù)應(yīng)用可能帶來的法律、安全和倫理問題以及各個發(fā)展階段所存在的潛在風險,建立諸如技術(shù)風險評估機制、災(zāi)難性風險管理機制和技術(shù)錯誤糾正機制等相關(guān)可管理安全(managed security)機制,從算法容錯容侵設(shè)計、漏洞檢測和修復(fù)、安全配置等方面來增強人工智能技術(shù)自身的安全性。[113]此外,還應(yīng)提高人工智能技術(shù)的可檢驗性來加強技術(shù)應(yīng)用的透明度與信任度,即人工智能技術(shù)中的算法與數(shù)據(jù)在一定的條件下應(yīng)當被完整保存和查驗,相關(guān)企業(yè)也應(yīng)為了公眾利益放棄妨礙進行問責的商業(yè)秘密與法律主張,尤其是具有高風險的公共領(lǐng)域內(nèi)應(yīng)盡量減少使用具有黑箱特性的人工智能技術(shù)。[114]當然,也要積極地發(fā)展和應(yīng)用各類新型技術(shù)以彌補人工智能技術(shù)所存在的缺陷。例如,區(qū)塊鏈技術(shù)的應(yīng)用便能夠有助于解決人工智能在數(shù)據(jù)隱私、安全等方面的問題,從而打破現(xiàn)有的數(shù)據(jù)寡頭壟斷,助力人工智能技術(shù)的良性發(fā)展。

      (三)規(guī)范技術(shù)設(shè)計的價值向度以引導(dǎo)技術(shù)發(fā)展

      人工智能技術(shù)本身是中性的,但要避免“技術(shù)的貪欲”帶來的不良后果。而將預(yù)設(shè)的價值向度嵌入人工智能的算法之中,并制定相應(yīng)人工智能的正義目標,就能夠在一定程度減少人們對其的不當使用或惡意利用。針對人工智能的價值向度,美國皮尤研究中心提出了三點建議:第一,人工智能技術(shù)研發(fā)應(yīng)以全球民眾的利益為第一要義,因此需要加強國際合作以共同推動技術(shù)的發(fā)展以及應(yīng)對可能的挑戰(zhàn)。第二,人工智能的價值向度必須突出“人性化”,因此必須確保人工智能能夠滿足社會與道德的責任。第三,人工智能技術(shù)的使用應(yīng)堅持以人為本,需要通過適時地改革政治與經(jīng)濟體系,提高人機合作的效率和解決技術(shù)應(yīng)用所導(dǎo)致的治理赤字問題。[115]

      結(jié)合當前人工智能的發(fā)展態(tài)勢,我們?nèi)孕枰?guī)范人工智能發(fā)展的技術(shù)倫理和價值取向,從思想源頭上增強對人工智能技術(shù)風險的預(yù)警能力和社會控制能力,確保技術(shù)與人性之間的平衡。一方面,要加強技術(shù)倫理規(guī)范性和建構(gòu)性的統(tǒng)一,通過恰當?shù)募夹g(shù)設(shè)計規(guī)范和制約實現(xiàn)正面?zhèn)惱韮r值的“預(yù)防式置入”,將人工智能倫理從抽象準則落實到相應(yīng)的技術(shù)研發(fā)與系統(tǒng)設(shè)計中,進而確保技術(shù)管理的“工具主義”性質(zhì)與社會治理的價值理念相兼容;[116]另一方面,要努力貫徹“以人為本”的技術(shù)發(fā)展觀,促進科學(xué)與人文兩種精神的充分融合與互補,以保證人工智能的人性化轉(zhuǎn)向。當然,對人工智能技術(shù)的風險管控應(yīng)該力求在機會和風險之間取得平衡,即在人工智能技術(shù)的發(fā)展與國家安全的維護之間保持平衡,并根據(jù)具體情況對相應(yīng)監(jiān)督機制進行調(diào)整,避免陷入因泛技術(shù)安全化誤區(qū)而導(dǎo)致“技術(shù)滯漲”困境。[117]

      (四)構(gòu)建社會治理新型框架以承接技術(shù)更新

      人工智能技術(shù)從思維層面、技術(shù)層面和價值層面上展示出巨大的包容性、廣泛滲透性和發(fā)展主導(dǎo)性,但越是這樣強大的力量,就越可能面臨慣性束縛與治理困境。美國紐約大學(xué)AI Now研究所指出,對于人工智能技術(shù)的道德承諾、責任制度以及實踐規(guī)范應(yīng)當由相關(guān)治理機制進行承接,否則這些規(guī)范和準則很少能夠得到執(zhí)行。[118]總之,規(guī)范人工智能技術(shù)發(fā)展以及降低其安全風險需要對政治、經(jīng)濟和社會等治理結(jié)構(gòu)進行改革。因此,推進人工智能的健康發(fā)展,就必須充分把握人工智能的技術(shù)屬性與社會屬性高度融合的特點,協(xié)調(diào)利益關(guān)系、及時化解沖突,注重激勵發(fā)展與合理規(guī)制的協(xié)調(diào),進而為人工智能的持續(xù)發(fā)展構(gòu)建相應(yīng)的社會治理機制和路徑。

      從這個角度出發(fā),構(gòu)建新型治理框架的首要工作就在于構(gòu)建涵蓋技術(shù)開發(fā)、行業(yè)監(jiān)管和公共治理等在內(nèi)的成體系化的法律和規(guī)范,增強技術(shù)風險決策和立法的針對性與可操作性,并適當擴大特定部門機構(gòu)權(quán)力,使其能夠更為充分地對人工智能技術(shù)進行監(jiān)管。同時,明確設(shè)計者、使用者、監(jiān)管者之間的權(quán)責關(guān)系,形成“行為——主體——歸責”的歸責體系,并將技術(shù)應(yīng)用的公共安全納入現(xiàn)有的監(jiān)管框架,減少因責任不明確所導(dǎo)致的“追責缺口”的機制問題。[119]此外,也應(yīng)搭建起連接“行動者網(wǎng)絡(luò)”和“利益相關(guān)者”討論與合作的新平臺,鼓勵各級政府與學(xué)術(shù)機構(gòu)、非營利組織和私營部門開展廣泛對話和持續(xù)合作,努力創(chuàng)造一個政府、技術(shù)專家、公眾等多元一體化的治理決策參與機制,應(yīng)當減少政策制定者、執(zhí)行者與技術(shù)研發(fā)群體間的信息不對稱,提高相關(guān)部門判別和應(yīng)對人工智能技術(shù)風險的能力。[120]

      (五)加強全球合作以提升技術(shù)風險管控的效能

      國家安全治理本身與全球安全治理之間存在高度的關(guān)聯(lián)性,而且國際組織、非政府組織、企業(yè)、社會團體等多元主體也對治理過程、議題和效能發(fā)揮著重要的影響。[121]目前來看,人工智能的國際規(guī)則主要由西方發(fā)達國家的企業(yè)或機構(gòu)來推動制定,這意味著從全球?qū)用嬲w考慮的全球性人工智能治理機制是缺位的。[122]同時,全球主要國家對于人工智能技術(shù)開發(fā)與應(yīng)用的具體規(guī)則仍未形成統(tǒng)一的共識,各國在人工智能部署原則及發(fā)展程度上存在的差異還在一定程度上加劇了非理性競爭。此外,在當前全球貿(mào)易關(guān)系相對緊張的局勢下,以美國為首的發(fā)達國家正逐步加大人工智能軍事化應(yīng)用的研發(fā)力度,還以國家安全為由來限制人工智能技術(shù)在全球范圍內(nèi)的推廣與共享。然而,盡管當前各國在人工智能技術(shù)上的競爭日趨激烈,但這不應(yīng)被視為一場“零和博弈”。全球科技的進步本身需要各國的參與,而技術(shù)風險的防范更是需要各國的合作。對此,布魯金斯學(xué)會外交政策研究員瑞安·哈斯(Ryan Hass)和扎克·巴林(Zach Balin)認為,盡管人工智能技術(shù)對國際關(guān)系造成巨大的壓力,但同時也將為各國提供潛在的合作機會。[123]有鑒于此,應(yīng)對人工智能可能帶來的技術(shù)風險需要國際社會的共同參與。

      根據(jù)當前全球人工智能的發(fā)展態(tài)勢,當務(wù)之急在于加快制定符合國際關(guān)系準則和人類道德約束的技術(shù)開發(fā)控制協(xié)議或公約,推動國際社會在一些根本性、原則性的規(guī)則和倫理上達成共識,進而構(gòu)建具有科學(xué)性、系統(tǒng)性、前瞻性的人工智能標準規(guī)范體系,并力促國際認同技術(shù)風險的治理框架和協(xié)調(diào)一致的治理機制的形成。同時,應(yīng)為人工智能技術(shù)的發(fā)展搭建更為廣泛的國際合作與治理網(wǎng)絡(luò),推動全球分散的、相對孤立的治理程序與要素資源的積極整合,構(gòu)建以主權(quán)國家、非政府組織、市民社會和跨國公司為主體的綜合治理體系。此外,積極推動開展持續(xù)、直接、權(quán)威的多邊溝通,對于人工智能技術(shù)開展合作性與建設(shè)性的管理,確保人工智能技術(shù)的和平開發(fā)和加強對國際性技術(shù)風險事故的防范能力。[124]當然,中國更要明確和堅持人工智能技術(shù)發(fā)展的和平導(dǎo)向,即在人工智能技術(shù)的軍事化應(yīng)用中應(yīng)當保持極大的克制性,兼顧多方的利益考慮,在技術(shù)發(fā)展和國家競爭中實現(xiàn)適當?shù)钠胶?,確保人工智能為人類所用和促進全人類平等受益。作為在人工智能發(fā)展上擁有全方位資源優(yōu)勢的中國與美國,更應(yīng)充分發(fā)揮各自在人工智能領(lǐng)域的優(yōu)勢,積極在這一技術(shù)領(lǐng)域找到合作的出口,為全球人工智能技術(shù)的合作與競爭發(fā)揮良性的示范作用。

      五 結(jié)語

      事實上,新的科學(xué)技術(shù)發(fā)展與國家安全治理息息相關(guān),隨著技術(shù)的進步,持續(xù)動蕩與不確定的風險會不斷累積,國家安全治理格局的轉(zhuǎn)變也將是不可避免的結(jié)果。與此同時,國家安全治理對于技術(shù)升級的方向同樣存在著一定的影響,尤其是當國家安全壓力增大時,技術(shù)的投入極易向與安全相關(guān)的領(lǐng)域傾斜。但是,安全和發(fā)展是一體之兩翼、驅(qū)動之雙輪,發(fā)展是安全的基礎(chǔ),安全是發(fā)展的保障。[125]因此,把握科技的發(fā)展主動權(quán)與應(yīng)對好相應(yīng)的技術(shù)風險是保障未來國家安全的重要命題。

      作為一種框架性的底層技術(shù),人工智能將對國家發(fā)展產(chǎn)生根本性的推動作用,也將為國家安全治理帶來廣泛深刻的結(jié)構(gòu)性挑戰(zhàn)。首先,“在未來的技術(shù)競賽中,最成功的國家將是那些積極變革并且能夠跟上技術(shù)進步的國家”。[126]尤其是在當前全球技術(shù)及知識外溢紅利逐步減弱的趨勢下,已被嵌入多個應(yīng)用場景的人工智能極有可能將成為下一輪技術(shù)革命與產(chǎn)業(yè)革命的關(guān)鍵點。其次,人工智能成為國際戰(zhàn)略競爭與合作的又一重要領(lǐng)域。但在當下國家實力對比變化和戰(zhàn)略政策調(diào)整的大背景下,各國在人工智能技術(shù)上的戰(zhàn)略競爭的可能性或?qū)⑦h超合作的可能性。在這兩方面的交叉下,對于人工智能技術(shù)的發(fā)展需求將優(yōu)先于對這一技術(shù)安全性的考量。然而,人工智能不僅將對全球價值鏈的整合與社會的公共管理造成極大的影響,并且其演進路徑的不確定性也將可能導(dǎo)致諸多的技術(shù)風險。因此,在這一發(fā)展需求優(yōu)先和技術(shù)風險凸顯的狀態(tài)下,人工智能就可能導(dǎo)致國家安全中出現(xiàn)更多的不穩(wěn)定因素。

      當然,新技術(shù)的正向良性發(fā)展的關(guān)鍵不僅在于推動技術(shù)的創(chuàng)新與完善,更取決于人類的有效規(guī)制與引導(dǎo)。因此,對于中國而言,如何統(tǒng)籌人工智能技術(shù)發(fā)展與國家安全治理,并實現(xiàn)這兩者綜合成本的明確化、內(nèi)部化與協(xié)調(diào)化將是未來工作的重點之一。在這一過程中,最為重要的仍是保持中國在人工智能技術(shù)領(lǐng)域的領(lǐng)先性與自主性,并通過多樣化方式對這一技術(shù)發(fā)展?jié)撛陲L險進行研判和預(yù)防,進而充分維護好自身的戰(zhàn)略利益。同時,我們應(yīng)積極主持、參與全球人工智能相關(guān)標準的構(gòu)建,提升中國在人工智能技術(shù)發(fā)展上的國際道義制高點、議程設(shè)置能力與話語權(quán)。此外,我們還應(yīng)積極地同各國在人工智能技術(shù)的發(fā)展上展開深度對話,力促在人工智能的戰(zhàn)略競爭與合作上形成“競爭性共榮”(competitive coprosperity),進而塑造一種能夠推進務(wù)實合作和建設(shè)性競爭、有效管控技術(shù)風險與防范重大沖突的國際秩序。

      [1] Robert Jervis, “Cooperation under the Security Dilemma,”, Vol. 30, No. 2, 1978, pp. 167-168.

      [2] Pedro Domingos,, New York: Basic Books Press, 2015, pp. 24-25.

      [3] Nick Bostrom,, Oxford: Oxford University Press, 2014, pp. 8-9.

      [4] Gregory Allen and Taniel Chan, “Artificial Intelligence and National Security,”, July 24, 2017, https://statewatch.org/news/2017/jul/usa-belfer-center-national-security- and-ai-report.pdf.

      [5] Miles Brundage, Shahar Avin, Jack Clark, et al., “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation,” February 23, 2018, https://arxiv.org/ftp/arxiv/papers/1802/ 1802.07228.pdf.

      [6] John MaCarthy, et al., “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence,”, Vol. 27, No. 4, 2006, pp. 12-14.

      [7] Marvin Minsky and Simon Papert,, Cambridge, MA: The MIT Press, 1987, pp. 12-15.

      [8] 其標志性事件便是“神經(jīng)網(wǎng)絡(luò)之父”杰弗里·辛頓(Geoffrey Hinton)及其研究團隊將神經(jīng)網(wǎng)絡(luò)帶入到人工智能技術(shù)研究之中,并于2006年首次提出深度學(xué)習(Deep Learning)算法,進而使人工智能獲得了突破性進展。參見Geoffrey Hinton, Simon Osindero and Yee-Whye Teh, “A Fast Learning Algorithm for Deep Belief Nets,”, Vol. 18, No. 7, 2006, pp. 1527-1554。

      [9] [美] 雷·庫茲韋爾:《奇點臨近》,盛楊燕譯,杭州:浙江人民出版社2016年版,第80-82頁。

      [10] Tony Hey, Stewart Tansley and Kristin Tolle,, Redmond, WA: Microsoft Research, 2009, pp.1-2.

      [11] 機器學(xué)習主要分為以下五大類:一是監(jiān)督學(xué)習(supervised learning):以人為標注的數(shù)據(jù)集作為訓(xùn)練集,訓(xùn)練目標為從訓(xùn)練集中學(xué)習出新函數(shù),以對新的數(shù)據(jù)進行標注。二是無監(jiān)督學(xué)習(unsupervised learning):訓(xùn)練集沒有人為標注的結(jié)果,但訓(xùn)練目標也是對新的數(shù)據(jù)進行標注。三是增強學(xué)習(reinforcement learning):又被稱為強化學(xué)習,訓(xùn)練對象在特定的環(huán)境進行持續(xù)性的自我訓(xùn)練,并根據(jù)周圍環(huán)境的反饋來做出各種特定行為,以實現(xiàn)最優(yōu)的映射學(xué)習行為與決策。四是遷移學(xué)習(transfer learning):將已經(jīng)訓(xùn)練好的源任務(wù)(source tasks)的知識或模型的參數(shù)遷移到新的目標領(lǐng)域(target domain)。五是半監(jiān)督學(xué)習(semi-supervised learning):是一種介于監(jiān)督學(xué)習與無監(jiān)督學(xué)習之間的方法,更強調(diào)讓訓(xùn)練對象不依賴外界交互、自動地利用未標記的樣本來提升學(xué)習性能。關(guān)于機器學(xué)習的具體介紹,可以參見Christopher Bishop,, New York: Springer Press, 2007; Kevin Murphy,, Cambridge, MA: The MIT Press, 2012; 周志華:《機器學(xué)習》,北京:清華大學(xué)出版社2016年版,第2-18頁。

      [12] 自然語言處理的研究主要包括自動摘要、指代消解、語篇分析、機器翻譯、語素切分、命名實體識別和詞性標注等方向。關(guān)于自然語言處理的具體介紹,參見Steven Bird, Ewan Klein and Edward Loper,, Sebastopol, CA: O’Reilly Media Press, 2009; Daniel Jurafsky and James Martin,, Upper Saddle River, NJ: The Prentice Hall Press, 2018; 吳軍:《數(shù)學(xué)之美(第二版)》,北京:人民郵電出版社2012年版。

      [13] 英國機器視覺協(xié)會(BMVA)將計算機視覺定義為“一種對單張圖像或一系列圖像的有用信息進行自動提取、分析和理解的技術(shù)”。常見的計算機視覺應(yīng)用主要包括對數(shù)字化文檔識別的字符處理技術(shù)、對圖像進行分析的圖像處理技術(shù)(image processing)、從動態(tài)視頻獲取有效信息的視頻分析技術(shù)(video analysis)以及支持增強現(xiàn)實技術(shù)(AR)和虛擬現(xiàn)實技術(shù)(VR)的虛擬智能技術(shù)。關(guān)于計算機視覺的具體介紹,可以參見Simon Prince,, Cambridge: Cambridge University Press, 2012; Richard Hartley and Andrew Zisserman,(Second Edition), Cambridge: Cambridge University Press, 2004。

      [14] 麥肯錫全球研究院的研究人員對涵蓋19個行業(yè)以及9個業(yè)務(wù)功能中的400多個用例進行了分析,發(fā)現(xiàn)人工智能可以在69%的潛在用例中改進傳統(tǒng)分析技術(shù),并且能夠為16%的用例提供“綠燈區(qū)”(greenfield)式的解決方案,即針對原有無法被解決的難題提供有效的解決方案。參見The McKinsey Global Institute, “The Promise and Challenge of the Age of Artificial Intelligence,” Mckinsey, October 2018, https://www.mckinsey.it/idee/the-promise-and-challenge-of- the-age-of-artificial-intelligence。

      [15] Ruslan Bragin, “Understanding Different Types of Artificial Intelligence Technology,”, October 18, 2017, https://www.zeolearn.com/magazine/understanding-different-types-of- artificial-intelligence-technology.

      [16] Max Tegmark,, New York: Vintage Books, 2017, pp. 50-51.

      [17] Miles Brundage, Shahar Avin, Jack Clark, et al., “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation,” February 23, 2018, https://arxiv.org/ftp/arxiv/papers/1802/ 1802.07228.pdf.

      [18] Edward Kolodziej,, Cambridge: Cambridge University Press, 2005, pp. 12-13.

      [19] Barry Buzan and Lene Hansen,, Cambridge: Cambridge University Press, 2009, pp. 269-270.

      [20] 例如,新自由主義的代表人物羅伯特·基歐漢(Robert Keohane)和約瑟夫·奈(Joseph Nye, Jr.)所提出的“相互依賴”理論就認為,在“復(fù)合相互依賴”(complex interdependence)條件下,國際行為主體及聯(lián)系渠道的多元化不僅將加劇一系列非傳統(tǒng)安全威脅對國際政治的影響,并且國家安全、地區(qū)安全與全球安全間的聯(lián)系將更加密不可分。參見[美] 羅伯特·基歐漢、[美] 約瑟夫·奈:《權(quán)力與相互依賴》,門洪華譯,北京:北京大學(xué)出版社2012年版,第5-6頁。建構(gòu)主義中的哥本哈根學(xué)派則提出了“古典復(fù)合安全”和“安全化”理論,主張在寬泛議程的基礎(chǔ)上構(gòu)建一種“兼容傳統(tǒng)主義”的安全分析框架,并希望通過“非安全化”來實現(xiàn)人類社會的和平。參見[英] 巴瑞·布贊等:《新安全論》,朱寧譯,杭州:浙江人民出版社2001年版,第5-6頁。批判理論的代表人物彼得·卡贊斯坦(Peter Katzenstein)則將文化認同原理用于國家安全的分析,并指出國家的安全環(huán)境同樣深受文化和制度因素的影響。參見Peter Katzenstein, ed.,, New York: Columbia University Press, 1996, pp. 11-13。

      [21] 參見Stephen Cimbala,, Idaho Falls, Idaho: Lexington Books Press, 1987; Philip Schrodt, “Artificial Intelligence and Formal Models of International Behavior,”, Vol. 19, No. 1, 1988, pp. 71-85; Lehner Paul,, New York: Tab Books, 1989; Adrian Hopgood, “Artificial Intelligence: Hype or Reality?”, Vol. 36, No. 5, 2003, pp. 24-28。

      [22] [意] 盧西亞諾·弗洛里迪:《第四次革命:人工智能如何重塑人類現(xiàn)實》,王文革譯,杭州:浙江人民出版社2016年版,第8-9頁。

      [23] 杜國紅、韓冰、徐新偉:《陸戰(zhàn)場指揮與控制智能化技術(shù)體系研究》,載《指揮控制與仿真》2018年第3期,第1-4頁。

      [24] Darrell West and John Allen, “How Artificial Intelligence is Transforming the World,” Brookings, April 24, 2018, https://www.brookings.edu/research/how-artificial-intelligence-is-transforming-the-world/.

      [25] 觀察、調(diào)整、決策與行動(OODA)循環(huán)理論原為信息戰(zhàn)領(lǐng)域的一個概念,該理論認為作戰(zhàn)過程是“觀察(Observe)、調(diào)整(Orient)、決策(Decide)與行動(Act)”四個環(huán)節(jié)的不斷循環(huán)往復(fù)的過程,并且在對等作戰(zhàn)的前提下獲勝的關(guān)鍵就在于更好地完成這一過程。而人工智能的嵌入將推動OODA實現(xiàn)智能化的轉(zhuǎn)變:第一,態(tài)勢感知智能化,即采用機器學(xué)習等方法,并在先驗知識的支持下,與環(huán)境的不斷交互持續(xù)地學(xué)習戰(zhàn)場環(huán)境。第二,對抗措施的自我調(diào)整,即根據(jù)態(tài)勢感知模塊對環(huán)境信息的認知,自動合成最佳對抗策略和分配作戰(zhàn)資源。

      [26] Robert Work and Shawn Brimley, “20YY: Preparing for War in the Robotic Age,” Center for a New American Security, January 22, 2014, https://s3.amazonaws.com/files.cnas.org/documents/ CNAS_20YY_WorkBrimley.pdf.

      [27] Michael Hanlon, “Forecasting Change in Military Technology, 2020-2040,” September 2018, http://www.brookings.edu/research/forecasting-change-in-military-technology-2020-2040/.

      [28] “影響力機器”概念由美國陸軍協(xié)會陸戰(zhàn)研究所最早提出,這一作戰(zhàn)模式的目的在于以更低的成本、更為隱蔽的方式來干擾民眾情緒和操縱社會輿論,從而在對手內(nèi)部制造分裂并削弱其民眾的意志。參見Christopher Telley, “The Influence Machine: Automated Information Operations as a Strategic Defeat Mechanism,” Association of the United States Army, September 24, 2018, https://www.ausa.org/publications/influence-machine-automated-information-operations-strategic-mechanism。

      [29] Ryan Hass and Zach Balin, “US-China Relations in the Age of Artificial Intelligence,” Brookings, January 10, 2019, https://www.brookings.edu/research/us-china-relations-in-the-age-of- artificial-intelligence/.

      [30] Paul Scharre,, New York: W. W. Norton & Company, 2018, pp. 12-15.

      [31] Amy McCullough, “Swarms: Why They’re the Future of Warfare,”, Vol. 102, No. 3, 2019, pp. 36-37.

      [32] Vincent Boulanin and MaaikeVerbruggen,, Sweden Stockholm International Peace Research Institute, 2017, pp. 16-17.

      [33] 董青嶺:《大數(shù)據(jù)安全態(tài)勢感知與沖突預(yù)測》,載《中國社會科學(xué)》2018年第6期,第182頁。

      [34] “自適應(yīng)安全架構(gòu)”是由美國顧能咨詢公司(Gartner Group)所提出的面向下一代的安全體系框架,其組成主要分為四個維度:(一)防御:指一系列用于防御攻擊的策略集、流程和產(chǎn)品,其關(guān)鍵目標在于減少被攻擊面。(二)檢測:指用于監(jiān)測逃過防御網(wǎng)絡(luò)的威脅的工具,其關(guān)鍵目標在于降低威脅造成的“停擺時間”以及其他潛在的損失。(三)響應(yīng):指用于調(diào)查和修復(fù)被檢測階段所分析出的威脅,其關(guān)鍵目標在于提供入侵認證和攻擊來源分析,并產(chǎn)生新的防御手段來避免未來事故。(四)預(yù)測:指基于防御、檢測、響應(yīng)結(jié)果不斷優(yōu)化基線系統(tǒng),其關(guān)鍵目標在于精準預(yù)測未知的威脅。參見 Neil MacDonald and Peter Firstbrook, “Designing an Adaptive Security Architecture for Protection From Advanced Attacks,” Gartner Group, February 12, 2014, pp. 3-4。

      [35] Anna Buczak and Erhan Guven, “A Survey of Data Mining and Machine Learning Methods for Cyber Security Intrusion Detection,”, Vol. 18, No. 2, 2017, pp. 1153-1176.

      [36] Lars-Erik Cederman and Nils Weidmann, “Predicting Armed Conflict: Time to Adjust Our Expectations?”, Vol. 355, No. 6324, 2017, p. 474.

      [37] David Vergun, “Artificial Intelligence Could Aid Future Background Investigators,” April 8, 2019, https://dod.defense.gov/News/Article/Article/1808092/artificial-intelligence-could-aid-future- background-investigators/.

      [38] 英國艾倫圖靈研究所開發(fā)的“全球城市分析彈性防御項目”(Project on Global Urban Analytics for Resilient Defence)、美國洛克希德·馬丁公司開發(fā)的“綜合危機預(yù)警系統(tǒng)”(Integrated Crisis Early Warning System)以及美國政府資助的政治不穩(wěn)定任務(wù)工作小組(Political Instability Task Force)所研發(fā)的政治風險預(yù)測模型等,均已將人工智能用于風險預(yù)測模型的構(gòu)建。參見Weisi Guo, Kristian Gleditsch and Alan Wilson, “Retool AI to Forecast and Limit Wars,”, October 15, 2018, https://www.nature.com/articles/d41586-018-07026-4。

      [39] Trang Pham, Truyen Tran, Dinh Phung, et al., “Predicting Healthcare Trajectories from Medical Records: A Deep Learning Approach,”, Vol. 69, No. 3, 2017, pp. 218-229.

      [40] Patrick Johnston and Anoop Sarbahi, “The Impact of US Drone Strikes on Terrorism in Pakistan and Afghanistan,”, Vol. 60, No. 2, 2016, p. 204.

      [41] Andrew Stanton, Amanda Thart, Ashish Jain, et al., “Mining for Causal Relationships: A Data-Driven Study of the Islamic State,” in the Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2015, pp. 2137-2146.

      [42] Richard Berk, “Asymmetric Loss Functions for Forecasting in Criminal Justice Settings,”, Vol. 27, No. 1, 2011, pp. 107-123.

      [43] Beth Pearsall, “Predictive Policing: The Future of Law Enforcement?”, Vol. 4, No. 266, 2010, p. 16.

      [44] One Hundred Year Study on Artificial Intelligence (AI100), “Artificial Intelligence and Life in 2030,” Stanford University, September 9, 2016, https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai_ 100_report_0831fnl.pdf.

      [45] Jian-hua Li, “Cyber Security Meets Artificial Intelligence: A Survey,”, Vol. 19, No. 12, 2018, pp. 1462-1474.

      [46] IEEE, “Artificial Intelligence and Machine Learning Applied to Cybersecurity,” October 9, 2017, https://www.ieee.org/content/dam/ieee-org/ieee/web/org/about/industry/ieee_confluence_report.pdf.

      [47] 網(wǎng)絡(luò)內(nèi)容安全是指網(wǎng)絡(luò)環(huán)境中產(chǎn)生和流轉(zhuǎn)的新型內(nèi)容是否合法、準確和健康;網(wǎng)絡(luò)物理系統(tǒng)安全則是指網(wǎng)絡(luò)技術(shù)的現(xiàn)實應(yīng)用是否會對資產(chǎn)、人身及自然環(huán)境等要素造成潛在的安全威脅。參見騰訊公司安全管理部、賽博研究院:《人工智能賦能網(wǎng)絡(luò)空間安全:模式與實踐》,2018年9月18日,第10-15頁。

      [48] Richard Lowe, “Anti-Money Laundering - the Need for Intelligence,”, Vol. 24, No. 3, 2017, pp. 472-479.

      [49] Gurjeet Singh, “How AI is Transforming the Anti-Money Laundering Challenge,”, August 10, 2017, https://www.corporatecomplianceinsights.com/ai-transforming-anti-money-laundering- challenge/.

      [50] Aline Dima and Simona Vasilache, “Credit Risk Modeling for Companies Default Prediction Using Neural Networks,”, Vol. 19, No. 3, 2016, pp. 127-143.

      [51] Financial Stability Board, “Artificial Intelligence and Machine Learning in Financial Services: Market Developments and Financial Stability Implications,” November 1, 2017, http://www.fsb. org/wp-content/uploads/P011117.pdf.

      [52] Michael Mayer, “The New Killer Drones: Understanding the Strategic Implications of Next-Generation Unmanned Combat Aerial Vehicles,”, Vol. 91, No. 4, 2015, p. 778.

      [53] 董青嶺:《機器學(xué)習與沖突預(yù)測——國際關(guān)系研究的一個跨學(xué)科視角》,載《世界經(jīng)濟與政治》2017年第7期,第116頁。

      [54] 傅瑩:《人工智能對國際關(guān)系的影響初析》,載《國際政治科學(xué)》2019年第1期,第17頁。

      [55] John Herz, “The Security Dilemma in International Relations: Background and Present Problems,”, Vol. 17, No. 4, 2003, p. 41.

      [56] William McNeill,, Chicago: University of Chicago Press, 1982, pp. 22-23.

      [57] 王逸舟:《全球主義視野下的國家安全研究》,載《國際政治研究》2015年第4期,第103頁。

      [58] 馮玉軍、陳宇:《大國競逐新軍事革命與國際安全體系的未來》,載《現(xiàn)代國際關(guān)系》2018年第12期,第12-20頁。

      [59] Michael Mayer, “The New Killer Drones: Understanding the Strategic Implications of Next-Generation Unmanned Combat Aerial Vehicles,”, Vol. 91, No. 4, 2015, p. 767.

      [60] Andrea Gilli and Mauro Gilli, “The Diffusion of Drone Warfare? Industrial, Organizational and Infrastructural Constraints,”, Vol. 25, No. 1, 2016, pp. 76-77.

      [61] Jeremy Rabkin and John Yoo,, New York: Encounter Books Press, 2017, pp. 3-5.

      [62] 徐能武、葛鴻昌:《致命性自主武器系統(tǒng)及軍控思考》,載《現(xiàn)代國際關(guān)系》2018年第7期,第58頁。

      [63] 唐世平:《一個新的國際關(guān)系歸因理論:不確定性的維度及其認知挑戰(zhàn)》,載《國際安全研究》2014年第2期,第5-6頁

      [64] Pavel Sharikov, “Artificial Intelligence, Cyberattack, and Nuclear Weapons: A Dangerous Combination,”, Vol. 74, No. 6, 2018, pp. 368-373.

      [65] Edward Geist and Andrew Lohn, “How Might Artificial Intelligence Affect the Risk of Nuclear War?” Rand Corporation, May 28, 2018, https://www.rand.org/pubs/perspectives/PE296.html.

      [66] Kenneth Waltz, “Realist Thought and Neorealist Theory,”, Vol. 44, No. 1, 1990, pp. 21-37.

      [67] Andrew Krepinevich, “The Eroding Balance of Terror: The Decline of Deterrence,”, Vol. 97, No. 2, 2018, pp. 62-74.

      [68] Perry World House, “Artificial Intelligence beyond the Superpowers,” August 16, 2018, https://thebulletin.org/2018/08/the-ai-arms-race-and-the-rest-of-the-world/.

      [69] Dominic Johnson,, Boston: Harvard University Press, 2004, pp. 4-5.

      [70] Michael Horowitz, “Artificial Intelligence, International Competition, and the Balance of Power,”, Vol. 1, No. 3, 2018, p. 41.

      [71] 美國約翰·霍普金斯大學(xué)教授阿諾德·沃爾弗斯(Arnold Wolfers)將國家安全分為客觀安全與主觀安全,“安全在客觀意義上表現(xiàn)為已獲得的價值不存在威脅,在主觀意義上則表明不存在一種恐懼——這一價值受到攻擊的恐懼?!眳⒁夾rnold Wolfers, “National Security as an Ambiguous Symbol,”, Vol. 67, No. 4, 1952, pp. 481-502。

      [72] William McNeill,, Chicago: University of Chicago Press, 1982, pp. 22-23.

      [73] Alexander Gerschenkron,, Boston: Harvard University Press, 1966, pp. 52-54.

      [74] Jacques Bughin, Jeongmin Seong, James Manyika, Michael Chui and Raoul Joshi, “Notes from the AI Frontier: Modeling the Impact of AI on the World Economy,” Mckinsey Global Institute, September 2018, https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the- frontier-modeling-the-impact-of-ai-on-the-world-economy#0.

      [75] Yuval Harari, “Who Will Win the Race for AI?”, No. 231, 2019, pp. 52-54.

      [76] 劉中民:《西方國際關(guān)系理論視野中的非傳統(tǒng)安全研究》,載《世界經(jīng)濟與政治》2004年第4期,第32-37頁。

      [77] 高奇琦:《人工智能時代發(fā)展中國家的“邊緣化風險”與中國使命》,載《國際觀察》2018年第4期,第39頁。

      [78] Element AI, “2019 Global AI Talent Report,” April 2, 2019, https://www.elementai.com/ news/2019/2019-global-ai-talent-report.

      [79] CB Insights Research, “AI 100: The Artificial Intelligence Startups Redefining Industries,” February 6, 2019, https://www.cbinsights.com/research/artificial-intelligence-top-startups/.

      [80] 根據(jù)MGI的模擬計算顯示,人工智能的初創(chuàng)成本將消耗近五年內(nèi)潛在收益的 80%,到2030年則將下降至26%左右。但在技術(shù)創(chuàng)新的累積效應(yīng)和功能互補的影響下,人工智能的中長期發(fā)展將帶來巨大的收益。MGI預(yù)計到2030年,人工智能可使全球國內(nèi)生產(chǎn)總值(GDP)增加13萬億美元左右,即為全球GDP年均增速貢獻1.2%。

      [81] 封帥:《人工智能時代的國際關(guān)系:走向變革且不平等的世界》,載《外交評論(外交學(xué)院學(xué)報)》2018年第1期,第144頁。

      [82] Brad Allenby, “Emerging Technologies and the Future of Humanity,”, Vol. 71, No. 6, 2015, pp. 29-38.

      [83] Kareem Ayoub and Kenneth Payne, “Strategy in the Age of Artificial Intelligence,”, Vol. 39, No. 6, 2016, pp. 793-819.

      [84] Ian Sample, “Joseph Stiglitz on Artificial Intelligence: ‘We’re Going towards a More Divided Society’,”, September 10, 2018, https://www.theguardian.com/technology/2018/sep/08/ joseph-stiglitz-on-artificial-intelligence-were-going-towards-a-more-divided-society.

      [85] CBinsights, “The Race for AI: Google, Intel, Apple in a Rush to Grab Artificial Intelligence Startups,” February 27, 2018, https://www.cbinsights.com/research/top-acquirers-ai-startups-ma-timeline/.

      [86] Arif Khan, “The Tech Oligopoly: Disrupt the Disruption,” TheDiplomatic Courier,May 14, 2019,https://www.diplomaticourier.com/posts/the-tech-oligopoly-disrupt-the-disruption.

      [87] 高奇琦:《人工智能時代的世界主義與中國》,載《國外理論動態(tài)》2017年第9期,第45頁。

      [88] “溫特爾主義”(Wintelism)一詞取自微軟的操作系統(tǒng)(Windows)和英特爾(Intel),是指科技巨頭圍繞產(chǎn)品標準在全球范圍內(nèi)有效配置資源,并通過制定結(jié)構(gòu)性的行業(yè)標準和模塊化生產(chǎn)的模式,從而形成標準控制下的產(chǎn)品模塊生產(chǎn)與組合以及對其他企業(yè)形成在產(chǎn)業(yè)鏈上的控制。參見Jeffrey Hart and Sangbae Kim, “Explaining the Resurgence of U.S. Competitiveness: The Rise of Wintelism,”, Vol. 18, No. 2, 2002, pp. 1-12。

      [89] Julia Powles and Hal Hodson, “Google DeepMind and Healthcare in an Age of Algorithms,”, Vol. 7, No. 4, 2017, p. 352.

      [90] [美] 詹姆斯·亨德勒、[美] 愛麗絲·穆維西爾:《社會機器:即將到來的人工智能、社會網(wǎng)絡(luò)與人類的碰撞》,王曉、王帥、王佼譯,北京:機械工業(yè)出版社2017年版,第27頁。

      [91] 最為典型的便是當下中美兩國在5G技術(shù)上的競爭,例如WIFI聯(lián)盟、SD存儲卡協(xié)會、藍牙技術(shù)聯(lián)盟、JEDEC固態(tài)技術(shù)協(xié)會等國際技術(shù)組織在美國的行政影響與司法威懾下,暫?;蛘卟糠謺和A巳A為在其組織內(nèi)的會員資格。

      [92] Jacques Bughin, Jeongmin Seong, James Manyika, et al., “Notes from the AI Frontier: Modeling the Impact of AI on the World Economy,” Mckinsey Global Institute, September 2018, https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-frontier-modeling-the-impact-of-ai-on-the-world-economy#0.

      [93] 部分學(xué)者甚至否定了人工智能應(yīng)用對于長期的經(jīng)濟增長的作用。例如,伊曼紐爾·卡斯特格(Emanuel Gasteiger)和克勞斯·普雷特納(Klaus Prettner)基于“代際交疊模型”(Overlapping Generation Models)對人工智能應(yīng)用之于經(jīng)濟長期的影響進行了分析,認為“由于機器人的使用將抑制工資的增長,投資的增長也由此受到了抑制,而這最終將導(dǎo)致經(jīng)濟的停滯”。參見Emanuel Gasteiger and Klaus Prettner, “On the Possibility of Automation-Induced Stagnation,” Discussion Papers in Business, Economics and Social Sciences, February 24, 2017, https://www.econstor.eu/ bitstream/10419/155784/1/882225014.pdf。

      [94] Samuel Kaplan,, New Haven, CT: Yale University Press, 2015, p. 31.

      [95] MS Celeb數(shù)據(jù)庫擁有將近10萬人的面部信息,但其中部分數(shù)據(jù)的采集并未得到用戶的授權(quán)。與此同時,在微軟公司刪除該資料庫前,IBM、松下電氣、輝達、日立、商湯科技、曠視科技等多個商業(yè)公司均使用了這一數(shù)據(jù)庫。參見Madhumita Murgia, “Microsoft Quietly Deletes Largest Public Face Recognition Data Set,” the FT Group, June 18, 2019, https://www.ft.com/content/ 7d3e0d6a-87a0-11e9-a028-86cea8523dc2。

      [96] Richard Berk,, Berlin: Springer-Verlag Press, 2018, pp. 22-23.

      [97] Russell Brandom, “Amazon’s Facial Recognition Matched 28 Members of Congress to Criminal Mugshots,” The Verge, January 26, 2018, https://www.theverge.com/2018/7/26/17615634/ amazon-rekognition-aclu-mug-shot-congress-facial-recognition.

      [98] Deloitte, “Future in the Balance? How Countries are Pursuing an AI Advantage,” May 28, 2019, https://www2.deloitte.com/content/dam/insights/us/articles/5189_Global-AI-survey/DI_Global- AI-survey.pdf.

      [99] Remco Zwetsloot and Allan Dafoe, “Thinking about Risks from AI: Accidents, Misuse and Structure,” LawFare,February 11, 2019, https://www.lawfareblog.com/thinking-about-risks-ai-accidents- misuse-and-structure.

      [100] David Hastings Dunn, “Drones: Disembodied Aerial Warfare and the Unarticulated Threat,”, Vol. 89, No. 5, 2013, p. 1243.

      [101] Mary Cummings, “Artificial Intelligence and the Future of Warfare,” Chatham House, January 26, 2017, https://www.chathamhouse.org/publication/artificial-intelligence-and-future-warfare.

      [102] 秘密性是指人工智能的研究與開發(fā)所需的可見設(shè)施相對較少;分散性則是指人工智能的研究與開發(fā)無需所有部件、人員同時就位;不透明性是指人工智能的運行可能處于秘密狀態(tài),并且不能被反向工程控制。當然,這些特征并不是人工智能技術(shù)所獨有的,信息時代的許多科技同樣也具有這些特征。但是,人工智能研究與開發(fā)的分散程度和規(guī)模以及交互程度都遠遠超過以往的任何科技。參見Matthew Scherer, “Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies,”, Vol. 29, No. 2, 2016, pp. 363-364。

      [103] [美] 馬丁·福特:《機器人時代》,王吉美等譯,北京:中信出版社2015年版,第36頁。

      [104] Jerry Kaplan, “AI’s PR Problem,”, March 3, 2017, https://www. technologyreview.com/s/603761/ais-pr-problem/.

      [105] ENISA, “Towards a Framework for Policy Development in Cybersecurity - Security and Privacy Considerations in Autonomous Agents,” March 14, 2019, https://www.enisa.europa.eu/ publications/considerations-in-autonomous-agents.

      [106] Mike Ananny and Kate Crawford, “Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability,”, Vol. 20, No. 3, 2016, p. 975.

      [107] 封帥、周亦奇:《人工智能時代國家戰(zhàn)略行為的模式變遷——走向數(shù)據(jù)與算法的競爭》,載《國際展望》 2018年第10期,第57頁。

      [108] Meredith Whittaker, Kate Crawford, Roel Dobbe, et al., “AI Now Report 2018,” AI Now Institute, October 16, 2018, https://ainowinstitute.org/AI_Now_2018_Report.pdf.

      [109] 習近平:《“確保人工智能關(guān)鍵核心技術(shù)牢牢掌握在自己手里”——中共中央政治局舉行第九次集體學(xué)習》,載《人民日報(海外版)》2018年11月1日。

      [110] 復(fù)旦大學(xué)國際關(guān)系與公共事務(wù)學(xué)院“國務(wù)智庫”編寫組:《安全、發(fā)展與國際共進》,載《國際安全研究》2015年第1期,第4頁。

      [111] 梅立潤:《人工智能如何影響國家治理:一項預(yù)判性分析》,載《湖北社會科學(xué)》2018年第8期,第27頁。

      [112] 該報告將人工智能生態(tài)的構(gòu)建分為四個重要組成部分,除了安全可靠的技術(shù)基礎(chǔ)外,還包括良好的投資環(huán)境和政策體系、熟練的勞動力和充分的知識管理與獲取、處理和利用數(shù)據(jù)的數(shù)字生態(tài)等三個方面。參見Lindsey Sheppard and Andrew Hunter, “Artificial Intelligence and National Security, The Importance of the AI Ecosystem,” CSIS, November 25, 2018, https://www.csis.org/ events/artificial-intelligence-and-national-security-importance-ai-ecosystem。

      [113] Karen Yeung, “Algorithmic Regulation: A Critical Interrogation,”, Vol. 12, No. 6, 2017, p. 22.

      [114] Will Bunch, “AI is not a Quick-Fix Solution for Discrimination,” Human Resource Executive, November 7, 2018, http://hrexecutive.com/ai-is-not-a-quick-fix-solution-for-discrimination/.

      [115] Janna Anderson, Lee Rainie and Alex Luchsinger, “Artificial Intelligence and the Future of Humans,” Pew Research Center, December 10, 2018, https://www.pewinternet.org/2018/12/10/ concerns-about-human-agency-evolution-and-survival/.

      [116] Roger Brownsword, “Technological Management and the Rule of Law,”, Vol. 8, No. 1, 2016, p. 101.

      [117] Salil Gunashekar, Sarah Parks, Joe Francombe, et al., “Oversight of Emerging Science and Technology: Learning from Past and Present Efforts around the World,” RAND Corporation, March 2019, https://www.rand.org/pubs/research_reports/RR2921.html.

      [118] Meredith Whittaker, Kate Crawford, Roel Dobbe, et al., “AI Now Report 2018,” AI Now Institute, October 16, 2018, https://ainowinstitute.org/AI_Now_2018_Report.pdf.

      [119] Bernd Stahl and David Wright, “Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation,”, Vol. 16, No. 3, 2018, p. 30.

      [120] 龐金友:《AI治理:人工智能時代的秩序困境與治理原則》,載《人民論壇·學(xué)術(shù)前沿》2018年第10期,第16頁。

      [121] 蔡拓、楊雪冬、吳志成:《全球治理概論》,北京:北京大學(xué)出版社2016年版,第12頁。

      [122] 高奇琦:《全球善智與全球合智:人工智能全球治理的未來》,載《世界經(jīng)濟與政治》2019年第7期,第20頁。

      [123] Ryan Hass and Zach Balin, “US-China Relations in the Age of Artificial Intelligence,” January 10, 2019, Brookings, https://www.brookings.edu/research/us-china-relations-in-the-age-of-artificial- intelligence/.

      [124] 魯傳穎、[美] 約翰·馬勒里:《體制復(fù)合體理論視角下的人工智能全球治理進程》,載《國際觀察》2018年第4期,第73頁。

      [125] 馮維江、張宇燕:《新時代國家安全學(xué)——思想淵源、實踐基礎(chǔ)和理論邏輯》,載《世界經(jīng)濟與政治》2019年第4期,第23頁。

      [126] 馮昭奎:《科技革命發(fā)生了幾次——學(xué)習習近平主席關(guān)于“新一輪科技革命”的論述》,載《世界經(jīng)濟與政治》2017年第2期,第23頁。

      *本文受海國圖智研究院研究基金的資助。作者感謝上海市國際關(guān)系學(xué)會、上海國際問題研究院及第十一屆“金仲華國研杯”等對筆者研究的支持,以及《國際安全研究》匿名評審專家的建設(shè)性修改意見。文中錯漏概由筆者負責。

      闕天舒,華東政法大學(xué)中國法治戰(zhàn)略研究中心副主任、教授;張紀騰,華東政法大學(xué)政治學(xué)研究院碩士研究生(上海郵編:200042)。

      10.14093/j.cnki.cn10-1132/d.2020.01.001

      D815.5; TP18; D631

      A

      2095-574X(2020)01-0004-35

      2019-09-20】

      2019-07-26】

      【責任編輯:謝 磊】

      猜你喜歡
      人工智能
      我校新增“人工智能”本科專業(yè)
      用“小AI”解決人工智能的“大”煩惱
      汽車零部件(2020年3期)2020-03-27 05:30:20
      當人工智能遇見再制造
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      AI人工智能解疑答問
      人工智能與就業(yè)
      基于人工智能的電力系統(tǒng)自動化控制
      人工智能,來了
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      人工智能來了
      十堰市| 来凤县| 离岛区| 嘉定区| 五原县| 九龙坡区| 苍山县| 鸡西市| 吴旗县| 黄石市| 大余县| 西和县| 临清市| 嘉义县| 临沂市| 德化县| 贺兰县| 马鞍山市| 甘德县| 浦江县| 邻水| 乌拉特后旗| 吉隆县| 徐汇区| 柳江县| 宕昌县| 郁南县| 华池县| 灵丘县| 青州市| 奉节县| 嘉义市| 巍山| 朝阳县| 信阳市| 成都市| 道孚县| 弥渡县| 芒康县| 花莲市| 嘉黎县|