• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能規(guī)制政策制定的風(fēng)險(xiǎn)與治理

      2023-05-30 17:28:55劉丹鶴孫嘉悅
      人文雜志 2023年2期
      關(guān)鍵詞:治理風(fēng)險(xiǎn)人工智能

      劉丹鶴 孫嘉悅

      關(guān)鍵詞 人工智能 政策制定 風(fēng)險(xiǎn) 治理 ChatGPT

      〔中圖分類號(hào)〕F49;D035 〔文獻(xiàn)標(biāo)識(shí)碼〕A 〔文章編號(hào)〕0447-662X(2023)02-0121-08

      近年來(lái),人工智能作為一種具有廣泛應(yīng)用前景、深刻改變世界的顛覆性技術(shù)已深深嵌入人們的生活。智能時(shí)代、智能社會(huì)已成為當(dāng)今時(shí)代的顯著代名詞,但隨著人工智能的快速發(fā)展,與之伴生的相關(guān)問(wèn)題不斷凸顯且日漸引發(fā)人們廣泛討論。擁有超強(qiáng)人工智能語(yǔ)言處理能而瞬間成為全球熱點(diǎn)的Chat GPT,不僅可以檢索信息,還可以聊天、撰寫論文、文學(xué)創(chuàng)作等,代表著新一代聊天機(jī)器人的出現(xiàn),更是信息產(chǎn)業(yè)的巨大變革。正如其它計(jì)算機(jī)程序一樣,并不完美的ChatGPT同樣存在諸多技術(shù)濫用風(fēng)險(xiǎn)和道德困境。究其原因:人工智能技術(shù)指數(shù)級(jí)迅猛發(fā)展與人們的思想觀念、政策取向、倫理規(guī)制等之間的非協(xié)調(diào)性,導(dǎo)致人類在享有技術(shù)便利性的同時(shí),也面臨著系列不確定性風(fēng)險(xiǎn)。這些不確定性可能由于人工智能帶來(lái)的巨大經(jīng)濟(jì)利益而被人們視為正當(dāng)化,如何消減和平滑這些不確定對(duì)經(jīng)濟(jì)、教育、社會(huì)所帶來(lái)的巨大沖擊,已成為現(xiàn)今人工智能政策研究領(lǐng)域所探討的緊迫課題?,F(xiàn)有文獻(xiàn)對(duì)人工智能的研究大多從倫理和哲學(xué)的視角切入,而較少?gòu)恼吆椭卫韺用孢M(jìn)行探討。本文旨在分析人工智能的不確定性特質(zhì),審視人工智能政策在制定過(guò)程中所帶來(lái)的一系列風(fēng)險(xiǎn)問(wèn)題,為政府在制定、整合和改進(jìn)人工智能政策方面提供理論借鑒。

      一、人工智能風(fēng)險(xiǎn)的技術(shù)審視

      人工智能是指通過(guò)分析其環(huán)境而具有一定程度的自主性行動(dòng),以實(shí)現(xiàn)特定目標(biāo)而顯示智能行為的系統(tǒng)。① 近來(lái)研究更趨向于將人工智能定義為建立在現(xiàn)代算法基礎(chǔ)上,以歷史數(shù)據(jù)為支撐而形成的具有感知、推理、學(xué)習(xí)、決策等思維活動(dòng)并能夠按照一定目標(biāo)完成相應(yīng)行為的計(jì)算系統(tǒng)。② 目前眾多基于人工智能的系統(tǒng)已廣泛應(yīng)用如搜索引擎通過(guò)處理海量數(shù)據(jù),將原本混亂的互聯(lián)網(wǎng)以人類可理解的、可感知的形式呈現(xiàn)出來(lái);無(wú)人駕駛通過(guò)傳感器感知環(huán)境而實(shí)現(xiàn)轉(zhuǎn)向、加速和制動(dòng)。這些為增強(qiáng)與替代人類的活動(dòng)和任務(wù)提供了變革潛力,逐漸提升了人類的感知、思考和對(duì)世界采取行動(dòng)的能力。

      人工智能具有以往技術(shù)無(wú)法企及的增強(qiáng)人類活動(dòng)的特點(diǎn),且在某種程度上以獨(dú)立的、不可預(yù)測(cè)的方式通過(guò)采取精準(zhǔn)行動(dòng)而做出決策。一些學(xué)者認(rèn)為,以大數(shù)據(jù)和算法匹配的人工智能正在不可逆轉(zhuǎn)地重塑人類生活、工作和交往的方式,但與此同時(shí)也帶來(lái)了公共安全風(fēng)險(xiǎn)、算法偏見問(wèn)題、責(zé)任倫理問(wèn)題等一系列的挑戰(zhàn)。③ 回溯人工智能發(fā)展歷程,不管是符號(hào)主義、聯(lián)結(jié)主義還是行為主義,其發(fā)展的核心是由數(shù)據(jù)驅(qū)動(dòng)算法的不斷升級(jí)和優(yōu)化。數(shù)據(jù)是“基本驅(qū)動(dòng)力”,④而算法是“一種有限、確定、有效并適合用計(jì)算機(jī)程序來(lái)實(shí)現(xiàn)的解決問(wèn)題的方法”。⑤ 從技術(shù)底層邏輯來(lái)看,人工智能存在的不確定性風(fēng)險(xiǎn)主要來(lái)源于數(shù)據(jù)與算法:其一是數(shù)據(jù)的不當(dāng)收集和處理。人工智能的發(fā)展以海量信息作支撐,各類數(shù)據(jù)信息采集覆蓋于數(shù)字化空間中,如個(gè)人身份、網(wǎng)絡(luò)行為等。如不采取合理的治理措施,人類將面臨隱私“裸奔”的尷尬局面,進(jìn)而觸發(fā)極大的倫理風(fēng)險(xiǎn)。其二是算法內(nèi)在缺陷及其不當(dāng)使用。在技術(shù)層面,算法就是一些復(fù)雜的電腦代碼程式,并不具有情感或價(jià)值偏見,但是由于在編碼、運(yùn)用過(guò)程中離不開設(shè)計(jì)者和開發(fā)者的主觀意志,有可能將個(gè)人情感、社會(huì)觀、價(jià)值觀嵌入技術(shù)中,造成如算法失算、算法歧視、算法“黑箱”、審查難等問(wèn)題,⑥從而導(dǎo)致人工智能的“脫靶”現(xiàn)象,即背離既定的正面目標(biāo)而產(chǎn)生相反的破壞活動(dòng)。像ChatGPT,其強(qiáng)大的信息檢索和數(shù)據(jù)存儲(chǔ)功能確實(shí)給人類生活、工作帶來(lái)了福祉,但如不對(duì)輸出加以控制,可能生成種族主義、性別歧視之類有偏見的內(nèi)容或有害指令信息,擾亂社會(huì)公平和正義。如貝克所言:“這個(gè)社會(huì)在技術(shù)上越來(lái)越完善,它甚至能夠提供越來(lái)越完美的解決辦法,但與此息息相關(guān)的后果和種種危險(xiǎn)卻是受害人根本無(wú)法直覺到的?!雹?/p>

      二、人工智能規(guī)制政策制定面臨的風(fēng)險(xiǎn)

      人工智能風(fēng)險(xiǎn)是指因人工智能技術(shù)自身的不確定性所導(dǎo)致的人類經(jīng)濟(jì)結(jié)構(gòu)、社會(huì)秩序、倫理道德乃至生存安全等方面的可能性后果。⑧ 可以預(yù)見,在未來(lái)幾年甚至幾十年,人工智能的復(fù)雜性和社會(huì)影響度都將大大增加,由于涉及一系列不易定義衡量、多樣化的社會(huì)需求及相關(guān)利益的博弈,制定相關(guān)政策時(shí)面臨諸多風(fēng)險(xiǎn)和挑戰(zhàn),包括在決策過(guò)程中應(yīng)考慮哪些類型的風(fēng)險(xiǎn),如何平衡多重風(fēng)險(xiǎn)之間的相互關(guān)系,政府如何確保人工智能將使多數(shù)人受益而不是少數(shù)人,等等。但是由于政策制定者一方面對(duì)什么是“人工智能”以及“人工智能政策風(fēng)險(xiǎn)”的認(rèn)知存在著不確定性,另一方面由于政策制定者預(yù)測(cè)未來(lái)所需的各種信息和知識(shí)的不足,以及人類認(rèn)知理性的不足,使預(yù)期與未來(lái)結(jié)果產(chǎn)生一定的偏差,因而風(fēng)險(xiǎn)不可能完全避免。對(duì)于上述問(wèn)題,并不能通過(guò)某種機(jī)械過(guò)程加以解決,而需要對(duì)政策目標(biāo)、國(guó)家和公民社會(huì)的作用和責(zé)任進(jìn)行民主反思。①

      1.規(guī)制政策制定前的人工智能潛在風(fēng)險(xiǎn)評(píng)估

      威廉·奧格本(W.F.Ogburn)曾指出,社會(huì)需要時(shí)間來(lái)適應(yīng)重要的科技變遷。② 現(xiàn)今人工智能技術(shù)改變?nèi)祟惿鐣?huì)的步伐已超越人們的想象,但社會(huì)卻無(wú)法針對(duì)快速發(fā)展的智能技術(shù)所帶來(lái)的現(xiàn)實(shí)風(fēng)險(xiǎn)進(jìn)行即時(shí)調(diào)試與修正,面對(duì)人工智能可能導(dǎo)致的工作崗位不斷消失、隱私安全的破壞、社會(huì)階層的不平等等逐漸呈現(xiàn)出的社會(huì)問(wèn)題與潛在沖突,以及圍繞在人工智能技術(shù)發(fā)展中的倫理爭(zhēng)議問(wèn)題,決策者在政策制定中必須予以考量和有效解決。

      (1)人工智能帶來(lái)的就業(yè)替代和社會(huì)秩序沖擊。隨著自動(dòng)化和先進(jìn)機(jī)器學(xué)習(xí)技術(shù)的新浪潮涌現(xiàn),智能機(jī)器將越來(lái)越能夠執(zhí)行高技能和非常規(guī)的任務(wù),人工智能系統(tǒng)在我們生產(chǎn)生活中的廣泛應(yīng)用在帶給我們便利的同時(shí),也加劇了人們對(duì)勞動(dòng)力替代問(wèn)題的擔(dān)憂。③ 人工智能的顯著優(yōu)勢(shì)在于可以克服一些計(jì)算密集型、智力甚至是人類創(chuàng)造性方面的局限,在教育、醫(yī)療、金融和制造業(yè)等領(lǐng)域開辟新的應(yīng)用,從而對(duì)生產(chǎn)力和績(jī)效產(chǎn)生影響。自動(dòng)化、智能化技術(shù)加速普及的趨勢(shì)意味著人工智能正取代許多產(chǎn)業(yè)領(lǐng)域特別是服務(wù)部門的勞動(dòng)力,最終實(shí)現(xiàn)生產(chǎn)力的提高,并伴隨著大量“技術(shù)性失業(yè)”。因此,人工智能廣泛運(yùn)用于經(jīng)濟(jì)社會(huì)的各個(gè)領(lǐng)域可以大幅提高生產(chǎn)效率,其所帶來(lái)的表象后果是就業(yè)崗位的流失,更為深層的影響是就業(yè)性質(zhì)的變化、工作的可靠性和工作崗位的質(zhì)量下降以及社會(huì)流動(dòng)性的缺乏等等,而這些都會(huì)引發(fā)人們的擔(dān)憂和不滿,帶來(lái)社會(huì)秩序的不穩(wěn)定。

      (2)人工智能帶來(lái)的隱私困境和私域數(shù)據(jù)產(chǎn)權(quán)侵犯。隱私原意是指不愿他人知曉的私人信息,且與他人和社會(huì)利益無(wú)關(guān),即“不受干涉或免于侵害的獨(dú)處的權(quán)利”。④ 進(jìn)入以數(shù)據(jù)和算法為核心特征的智能社會(huì),數(shù)據(jù)成為信息的一種表達(dá)方式,而智能社會(huì)的內(nèi)在本性是不?!白分稹睌?shù)據(jù),即“從一切事物中提取盡可能多的數(shù)據(jù),特別是關(guān)于個(gè)人特殊信息的數(shù)據(jù)”。⑤ 面對(duì)一切可數(shù)據(jù)化、可計(jì)算的世界,包括人在內(nèi)的一切變成數(shù)字、符號(hào),表達(dá)個(gè)體獨(dú)特屬性的隱私被完全數(shù)據(jù)化,個(gè)體信息由“私密”走向“公開”,導(dǎo)致信息共享與隱私保護(hù)間的平衡受到?jīng)_擊。如智能家居遠(yuǎn)距離的數(shù)據(jù)控制使私人領(lǐng)域受到威脅,個(gè)體生活處于邊沁所描述的布滿監(jiān)視的“全景式監(jiān)獄”場(chǎng)景。

      人工智能背景下,置身于智能社會(huì)的人們每日向服務(wù)商提供可以永久保存的海量數(shù)據(jù),引發(fā)公眾對(duì)人工智能設(shè)備的安全性、數(shù)據(jù)匿名性、保密性和完整性的擔(dān)憂。以追求商業(yè)利潤(rùn)與機(jī)會(huì)為目標(biāo)的企業(yè)必將利用大數(shù)據(jù)關(guān)聯(lián)技術(shù),確定零星數(shù)據(jù)之間的潛在聯(lián)系而進(jìn)行精準(zhǔn)營(yíng)銷,人們的身份、家庭、行為、偏好等等高度細(xì)化的私密性數(shù)據(jù)可能會(huì)被存儲(chǔ)在人工智能網(wǎng)絡(luò)中并被共享使用。更為突出的問(wèn)題是,目前數(shù)據(jù)的法律歸屬問(wèn)題并未明確權(quán)責(zé),且大量數(shù)據(jù)收集行為是私底下完成的,從而帶來(lái)一系列用戶數(shù)據(jù)隱私和數(shù)據(jù)權(quán)益保護(hù)問(wèn)題。作為變革性機(jī)器人的ChatGPT借助海量數(shù)據(jù)庫(kù)而存在,如需獲得良好的功能性,它必須收集足夠多、足夠新的知識(shí)和信息。一旦ChatGPT在收集、處理數(shù)據(jù)信息時(shí)出現(xiàn)未授權(quán)或超范圍使用情況,個(gè)人隱私、商業(yè)機(jī)密等重要信息將不可避免地被泄露,并有可能產(chǎn)生違法犯罪行為。這給人工智能政策帶來(lái)的困境是,如何激勵(lì)技術(shù)、法律、社會(huì)和其他干預(yù)措施加以治理的同時(shí)確保人工智能民主化的過(guò)程中也能保障隱私。①

      (3)人工智能帶來(lái)的數(shù)字鴻溝和社會(huì)不平等的加劇?!皵?shù)字鴻溝”一詞最早來(lái)自《洛杉磯時(shí)報(bào)》,意指“信息通信技術(shù)在普及和使用中的不平衡現(xiàn)象,這種不平衡既體現(xiàn)在不同國(guó)家之間,也體現(xiàn)在同一個(gè)國(guó)家內(nèi)部的不同區(qū)域、不同人群中”。② 以數(shù)據(jù)、算法為基礎(chǔ)的人工智能革命,技術(shù)更迭所帶來(lái)的福利已嵌入人們的生活,但信息技術(shù)、互聯(lián)網(wǎng)和數(shù)字化普及率較低的群體將難以甚至無(wú)從獲得技術(shù)的溢出效應(yīng)。由于個(gè)體間對(duì)技術(shù)、知識(shí)等享有的差異決定了技術(shù)“紅利”并不會(huì)普及到每個(gè)人,社會(huì)的不平等、數(shù)字鴻溝將產(chǎn)生負(fù)向累積循環(huán)。如果說(shuō)以往數(shù)字鴻溝關(guān)注點(diǎn)是經(jīng)濟(jì)、社會(huì)地位的分化等方面,那么人工智能廣泛參與人類生活則可能出現(xiàn)“智力”上的分化,一方是極少數(shù)能掌握人工智能開發(fā)和運(yùn)行的技術(shù)精英強(qiáng)勢(shì)群體,另一方是不能掌握或熟練運(yùn)用智能的大眾弱勢(shì)群體。伴隨著人工智能技術(shù)和知識(shí)的不斷更新,相比大眾弱勢(shì)群體,技術(shù)精英群體更能緊跟技術(shù)發(fā)展的步伐,原本就不熟悉人工智能技術(shù)的大眾弱勢(shì)群體會(huì)不自覺地規(guī)避這些知識(shí),陷入自我認(rèn)知下沉和惡性循環(huán)的境地。

      人工智能在加大個(gè)體“智力”分化同時(shí),會(huì)影響社會(huì)公平與公正,最終導(dǎo)致社會(huì)等級(jí)的分裂。在以數(shù)據(jù)和算法驅(qū)動(dòng)的技術(shù)革命中,擁有高質(zhì)量數(shù)據(jù)的群體將從這場(chǎng)革命中獲得最大的收益,而不能擁有高質(zhì)量數(shù)據(jù)的群體將逐漸被社會(huì)所拋棄。也就是說(shuō),人工智能可以創(chuàng)造新的社會(huì)模式,但如不加以合理調(diào)試,就會(huì)嚴(yán)重破壞社會(huì)結(jié)構(gòu),一些沒有擁有高質(zhì)量數(shù)據(jù)的群體或者缺乏相關(guān)知識(shí)的群體可能失去勞動(dòng)的價(jià)值,而被邊緣化或被智能社會(huì)所排斥。“數(shù)字鴻溝”“數(shù)據(jù)赤字”和“數(shù)字窮人”將會(huì)成為智能社會(huì)難解的社會(huì)困境,擾亂社會(huì)秩序和等級(jí)制度。像“數(shù)字窮人”可能成了美麗新世界“多余的人”,他們被高度發(fā)達(dá)的智能社會(huì)無(wú)情地拋棄了,存在變得沒有意義、荒謬化了。③

      2.規(guī)制政策制定中的信息不對(duì)稱問(wèn)題及風(fēng)險(xiǎn)界定

      為消解人工智能風(fēng)險(xiǎn),政府需要對(duì)人工智能的研究和應(yīng)用制定科學(xué)的、安全的標(biāo)準(zhǔn)或準(zhǔn)則。但這些規(guī)制準(zhǔn)則是否具有科學(xué)、安全的價(jià)值判斷,涉及特定風(fēng)險(xiǎn)背后的因果邏輯聯(lián)系知識(shí),其前提是政策制定者應(yīng)具有判斷人工智能究竟是否會(huì)對(duì)公眾安全造成危害的因果關(guān)系的能力?,F(xiàn)實(shí)情形是政策制定者并沒有積累處理技術(shù)發(fā)展相關(guān)問(wèn)題的知識(shí)和經(jīng)驗(yàn),往往是在一種信息不對(duì)稱、不確定的情境下制定政策。從而形成不同專家群體間的意見沖突,造成相關(guān)利益群體間對(duì)抗的局面,不利于政策出臺(tái)和預(yù)期效果的實(shí)現(xiàn)。

      (1)人工智能技術(shù)專家和政策決策者之間的信息不對(duì)稱。政策決策者與專家之間呈現(xiàn)一種現(xiàn)有理論體系都無(wú)法揭示的復(fù)雜關(guān)系,其中包含了許多權(quán)變因素,從而無(wú)法建立一個(gè)關(guān)于決策者運(yùn)用專家知識(shí)的綜合模型。④ 雖然人工智能已無(wú)縫連接我們的生活,但很少有人清楚地了解人工智能這些“深度學(xué)習(xí)”算法是如何影響他們決策的,即使決策者也缺乏必要的專業(yè)知識(shí),導(dǎo)致難以在這樣一個(gè)深度技術(shù)化的世界中去有效治理社會(huì)。這些信息與知識(shí)更多地掌握在人工智能相關(guān)專家以及人工智能系統(tǒng)的供應(yīng)商手里,他們比政策決策者和公眾擁有了更多的信息。如果政策決策者不能從一開始就清楚地確定或評(píng)估人工智能的潛在風(fēng)險(xiǎn)和所需的控制措施,政策決策者和技術(shù)專家之間的信息知識(shí)差距就可能導(dǎo)致政策的有效性大打折扣,不利于政策規(guī)制充分實(shí)現(xiàn)其效能。正是由于對(duì)人工智能技術(shù)及其理論的了解有限,政策決策者在界定他們?cè)噲D解決的問(wèn)題以及確定哪些問(wèn)題是重要的方面時(shí)可能會(huì)遇到困難,這可能會(huì)帶來(lái)喪失機(jī)會(huì)和低效使用資源的問(wèn)題。即使準(zhǔn)確地識(shí)別了正確的問(wèn)題,也可能會(huì)提出無(wú)效或繁瑣的解決方法,這給政策制定者圍繞人工智能的制度配置與供給帶來(lái)了嚴(yán)峻挑戰(zhàn)。

      (2)不同領(lǐng)域?qū)<胰后w之間的信息不對(duì)稱。人工智能政策的制定需要確保在制定政策的過(guò)程中充分吸納不同專業(yè)領(lǐng)域的信息和知識(shí)。如2018年,歐盟組成人工智能專家組(HLEG),其成員為來(lái)自工業(yè)界、學(xué)術(shù)界和民間社會(huì)的52名專家,包括倫理學(xué)家、律師、機(jī)器學(xué)習(xí)研究人員等其他利益相關(guān)者。① 大多數(shù)情況下,由于不同領(lǐng)域的專家接受的是各自學(xué)科體系的方法訓(xùn)練,缺乏一致性的研究范式,常常會(huì)在政策決策中產(chǎn)生意見分歧。以人工智能駕駛的“安全”為例,由于技術(shù)專家和人文社會(huì)科學(xué)學(xué)者對(duì)安全閾值的認(rèn)知不同而無(wú)法達(dá)成共識(shí),易產(chǎn)生“模糊邊界”。人工智能技術(shù)專家通常認(rèn)為他們可以完全掌控技術(shù)的發(fā)展走向,技術(shù)的進(jìn)步可以解決智能駕駛安全的具體技術(shù)問(wèn)題,對(duì)于技術(shù)之外像社會(huì)影響之類的問(wèn)題卻較少考慮。人文社會(huì)科學(xué)學(xué)者卻主張智能駕駛需要解決的不單單是技術(shù)問(wèn)題,而且涉及價(jià)值、文化、經(jīng)濟(jì)等因素的問(wèn)題,需要倫理學(xué)、法學(xué)、政治學(xué)等領(lǐng)域的相關(guān)知識(shí)。現(xiàn)實(shí)的困境是長(zhǎng)期以來(lái)科學(xué)技術(shù)與人文社會(huì)科學(xué)研究的分離,以致信息、知識(shí)的不對(duì)稱將阻礙政策制定中潛在重要信息的流動(dòng)和交互,從而導(dǎo)致理解障礙和政策制定風(fēng)險(xiǎn)。

      3.規(guī)制政策制定后的滯后風(fēng)險(xiǎn)問(wèn)題檢視

      政策制定一般是指政策主體、利益群體間不斷互動(dòng)、不斷博弈的過(guò)程,由于利益群體間的信息不對(duì)稱、政治力量的不均衡,極有可能出現(xiàn)過(guò)程或結(jié)果上的偏差,導(dǎo)致政策滯后效應(yīng)——“從政府為實(shí)現(xiàn)某種目標(biāo),決定實(shí)施某種政策到該種政策對(duì)經(jīng)濟(jì)活動(dòng)產(chǎn)生實(shí)際影響之間的一段時(shí)間間隔,導(dǎo)致計(jì)劃或政策與經(jīng)濟(jì)活動(dòng)之間出現(xiàn)因果不同步現(xiàn)象?!雹?/p>

      (1)動(dòng)態(tài)最優(yōu)政策的內(nèi)生滯后困境。政策制定是一個(gè)時(shí)間過(guò)程,從政策提議到一個(gè)完整的政策出臺(tái),包括政策咨詢、政策論證等多項(xiàng)議程。任何新技術(shù)的發(fā)展政策制定都是基于某個(gè)時(shí)間點(diǎn)而對(duì)未來(lái)所作的決策,基本規(guī)則是依據(jù)現(xiàn)有信息對(duì)未來(lái)后果的認(rèn)知來(lái)進(jìn)行決策。如馬克·塞特菲爾德所言:“由于一個(gè)變量的過(guò)去值對(duì)已定的外生變量、系數(shù)及結(jié)構(gòu)方程有影響,而且已定的外生變量、系數(shù)及結(jié)構(gòu)方程又賦予了決定此變量的系統(tǒng)以特征。因而,當(dāng)一個(gè)變量之長(zhǎng)期值依賴于這一變量的過(guò)去值時(shí),滯后就出現(xiàn)了?!雹鄞朔N決策在邏輯上存在一定的風(fēng)險(xiǎn),未來(lái)是變動(dòng)不居的,此時(shí)合理的政策未必在未來(lái)就合理,技術(shù)的快速發(fā)展極有可能會(huì)對(duì)現(xiàn)有決策基礎(chǔ)造成沖擊。如果決策時(shí)間過(guò)于冗長(zhǎng),政策制定機(jī)構(gòu)間未有效溝通,就會(huì)出現(xiàn)時(shí)滯現(xiàn)象,從而在影響政策執(zhí)行力的同時(shí),造成執(zhí)行結(jié)果偏離決策,增加公眾利益損害的風(fēng)險(xiǎn)。伴隨著人工智能技術(shù)的快速發(fā)展,現(xiàn)在被認(rèn)為是安全的準(zhǔn)則,未來(lái)則可能被認(rèn)為過(guò)于嚴(yán)格或過(guò)于寬松,也可能由于技術(shù)創(chuàng)新而出現(xiàn)更安全與有效的技術(shù)。政策的內(nèi)生滯后困境使得人工智能規(guī)制政策難以跟上技術(shù)進(jìn)步的節(jié)奏。

      (2)人工智能規(guī)制政策的特殊時(shí)滯風(fēng)險(xiǎn)。政策決策的過(guò)程中一般會(huì)出現(xiàn)諸多偏離原有因果關(guān)系的現(xiàn)象而產(chǎn)生政策滯后的風(fēng)險(xiǎn),如決策者的非理性、政策訴求溝通不暢、市場(chǎng)失靈等,但有時(shí)政策滯后更多的是由于時(shí)間問(wèn)題而造成的時(shí)滯現(xiàn)象。面對(duì)邊界無(wú)定形、不斷發(fā)展的人工智能,時(shí)間問(wèn)題所導(dǎo)致的政策滯后風(fēng)險(xiǎn)是政策者面臨的一個(gè)困境,具體表現(xiàn)在以下幾方面:一是人工智能新型技術(shù)不斷涌現(xiàn),政策滯后可能會(huì)使事前監(jiān)管的所有嘗試完全落空,失去最好的治理時(shí)機(jī),對(duì)社會(huì)、經(jīng)濟(jì)等發(fā)展產(chǎn)生一定的風(fēng)險(xiǎn);二是時(shí)間問(wèn)題所導(dǎo)致政策偏離使公眾的訴求沒有得到回應(yīng),政府的合法性基礎(chǔ)會(huì)遭受質(zhì)疑;三是由于制定時(shí)未考慮政策環(huán)境的反復(fù)變化,在政策實(shí)施階段加大順利實(shí)施的難度,可能會(huì)出現(xiàn)滿足一部分政策訴求的同時(shí)無(wú)意中阻礙了另一種人工智能應(yīng)用的發(fā)展,并導(dǎo)致意想不到的后果。政策的滯后性不可避免,為防止出現(xiàn)這種尷尬的局面以及更好地實(shí)現(xiàn)人工智能政策目標(biāo),需要建立動(dòng)態(tài)反饋評(píng)估機(jī)制予以治理,及時(shí)調(diào)整或終結(jié)無(wú)效的人工智能規(guī)制政策。

      三、人工智能風(fēng)險(xiǎn)多元治理機(jī)制政策選擇

      目前,人工智能風(fēng)險(xiǎn)已然成為社會(huì)和政策關(guān)注的焦點(diǎn)。當(dāng)技術(shù)的快速發(fā)展已超越政策制定群體所能把握其內(nèi)涵、評(píng)估其風(fēng)險(xiǎn)的能力之時(shí),政策制定過(guò)程中人工智能風(fēng)險(xiǎn)已不再是一個(gè)技術(shù)知識(shí)問(wèn)題,而是技術(shù)社會(huì)化后所產(chǎn)生的經(jīng)濟(jì)社會(huì)問(wèn)題。對(duì)于決策者而言,以上種種由人工智能的運(yùn)用所引發(fā)的風(fēng)險(xiǎn)并不是被發(fā)現(xiàn)而是被建構(gòu)出來(lái)的,需要從倫理準(zhǔn)則、治理模式、決策機(jī)制等多層次構(gòu)建體系化的風(fēng)險(xiǎn)治理機(jī)制。

      1.嵌入責(zé)任倫理準(zhǔn)則,建立政策評(píng)估原則

      倫理是政策的價(jià)值基礎(chǔ),人工智能政策制定中嵌入倫理準(zhǔn)則是政策發(fā)揮作用、實(shí)現(xiàn)政策目標(biāo)、體現(xiàn)政策價(jià)值之所在。每一項(xiàng)技術(shù)通常都具有一定的價(jià)值負(fù)載性,所以探討人工智能而引申參與決策主體的倫理責(zé)任是治理機(jī)制的必然。

      (1)責(zé)任倫理在人工智能政策制定中的先導(dǎo)性。責(zé)任倫理最早由馬克斯·韋伯提出,真正將責(zé)任倫理賦予時(shí)代特征的是哲學(xué)家漢斯·約納斯。與傳統(tǒng)責(zé)任倫理不同,約納斯的責(zé)任倫理既是“‘責(zé)任精神在倫理學(xué)中的復(fù)歸,又具有朝向‘未來(lái)的向度”,以此來(lái)直面現(xiàn)代技術(shù)的挑戰(zhàn)。① 其核心觀點(diǎn)認(rèn)為,在技術(shù)的框架內(nèi)并不能克服技術(shù)的風(fēng)險(xiǎn)和危險(xiǎn),對(duì)技術(shù)本質(zhì)的認(rèn)識(shí)以及對(duì)技術(shù)的警惕是責(zé)任倫理首要的任務(wù)。② 約納斯在主體性反思的基礎(chǔ)上對(duì)責(zé)任主體賦予了新的“前瞻性”倫理價(jià)值觀,即責(zé)任主體不僅需要對(duì)當(dāng)前行為負(fù)責(zé),更需對(duì)未來(lái)負(fù)責(zé)。因此,在政策制定中“技術(shù)先行”的做法并不可靠,以責(zé)任倫理作為制定人工智能政策的先導(dǎo)性準(zhǔn)則必須嵌入政策評(píng)估的各個(gè)環(huán)節(jié),明確各參與主體責(zé)任,自覺認(rèn)同、遵守人工智能相應(yīng)的倫理規(guī)范,如此方可有效化解人工智能的潛在風(fēng)險(xiǎn),實(shí)現(xiàn)技術(shù)的可持續(xù)創(chuàng)新。如歐盟制定的《值得信賴的人工智能倫理準(zhǔn)則》,以“以人文本”基準(zhǔn),強(qiáng)調(diào)人工智能本身不是目的,而是一種有前途的工具,可增加人類的繁榮,帶來(lái)社會(huì)的進(jìn)步與技術(shù)的創(chuàng)新。③

      (2)構(gòu)建人工智能政策評(píng)估的四大原則。通常意義上,政策的制定一般由政府、公眾、社會(huì)組織、科學(xué)共同體等參與決策,由于各主體的文化背景、倫理觀念、價(jià)值判斷標(biāo)準(zhǔn)各異,對(duì)技術(shù)進(jìn)行評(píng)價(jià)的過(guò)程中往往會(huì)出現(xiàn)分歧而影響決策。這就需要在政策設(shè)計(jì)中構(gòu)建以責(zé)任倫理為核心的倫理準(zhǔn)則,凸顯責(zé)任意識(shí)的倫理訴求,便于各方主體達(dá)成共識(shí),克服人工智能發(fā)展與倫理間的斷裂。倫理準(zhǔn)則以“應(yīng)該做”“可以做”“如何做”為指向,在人工智能政策和倫理間搭建一座橋梁,強(qiáng)調(diào)和遵循四大原則:一是公眾利益優(yōu)先原則。這是最基本的一條倫理準(zhǔn)則,也是最高準(zhǔn)則。人工智能政策的價(jià)值目標(biāo)在于為人類謀求福利,實(shí)現(xiàn)受眾利益的最大化,同時(shí)減小其潛在的成本和風(fēng)險(xiǎn)。二是預(yù)防性原則。這是指如果某項(xiàng)技術(shù)會(huì)給人類帶來(lái)某種傷害,那么此項(xiàng)技術(shù)最好被限制或不允許,除非技術(shù)設(shè)計(jì)者能證明其不會(huì)對(duì)人類、社會(huì)、文化等造成任何傷害。預(yù)防性原則表明政策制定者以理性、積極的方式關(guān)切技術(shù)的風(fēng)險(xiǎn),而不是在無(wú)視風(fēng)險(xiǎn)的情況下決策。三是公平正義原則。其目的是最大化實(shí)現(xiàn)政策資源的合理有效分配。最大程度化解數(shù)字鴻溝、數(shù)字窮人等社會(huì)不平等現(xiàn)象。四是可持續(xù)原則。在對(duì)人工智能引發(fā)的倫理困境予以收益、安全、風(fēng)險(xiǎn)評(píng)估審查的基礎(chǔ)上,要確保個(gè)人和社會(huì)的福祉和共同利益,實(shí)現(xiàn)技術(shù)的可持續(xù)進(jìn)步和推進(jìn)最具前景的創(chuàng)新研究。

      2.構(gòu)建協(xié)商民主機(jī)制,實(shí)踐風(fēng)險(xiǎn)協(xié)同治理

      詹姆斯·N.羅西瑙(James N.Rosenau)認(rèn)為,治理是政府、公眾、社會(huì)組織、科學(xué)共同體等多元主體共同參與,通過(guò)平等的合作、協(xié)商、對(duì)話等方式解決科技問(wèn)題的持續(xù)互動(dòng)過(guò)程。① 因此,治理是關(guān)于在多元觀點(diǎn)和利益背景下“國(guó)家行為者”和“社會(huì)行為者”間互動(dòng)和協(xié)調(diào)的機(jī)制,旨在規(guī)范社會(huì)關(guān)注的風(fēng)險(xiǎn)問(wèn)題。由于新興科學(xué)和技術(shù)的未來(lái)發(fā)展、社會(huì)效益和風(fēng)險(xiǎn)的不確定性,政策制定過(guò)程中越來(lái)越多的行為者共同參與治理,以共同促進(jìn)技術(shù)發(fā)展。如,2009年歐盟發(fā)布的《未來(lái)和新興技術(shù)》《在以人為中心的人工智能中建立信任》《一個(gè)良好人工智能社會(huì)的倫理框架:機(jī)遇、風(fēng)險(xiǎn)、原則和建議》以及《人工智能協(xié)同計(jì)劃》等設(shè)計(jì)的諸多相關(guān)倫理規(guī)范和政策都是各方利益主體共同參與制定。這表明,應(yīng)對(duì)技術(shù)風(fēng)險(xiǎn)的治理機(jī)制在由單一政府主體轉(zhuǎn)向多元主體參與,通常是于對(duì)話、協(xié)商甚至競(jìng)爭(zhēng)、相互博弈中尋找最佳的解決方案。②

      (1)協(xié)商民主機(jī)制的政策訴求整合效應(yīng)。協(xié)商民主(deliberativedemocracy)產(chǎn)生于20世紀(jì)后期,政治哲學(xué)家約翰·羅爾斯、德國(guó)哲學(xué)家于根·哈貝馬斯是其代表人物,其“民主性”體現(xiàn)在“集體決策過(guò)程中所有受其影響的各方代表都能夠參與進(jìn)來(lái)”。③ 人工智能規(guī)制政策涉及多元利益主體,政策制定不能是政府單一主體行為,需要我們改變傳統(tǒng)意義上政府統(tǒng)攬資源和權(quán)力的治理模式,以更好地滿足多方主體的政策訴求。與代議制不同,協(xié)商民主能夠有效回應(yīng)多元文化間對(duì)話和多元社會(huì)認(rèn)知的某些核心問(wèn)題,④在尊重公民社會(huì)公民權(quán)利的基礎(chǔ)上,各利益相關(guān)方通過(guò)平等和自由的商談、審議等方式參與到公共決策中,力求達(dá)到一個(gè)比較合理的政策共識(shí)和各方訴求的“最大公約數(shù)”。就我國(guó)政策實(shí)踐而言,參與政策制定的主體仍是由政府主導(dǎo)的一元體制,雖已成立諸如人工智能專家委員會(huì)、醫(yī)學(xué)倫理專家委員會(huì)等各類專業(yè)委員會(huì)就新興技術(shù)的發(fā)展問(wèn)題展開跨專業(yè)的合作與協(xié)商,但無(wú)論是技術(shù)專家還是公眾在參與深度和廣度方面還不夠,仍處于決策的外圍。因此,我們要探索和推行協(xié)商民主機(jī)制,以此整合政策制定過(guò)程中各方訴求,最大程度規(guī)避風(fēng)險(xiǎn)危機(jī)。

      (2)人工智能風(fēng)險(xiǎn)協(xié)同治理機(jī)制的實(shí)現(xiàn)路徑。智能時(shí)代構(gòu)建協(xié)商民主機(jī)制可以從以下方面著手:一是建立以政府為主導(dǎo),由科學(xué)共同體、企業(yè)、公眾、社會(huì)組織等多元主體組成的專家咨詢委員會(huì),尤其是提高公眾和非政府組織的參與力度,借力于協(xié)商使來(lái)自不同行業(yè)、階層的專家關(guān)注人工智能的風(fēng)險(xiǎn)本質(zhì),以社會(huì)理性能接受的程度作為人工智能政策決策的基礎(chǔ),消解人工智能對(duì)社會(huì)的各方面沖擊。二是建立面向?qū)<易稍兾瘑T會(huì)的聽證、咨詢以及協(xié)商機(jī)制和有效的信息溝通機(jī)制,為各主體參與協(xié)商提供保障,如制定咨詢委員會(huì)職責(zé)條例、定期信息通報(bào)制度等。三是將網(wǎng)絡(luò)、人工智能等新技術(shù)嵌入民主協(xié)商。在實(shí)踐性、信任感和民主供給層面深刻改變協(xié)商民主的運(yùn)行機(jī)制的同時(shí),⑤優(yōu)化參與協(xié)商民主途徑,降低協(xié)商的交易成本,提高協(xié)商民主的效率。如通過(guò)網(wǎng)絡(luò)、數(shù)據(jù)挖掘、人工智能等技術(shù)手段收集、處理和分析公眾意見,實(shí)踐“網(wǎng)絡(luò)協(xié)商”和“微協(xié)商”,不僅可彌補(bǔ)場(chǎng)外公眾“缺場(chǎng)”,且可利用算法對(duì)數(shù)據(jù)求得最優(yōu)結(jié)果,保障協(xié)商的有效性和可靠性。

      3.建立決策評(píng)估反饋機(jī)制,動(dòng)態(tài)跟蹤調(diào)整政策

      完整的政策過(guò)程由政策制定、執(zhí)行和評(píng)估三個(gè)環(huán)節(jié)組成。做好政策后續(xù)跟蹤評(píng)價(jià),建立動(dòng)態(tài)的反饋機(jī)制對(duì)現(xiàn)行政策予以調(diào)整和修正,是政策管理的重要環(huán)節(jié),有利于改變“重決策前評(píng)估、輕決策后評(píng)估”,“重風(fēng)險(xiǎn)評(píng)估、輕跟蹤評(píng)估”等弊端。

      (1)人工智能規(guī)制政策的動(dòng)態(tài)性原則。林德布洛姆認(rèn)為政策制定是制定者對(duì)政策不斷補(bǔ)充和修正的動(dòng)態(tài)“過(guò)程”?!罢卟皇且唤?jīng)制定就一勞永逸了的,它必須要永無(wú)止境地加以制定和再制定,制定政策是一個(gè)對(duì)某種期望目標(biāo)的逐次接近過(guò)程”。① 其原因在于:一是人作為決策主體,時(shí)間、精力的有限性決定了不可能兼顧所有政策目標(biāo),決策并不能做到絕對(duì)理性;二是知識(shí)的發(fā)展性與不確定性決定了決策不能止步于當(dāng)前環(huán)境與條件,而是應(yīng)對(duì)快速更新的技術(shù)保持敏感,在必要的情形下及時(shí)改進(jìn)策略;三是技術(shù)的不確定性和人類認(rèn)知能力的不足決定了在決策中并不能理性、科學(xué)地評(píng)價(jià)和預(yù)測(cè)技術(shù)的潛在危害,從而造成政策執(zhí)行偏離原有目標(biāo)。人工智能風(fēng)險(xiǎn)治理是一個(gè)復(fù)雜、開放的系統(tǒng),基于動(dòng)態(tài)性原則制定規(guī)制政策可有效糾正錯(cuò)誤,預(yù)防和控制人工智能規(guī)制政策效果的負(fù)時(shí)滯效應(yīng)。

      (2)人工智能規(guī)制政策多元主體風(fēng)險(xiǎn)評(píng)估反饋機(jī)制的構(gòu)建。我國(guó)現(xiàn)有政策存在針對(duì)性不強(qiáng)、時(shí)效性不高的現(xiàn)象,主要原因是不注重決策后的政策反饋和評(píng)估,沒有及時(shí)修正政策偏差。政策實(shí)踐中應(yīng)建立由政府、科研機(jī)構(gòu)、企業(yè)、公民等多方參與的人工智能政策風(fēng)險(xiǎn)評(píng)估機(jī)制,跟蹤監(jiān)測(cè)風(fēng)險(xiǎn),既可回應(yīng)社會(huì)風(fēng)險(xiǎn)問(wèn)題,又可以消解不必要的疑慮,促使未來(lái)人工智能的治理決策更加科學(xué)和理性。政策制定者可通過(guò)民意調(diào)查、意見反饋、跟蹤調(diào)查以及咨詢相關(guān)利益方的意見等方式,根據(jù)實(shí)際情況調(diào)整政策縮小人工智能不確定性并達(dá)成共識(shí)。政策跟蹤評(píng)估反饋機(jī)制,包括決策前、中、后三個(gè)階段評(píng)估,決策前評(píng)估在政策決策中經(jīng)常使用,但決策中和決策后的評(píng)估往往容易被忽略。決策前評(píng)估咨詢通常由政府主導(dǎo),相關(guān)利益主體參與進(jìn)來(lái),從技術(shù)的潛在風(fēng)險(xiǎn)、技術(shù)的可行性、社會(huì)可接受倫理準(zhǔn)則和經(jīng)濟(jì)上的成本與收益等方面對(duì)人工智能做系統(tǒng)的評(píng)估。決策中評(píng)估對(duì)政策形成起著“承上啟下”的作用,為政策的有效實(shí)施提供依據(jù)。尤其是技術(shù)專家的介入,可就一些人工智能技術(shù)方面的問(wèn)題進(jìn)行專業(yè)跟進(jìn),以便對(duì)決策做進(jìn)一步的調(diào)整和修改。忽略決策中評(píng)估可能會(huì)導(dǎo)致制定政策的過(guò)程中出現(xiàn)偏差,因?yàn)闆]有及時(shí)修正而帶來(lái)社會(huì)風(fēng)險(xiǎn)和政策資源的巨大浪費(fèi)。決策后評(píng)估是通過(guò)評(píng)估發(fā)現(xiàn)人工智能政策制定之時(shí)的遺漏、過(guò)時(shí)的假設(shè)、政策缺乏執(zhí)行的原因,以隨時(shí)調(diào)整和完善相關(guān)決策,及時(shí)彌補(bǔ)或中止錯(cuò)誤決策的執(zhí)行,最終實(shí)現(xiàn)應(yīng)有的政策效果。

      四、結(jié)語(yǔ)

      技術(shù)需要被治理,以確保獲得利益和減少風(fēng)險(xiǎn)。尤其是像ChatGPT人工智能這類新興技術(shù)的社會(huì)形塑,由于缺乏可供借鑒的政策模式參考,政策制定過(guò)程中面臨的可能性風(fēng)險(xiǎn)或許已超越目前決策者的想象。政策制定中的“自有風(fēng)險(xiǎn)”,涉及未來(lái)人工智能的發(fā)展、公眾對(duì)人工智能的接納程度和公眾對(duì)政策機(jī)構(gòu)的信任問(wèn)題??茖W(xué)合理、公平正義、有形有效的政策將會(huì)推動(dòng)人工智能有著更為廣泛前途的應(yīng)用,真正有助于生活質(zhì)量的改善和經(jīng)濟(jì)社會(huì)的發(fā)展,而不是相反。為此,政策制定之時(shí)應(yīng)考慮的目標(biāo)是:在利用人工智能為公民謀取福祉的同時(shí),保證其安全且符合人類價(jià)值觀;進(jìn)行規(guī)制治理時(shí),需要兼顧規(guī)制潛在風(fēng)險(xiǎn)和促進(jìn)創(chuàng)新之間的矛盾??傊斯ぶ悄艿恼咭?guī)制是引導(dǎo)性的、回應(yīng)性的,而非禁止性、限制性的,否則會(huì)扼殺技術(shù)創(chuàng)新,阻礙技術(shù)的可持續(xù)發(fā)展。

      作者單位:北京理工大學(xué)人文與社會(huì)科學(xué)學(xué)院

      責(zé)任編輯:韓海燕

      猜你喜歡
      治理風(fēng)險(xiǎn)人工智能
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      諧波分析與治理措施探討
      治理背景下我國(guó)少數(shù)民族傳統(tǒng)體育運(yùn)動(dòng)會(huì)的發(fā)展
      淺析網(wǎng)絡(luò)輿情治理
      中國(guó)經(jīng)濟(jì)轉(zhuǎn)型的結(jié)構(gòu)性特征、風(fēng)險(xiǎn)與效率提升路徑
      商(2016年27期)2016-10-17 05:33:32
      互聯(lián)網(wǎng)金融的風(fēng)險(xiǎn)分析與管理
      企業(yè)納稅籌劃風(fēng)險(xiǎn)及防范措施
      下一幕,人工智能!
      娱乐| 镇平县| 城市| 云阳县| 大化| 苗栗市| 丰顺县| 博湖县| 桦南县| 宜黄县| 云安县| 会东县| 商南县| 黔东| 秦皇岛市| 建宁县| 汝阳县| 齐河县| 遂溪县| 陆良县| 柳江县| 札达县| 彝良县| 会理县| 乌拉特中旗| 涟水县| 塘沽区| 桦甸市| 海淀区| 明星| 遂平县| 新沂市| 临漳县| 天水市| 噶尔县| 黎城县| 陇南市| 开鲁县| 若尔盖县| 望江县| 皮山县|