• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      美國人工智能適配倫理與管控的政府指引與我國適用之啟示 *

      2023-03-11 17:33:28唐淑臣許林逸
      情報雜志 2023年1期
      關鍵詞:倫理人工智能系統(tǒng)

      唐淑臣 許林逸

      (1.清華大學法學院 北京 100084;2.北京師范大學法學院 北京 100875)

      0 引 言

      人工智能(Artificial Intelligence,AI)目前成為國際競爭的新高地和新焦點,其出色的解決問題與任務執(zhí)行能力極大地解放了勞動力,在某些情況下其性能甚至超過人力。毫無疑問,人工智能正深刻地改變世界,相關技術競爭更是當下乃至未來大國博弈的焦點之一,是各國發(fā)展不可回避的競爭領域。但人工智能的發(fā)展過程中,也呈現出誤解、誤判等違背人類倫理與法治的弊端,這創(chuàng)造了秩序崩壞的危機,其引發(fā)的未知風險也值得警惕。為此,世界各國已達成基本共識,人工智能的發(fā)展必須為人類的更大利益服務,而不是反其道而行之。為應對人工智能安全風險,全球各國和地區(qū)紛紛加強人工智能安全問題的前瞻性研究,加大力度防控人工智能安全風險,加快推進治理政策出臺,并逐漸從原有的原則性規(guī)定向可操作、可落地的方向邁進。比如歐盟正在推進專門的人工智能立法,對高風險應用實行嚴格監(jiān)管;美國、新加坡、加拿大、日本等國以非強制性的監(jiān)管為主,推出安全風險評估框架、安全治理模型、算法評估制度等政策,引導各類主體開展人工智能安全風險治理。但是在監(jiān)管之外,關于政府如何引導人工智能適配倫理與法治的研究還較為缺失。以美國為例,國家安全機關[1]設置相關原則[2]并適用,但其他機構沒有提供這樣的指導。而且即使在提供原則的情況下,也很難將倫理性的原則轉化為具體行動[3]。

      在國內研究方面,相關討論是從人工智能倫理風險和政府參與人工智能治理兩個角度展開的。有學者對國內人工智能應用進行綜述,指出公共治理中人工智能的應用重點集中在基本公共服務供給、城市應急與環(huán)境治理等方面,但人工智能應用仍面臨安全、侵權、解構秩序、沖擊法治體系和道德倫理等風險,并提出對應的解決策略[4]。事實上,國內大多數研究都著眼于人工智能的倫理風險[5]或法治監(jiān)管[6],并提出相應建議。當前的討論陷入一種兩難的困境當中,焦點已經偏離人工智能如何融入國家倫理與法治,而演變?yōu)橐环N純粹的形而上的終極倫理探討與理想化風險監(jiān)管。本文試圖在這種追求一致性倫理的維谷中引入一種新的視角,即我國政府如何引導人工智能適配中國特色社會主義倫理準則,融入中國特色社會主義法系,打破西方人工智能倫理霸權的相關問題。新視角的核心在于使人工智能的相關討論更貼合中國倫理與法治,為傳統(tǒng)的人工智能自身倫理與政府參與人工智能治理的角度提供中國之治的抓手與經驗。毋庸置疑,美國作為當今世界人工智能的頭號強國,為了維持其在人工智能領域的統(tǒng)治地位,已正式將人工智能升級為國家戰(zhàn)略,并在人工智能的指引方面進行了諸多嘗試。對美國政府引導人工智能適配倫理與法治的方式進行考察與洞析,可為中國人工智能發(fā)展的理念和實操提供有益的參考。

      1 美國人工智能呈現背離倫理與法治的趨勢

      人工智能作為推動新一輪科技革命和產業(yè)變革的重要驅動力量,在國家安全和軍事領域的應用逐漸廣泛,不但可能實現對作戰(zhàn)平臺和武器裝備的自主控制,而且在網絡戰(zhàn)中發(fā)揮重要作用。美國在人工智能領域雖然占據領先地位,但其優(yōu)勢正在縮小,新興大國有可能超越美國并取代其領先地位。美國為了保持自身在人工智能領域的優(yōu)勢地位,成立人工智能國家安全委員會(National Security Commission on Artificial Intelligence,NSCAI),負責向美國總統(tǒng)及國會提供人工智能相關領域的建議。作為解決美國國家安全與國防需求問題的政策參謀機構,NSCAI在推動人工智能、機器學習等技術發(fā)展方面出謀劃策。雖然NSCAI僅是一個“負責向美國總統(tǒng)及國會提供人工智能等領域的建議”的咨詢機構,但其構成人員包括15名技術專家、國家安全專家、企業(yè)高管和學術領袖,其先前諸多報告已經被美國政府所采納,比如加大人工智能領域的投資,遏制中國的人工智能發(fā)展等。因此在美國政府簽發(fā)正式文件指引人工智能適配倫理與法治前,NSCAI報告是最具有研究價值的參考文件。2021年3月,NSCAI頒布的最終報告指出,美國還沒有做好人工智能時代的防御或競爭的準備[7]。人工智能的威力和局限性并未被充分了解,人工智能只有在符合倫理與法治的道路上發(fā)展,才能真正造福人類。

      人工智能系統(tǒng)的性能和自主性發(fā)展達到新高度的同時,也呈現出有關使用致命武力的法律、道德問題。人工智能的透明度缺乏,引起更多人的不信任和恐慌;人工智能缺乏中立性,其所做的決策容易出現不準確和歧視性后果,在刑事司法、招聘和人臉識別等領域,人工智能的使用可能違背公平和包容性,強化輔助決策中無意的偏見,例如在性別、族裔中等產生傾向性。有媒體調查結果顯示,人工智能在預測再犯時,會對黑人存在偏見,違背了社會公平[8]。人工智能發(fā)展過程中,缺乏數據收集的監(jiān)督措施,導致隱私權和個人信息被侵犯,以及發(fā)展水平的不均衡,進而容易引發(fā)公平性的問題等。人工智能的風險和挑戰(zhàn)頻頻出現意味著智能社會的發(fā)展需要適配倫理與法治,人工智能引發(fā)的公平性、安全性、可靠性等問題使得制定人工智能倫理準則的必要性日益彰顯[9]。人工智能的良好發(fā)展和正確使用應當與國家的價值觀相吻合,價值觀指導著人工智能的發(fā)展趨勢。NSCAI的報告作為指引人工智能遵循美國價值觀的重要內容,提出了防范威脅的措施及指引人工智能發(fā)展符合美國人民和國家利益的建議,指出了人工智能競賽的關鍵要素,并詳細闡述了聯邦各機構今后改革的行動路線。面對人工智能在戰(zhàn)略層面的重要地位和人工智能產生的負面效果,美國政府正在采取全面的行動,指引人工智能與倫理規(guī)則與法治規(guī)范相適應,以防范其可能引發(fā)的相關風險。

      2 理念層面:人工智能本身和使用必須符合美國價值觀與法治理念

      美國在理念層面指引人工智能的研發(fā)和使用,以保證人工智能本身及其適用與美國的價值觀和法治理念(American Values and the Rule of Law)相契合,共同致力于維護民主、人類尊嚴和人權。在國家安全調查方面,以符合正當程序、個人隱私、平等保護和非歧視的憲法原則的方式使用人工智能;在外交方面,堅決反對使用人工智能來支持專制政府壓制個人自由或侵犯其公民的人權;在軍事方面,尋找方法讓人工智能增強維護戰(zhàn)爭法的能力;在立法方面,需要進一步強化基本權利的保護,包括言論和集會自由以及正當程序、包容、公平、不歧視(包括平等保護)和隱私權(包括保護個人免受政府無理干涉的權利)。其他價值觀反映在條約、規(guī)則和政策中,例如《禁止酷刑和其他殘忍、不人道或有辱人格的待遇或處罰公約》[10],國防部的交戰(zhàn)規(guī)則以及國防部關于武器系統(tǒng)自主性的指令等。

      針對人工智能的價值觀塑造,NSCAI提出兩項建議:a.要求開發(fā)和部署均符合美國價值觀和法治的系統(tǒng),以確保開發(fā)或獲得的人工智能系統(tǒng)將按照美國的價值觀和法治運行,確保個人隱私在獲取和使用用于人工智能系統(tǒng)開發(fā)的數據時受到保護。具體而言,人工智能系統(tǒng)應當采用符合隱私保護、公平、包容、人權和武裝沖突法的技術和操作政策,若人工智能系統(tǒng)違反上述價值觀,則被禁止使用。b.將目標明確表示在人工智能系統(tǒng)的目標和效用函數中。首先,預設價值權衡的標準,對人工智能系統(tǒng)的價值衡量進行設定和記錄,包括記錄選擇時選取對性能有影響的操作閾值。其次,記錄并審查人工智能系統(tǒng)在價值考量時對目標或效用函數的依賴程度,尤其是對不同價值權重的衡量時。最后,對運行過程和結果進行記錄、審查,確保人工智能符合價值觀。

      符合倫理與法治的人工智能系統(tǒng)應具備可審計性、可追溯性、可解釋性、可依賴性四個主要特點??蓪徲嬓詮娬{在模型構建期間和模型投入生產之前的制定和使用需要有明確規(guī)定的工作記錄,對算法、數據和設計過程進行評估,在模型生產過程中創(chuàng)建開發(fā)治理標準的審計跟蹤??勺匪菪允侵笐U蠑祿膩碓纯勺匪?,技術可以被了解,明確記錄數據來源和操作,對第三方數據應進行評估后使用,掌握其開發(fā)過程和操作方法,在開發(fā)階段,應將設計方法、相關設計文檔和數據源提供給適當的相關方。在部署階段,則要創(chuàng)建適當的用戶訪問和權限日志,消除人工智能系統(tǒng)的神秘感,增強其透明度??山忉屝允侵改軌驅θ斯ぶ悄芩惴ǖ倪\行和決策原理進行充分理解,并解釋給用戶,即能夠解釋系統(tǒng)輸出的價值和其準確性,其實質是小數據信息的知識化,這一特點需要采取必要的技術來保障數據集的選取與系統(tǒng)目標相稱,并對數據進行及時更新??梢蕾囆允侵溉斯ぶ悄苣軌蛞灶A期的方式執(zhí)行任務,并且在人工智能的整個生命周期內保證安全性和魯棒性。

      3 實操層面:指引人工智能創(chuàng)設和使用的具體路徑

      當前人工智能仍存在諸多局限性,且容錯率較低,易產生較嚴重的危害后果,使得人類極有可能被自己創(chuàng)造的技術反噬。人工智能在工程實踐中數據易被篡改,系統(tǒng)交互時存在失控風險,人機交互中的可能發(fā)生故障,問責治理制度需要完善?;诖?,在指引人工智能適應倫理和法治的具體操作層面,NSCAI提出四個方面的操作路徑,著力在工程實踐、系統(tǒng)性能、人機交互以及問責治理四個方面,設計并發(fā)展穩(wěn)健、安全和可信賴人工智能系統(tǒng),并利用人工智能系統(tǒng)提升人類的理解、決策能力,與人類進行優(yōu)勢互補,以保證人工智能在最初創(chuàng)設時盡量降低風險,在持續(xù)使用過程中穩(wěn)定運行。

      3.1 工程實踐

      在工程實踐中,為了保證人工智能在預設的指引下順利運行,應當避免各個環(huán)節(jié)因故障而違背原有指令。由于工程實踐中使用的工程方法和模型具有脆弱性,不同環(huán)節(jié)存在的漏洞可能相互關聯,容易出現前所未有的故障模式。目前故障模式主要分為故意失敗和意外失敗兩類。故意失敗是惡意行為者明確攻擊人工智能系統(tǒng)某些方面的結果,包括中毒攻擊達到污染數據的目的、模型反轉以及在下載使用時破壞ML模型等類型。意外失敗是指在人工智能開發(fā)和部署的生命周期中任何時候都可能出現意外故障,由于單獨開發(fā)和測試的人工智能系統(tǒng)與其他人工智能系統(tǒng)組成并相互作用,可能會發(fā)生其他的意外故障。這種故障包括3種類型:人工智能系統(tǒng)以一種與程序員的意圖相矛盾的方式實現編程目標、系統(tǒng)在一種環(huán)境中進行測試但無法適應環(huán)境變化以及目標規(guī)范不充分無法適應價值權衡的變化。

      為了減少工程實踐中的故障,應當在人工智能開發(fā)時結合場景和應用進行充分的早期分析和預設,評估總體的可行性以及對規(guī)則的遵守情況,確保應用程序中的公平性和對不必要偏見的消除。此外,應當進行系統(tǒng)風險評估,對系統(tǒng)的潛在社會影響進行分析,尤其是就與國家安全背景相關的關鍵領域提出風險評估問題,包括隱私和公民自由、人權、系統(tǒng)安全以及新技術被泄露、被盜或武器化等倫理與法律風險,盡早對風險進行控制和消除。

      3.2 系統(tǒng)性能

      指引人工智能系統(tǒng)依照倫理與法治正確運行,需要評估人工智能系統(tǒng)的性能,包括使用代表現實世界場景的數據或模擬現實環(huán)境來評估其能力和盲點,及其可靠性與彈性。人工智能的高質量發(fā)展需要系統(tǒng)之間相互作用、相互協(xié)調、相互配合,共同促進每個系統(tǒng)要素的正常運轉及系統(tǒng)整體的相互支撐?,F階段在集成模擬中通常會發(fā)生意外的交互和錯誤,說明預測和管理系統(tǒng)的多個組件在組成不同的系統(tǒng)后可能會出現間歇性故障,這些故障不一定是任何一個組件有錯誤的結果,而是由于組合系統(tǒng)的交互作用產生。

      針對系統(tǒng)交互產生的故障,應當進行充分的模型訓練和模型測試,以涵蓋人工智能預期性能的關鍵方面。具體而言,第一,應使用定期更新且盡可能充分的標準來測試和報告系統(tǒng)性能,通過定義、分類和度量等方式更好地評估人工智能的性能和漏洞。第二,考慮并記錄數據和模型對于現有特定環(huán)境的代表性,并在不同環(huán)境中測試系統(tǒng),并進行迭代模型測試和驗證。第三,確保單個系統(tǒng)的正常運行。系統(tǒng)性能產生的交互故障可能由于系統(tǒng)之間以開發(fā)人員未預料到的方式進行組合,為了能夠準確分析出由于交互產生的故障,應當先保障單個人工智能的性能正常,再對交互情況進行分析。第四,評估人機團隊的總體績效。考慮當前的基準可能是人類操作員目前的最佳表現或人機團隊的綜合表現。在交互過程中,重要的是衡量總體績效,而不是單獨衡量人工智能系統(tǒng)。第五,持續(xù)關注系統(tǒng)的可靠性和穩(wěn)健性。在整個開發(fā)和部署過程中持續(xù)關注系統(tǒng)的實際性能。對于具有特別高的潛在故障后果的系統(tǒng),將投入大量的架構和設計工作來構建整體系統(tǒng)的安全。

      3.3 人機交互

      人工智能開發(fā)和部署需要平衡人類和人工智能的關系,人工智能系統(tǒng)的開發(fā)以造福人類為導向,因此所有人工智能系統(tǒng)都將具有一定程度的人機交互。一些系統(tǒng)甚至將扮演與人類積極協(xié)作的隊友角色。人工智能和人類的能力具有互補性,為了促進人機交互的進行,首先應當明確人機交互設計方法和指南。人工智能系統(tǒng)設計應考慮人類在不同場景下人機協(xié)作的定義任務,確保總體上人機操作的組合與預期行為一致;其次,使用算法和函數來支持可解釋性,為個人提供與任務相關的知識,幫助不同受眾理解人工智能系統(tǒng)運行中的關鍵因素;再次,利用可追溯性協(xié)助系統(tǒng)開發(fā)和理解,及時傳達不確定性和誤差范圍,預設信息或任務應何時以及如何在機器和人類操作員之間傳輸。可追溯性流程必須捕獲有關人機交互的詳細信息,以追溯故障發(fā)生的位置及原因,從而改進系統(tǒng)及其對故障進行補救;最后,優(yōu)化人類和人工智能在各種環(huán)境中共同承擔復雜任務的能力,以及讓不同的機器組相互合作,實現共同目標。

      3.4 問責治理

      2021年6月,美國政府問責署(GAO)發(fā)布了《人工智能:聯邦政府和其他機構的責任框架》,提出針對人工智能的問責治理,國家安全部門和機構須明確針對特定系統(tǒng)結果和一般系統(tǒng)維護與審計的問責機制,包括承擔責任的原因和方式等。最終用戶和受人工智能系統(tǒng)行為影響的人應該有機會對人工智能系統(tǒng)的決定提出上訴。針對人工智能決策、推論、建議和行動的問責和上訴必須存在固定的流程,避免在人工智能出現違背倫理和法治的結果后無人擔責。現階段人工智能的問責治理對監(jiān)管者提出了較高的技術要求,在出現爭議后,監(jiān)管者需要依據可解釋性的技術能力了解系統(tǒng)中的問題,并依據可追溯性和可審計性進行問責治理,及時發(fā)現責任原因并解決責任歸屬問題。然而上述特征的人工智能基礎設施建設需要較高成本,例如在法院考慮人工智能系統(tǒng)的決定能否作為證據被接納時,需要審計追蹤等技術對人工智能的決定進行分析,構建可審計性基礎設施將增加構建人工智能系統(tǒng)的成本和工作量。

      在人工智能問責治理的完善過程中,首先應當在高層領導中引入人工智能專家,每個對國家安全至關重要的部門和機構以及武裝部隊的每個分支機構,至少應有一個專職負責人;其次為問責治理提供技術支持,記錄開發(fā)和部署人工智能系統(tǒng)的監(jiān)管鏈和指揮鏈,明確不同階段的負責人。提高可追溯性和可審計性能力,更好地跟蹤系統(tǒng)的性能和結果;最后加強問責治理的政策,制定對未盡責任的人工智能開發(fā)或部署行為的監(jiān)督機制,包括內部監(jiān)督與外部監(jiān)督兩種方式。內部監(jiān)督應該制定具體的監(jiān)督和執(zhí)法措施,包括審計和報告要求,允許對最敏感或高風險的人工智能系統(tǒng)進行徹底審查,確保系統(tǒng)的可審計性,對于不負責任開發(fā)或使用人工智能且有過錯的責任主體進行懲戒。外部監(jiān)督應當通過審計進行跟蹤,促進系統(tǒng)可追溯性的實現。目前美國國家安全領域沒有針對人工智能的專門外部監(jiān)督機制,僅在內部監(jiān)督方面進行了落實,因此外部監(jiān)督的具體做法和機構設置仍是懸而未決的問題。

      4 美國指引人工智能的啟示與借鑒

      2017年7月18日,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》[11],成為我國在人工智能領域的首個系統(tǒng)部署文件,標志著我國人工智能國家戰(zhàn)略正式拉開序幕[12]。在人工智能的發(fā)展過程中,我國可在理念層面和實操層面學習美國的經驗和方法,通過明確人工智能的倫理和法律準則,為人工智能的發(fā)展提供指導思想,同時強化人工智能的可審計性、可追溯性、可解釋性與可依賴性,推動其沿著正確發(fā)展方向前行。但對域外經驗的借鑒絕非照搬照抄,美國雖然在指引人工智能順應本國價值觀的方法上具有先進經驗,但其終極目標的價值觀并非完全正確,因此對我國而言,可以借鑒和學習其指引人工智能的方式,但絕不能對其價值觀進行移植,應當對美國指引人工智能中的誤導和歪曲行為進行甄別。

      4.1 理念層面:明確人工智能倫理與法律準則

      為促進人工智能的健康發(fā)展,確保其符合倫理與法治要求,應針對性制定人工智能發(fā)展的標準,為人工智能發(fā)展提供評估的依據。人工智能發(fā)展的目標是造福和服務人類,應當避免技術對人類的消解與威脅。美國在人工智能發(fā)展方面一直積極出臺各項戰(zhàn)略計劃,專注“人工智能優(yōu)先”的戰(zhàn)略思想,通過多個官方文件推動倫理與法律準則的落實,并在具體的操作方面進行執(zhí)行。例如2019年美國白宮更新《國家人工智能研究發(fā)展戰(zhàn)略計劃》[13],擴展人工智能研發(fā)戰(zhàn)略重點?!秶胰斯ぶ悄苡媱澐ā分刑岢隹萍计髽I(yè)和國家科學基金會計劃受助人應當制定道德倫理聲明。該聲明包括以下幾點:a.研究的潛在社會效益;b.對社會造成的任何可預見或可量化的風險,包括該研究中有意或無意帶來的重大社會危害的產品、技術或其他成果;c.技術或社會解決方案如何減輕這種風險,并制定采取這種減損措施的計劃。國防部試圖通過制定人工智能倫理準則的方式,向外界保證美軍會以符合倫理和負責任的方式推動人工智能的軍事應用,從而塑造美軍內外對于人工智能軍事應用的信任和信心,減少輿論障礙。以人工智能面臨的歧視問題為例,在智能技術高效率運行的情況下,潛在的歧視會被無限的重復,進而被不當強化。NSCAI在指引人工智能發(fā)展的過程中,也對歧視問題進行了考慮,并在上述理念層面采取的措施中避免歧視被人工智能擴大。

      我國在國家戰(zhàn)略層面重視人工智能發(fā)展,并已出臺政策進行指導。2019年6月,新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則》[14],提出人工智能倫理和法律的“三步走”戰(zhàn)略目標,到2025年,“初步建立人工智能法律法規(guī)、規(guī)范倫理和政策體系,形成人工智能安全評估和管控能力”。2021年9月,第一套人工智能倫理規(guī)范《新一代人工智能倫理規(guī)范》[15]發(fā)布,細化落實《新一代人工智能治理原則》,將倫理道德融入人工智能全生命周期,為人工智能應用的相關活動提供倫理指引。到2030年,我國將建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。我國可以借鑒美國戰(zhàn)略出臺和更新的方式,在2030年前將人工智能倫理與法律準則明確規(guī)定在官方文件中,作為人工智能發(fā)展的指導思想,繼續(xù)完善人工智能的頂層設計,重視人工智能產生的風險,堅定人工智能的發(fā)展目標。通過倫理準則的明確,在算法運行之前對歧視問題盡可能消除,在算法運行之初及時發(fā)現歧視現象的存在,進行中止和補救措施。通過政策與法律的完善,避免人工智能為公共利益而過度侵犯個人利益。推動人工智能發(fā)展的前提必須是確保其有效、合理、合法、可控,保證其有序應用和良性發(fā)展,通過道德約束和法律規(guī)范防止技術的濫觴。除了運用相關的倫理道德約束外,人工智能還應遵守包括管理、研發(fā)、供應、使用等不同階段的規(guī)范,促進人工智能的公平與安全,避免偏見、歧視、隱私和信息泄露等問題。

      美國人工智能發(fā)展中存在錯誤的價值觀,在國際社會企圖打壓其他國家的人工智能發(fā)展,以實現自身霸權。例如在加緊發(fā)展自身人工智能技術實力的同時,美國已經開始在關鍵技術領域對中國采取遏制手段,企圖構建自身主導的人工智能技術標準,以保持科技領先地位,這種方式無疑是作繭自縛。正如2021年6月2日,美國總統(tǒng)科學顧問兼科技政策辦公室主任埃里克·蘭德爾正式上任時針對拜登總統(tǒng)關于人工智能競爭的問題,發(fā)表公開信稱,引領全球科技發(fā)展給美國經濟繁榮和國家安全帶來深遠好處,而不僅僅是讓美國企業(yè)在全球市場中盡占先機[16]。即打壓其他國家人工智能等高新技術的發(fā)展空間也會傷害了美國自身的利益,在人工智能領域進行冷戰(zhàn)式“零和思維”只會讓雙方都陷入困境,不同國家之間的技術差異,也加劇了國家之間的人工智能發(fā)展的不均衡,進一步導致了“數字鴻溝”這一現象[17]。在借鑒美國發(fā)展人工智能的方法時,我國應對其中的偏激理念進行甄別,避免以正確的方法實現錯誤的目標,未來人工智能的發(fā)展將不再是某個國家的事情,而需要全球命運共同體的齊心協(xié)力,適當縮小數字鴻溝,才能維護人類社會整體福利。

      4.2 實操層面:強化人工智能的基本特點

      a.可審計性強化。

      人工智能的審計需要通過內部和外部審計者的評估實現,并通過評估報告驗證和呈現技術的可靠性。可審計性對于建立和維護用戶對人工智能系統(tǒng)的信任至關重要,具體包括審計監(jiān)督人工智能的設計和運行流程,檢測人工智能系統(tǒng)的能力,并進行跟蹤分析等??蓪徲嬓缘膹娀枰槍夹g制定具體的監(jiān)督措施,包括審計標準和報告要求。人工智能系統(tǒng)的開發(fā)信息需要盡可能永久保存,以備審計所需,避免由于科學人員流動性引起的信息丟失。對于敏感和高風險的人工智能系統(tǒng)應進行徹底審查的機制,在涉及如人身安全等人類基本權利的應用中,人工智能系統(tǒng)應該進行獨立的審計。對于人工智能的審計,可以借鑒美國人工智能問責治理的內部監(jiān)督與外部監(jiān)督方式,從內部審計和外部審計兩個方面進行。對于算法的監(jiān)管和審計曾有“算法師”這一職責的提出,其中“外部算法師”類似政府審計與外部監(jiān)督員,“內部算法師”類似企業(yè)內部監(jiān)督大數據活動的工作[18]。強化人工智能的可審計性應通過內部審計提前識別風險,從而明確風險職責,同時對外部審計結果進行承認。

      b.可追溯性強化。

      增強人工智能的可追溯性,是人類操控和更新人工智能模型的重要內容。人工智能是從數據中學習復雜系統(tǒng)隱含的內在規(guī)律,基于先驗經驗和統(tǒng)計模型進行數據預處理和建模分析,可追溯性要求人類掌控人工智能的學習規(guī)律,明確其分析原理和分析過程,人工智能系統(tǒng)產生決策使用的數據集和過程都應該記錄下來以備追溯,并且應該增加透明性,對收集的數據和算法使用進行記錄。而技術發(fā)展的局限降低了人工智能的可追溯性,導致人工智能系統(tǒng)的發(fā)展進入瓶頸。在數據資源方面,美國的政策是擴大專家獲取高質量、有效和完全可追蹤的聯邦數據、模型和計算資源,用于聯邦資助的人工智能研發(fā),提高美國人工智能專家的競爭力。《維護美國在人工智能領域領先地位》行政令中指出:所有機構的負責人應審查他們的聯邦數據和模型,以確保更多非聯邦人工智能研究團隊訪問和使用的機會[19]。2021年12月,美國防部正式設立首席數字與人工智能官(CDAO)一職,以加強國防部的數據與人工智能技術開發(fā)應用[20]。我國在人工智能可追溯性的增強方面,可以吸收美國對數據的開發(fā)經驗,公開、可用的數據對人工智能技術研發(fā)有關鍵作用,且數據多樣性、深度、質量和準確性顯著影響人工智能能力,因此必須夯實人工智能開發(fā)需具備的數據集、測試和訓練資源基礎。人工智能技術的發(fā)展離不開人才培養(yǎng),人才的流失可能意味著失去對稀缺的人工智能專業(yè)知識的全球競爭力。美國第二號國防教育法案(National Defense Education Act II)作為培養(yǎng)科技人才的重要舉措,指出解決美國科技教育體系中的不足。同時,美國通過新的激勵措施和為技術移民在辦理簽證、綠卡以及尋找工作方面提供便利等舉措,鼓勵更多人工智能人才在美國學習、工作和定居。2021年5月,美國參議院議員提出《人工智能能力與透明度法案》和《軍事人工智能法案》,前者致力于落實人工智能國家安全委員會最終報告給出的建議,改進人才招募制度并加速采用新技術,增強政府使用人工智能的能力及透明度,后者致力于改善軍隊各級人員的人工智能教育與培訓計劃,使其能更好地使用人工智能。2022年2月4日,美國通過了《2022年美國競爭法》,明確出臺了對芯片行業(yè)的扶持計劃。美國將創(chuàng)立芯片基金,撥款520億美元鼓勵私營芯片企業(yè)在美國建廠,創(chuàng)造就業(yè)機會的同時,支撐國家安全。在該法案的特別條款中,美國放寬了包括人工智能專業(yè)人才在內的科技人才綠卡配額。以此為鑒,我國也應注重人工智能領域人才的培養(yǎng),通過教育強化與基金扶持等方式,避免人才大量外流,提高人工智能技術背后的團隊素質,通過提升技術手段,實現為人工智能系統(tǒng)可追溯性的提升。

      c.可解釋性強化。

      可解釋性的強化歸根結底是對技術解釋能力的強化,意味著人工智能系統(tǒng)的可描述化、可程序化等,增強人工智能的公開性和透明度,以此減少公眾對人工智能的疑慮和擔憂。目前人工智能的可解釋性仍在不斷完善,與人工智能有關的大部分數據依然存在保密、訪問受控以及受隱私保護等問題,因此在監(jiān)督過程中需要在可追溯性的需求和數據保護之間尋求平衡。面對不斷多元化、復雜化的人工智能安全風險,應加強跟蹤研究以增加其公開透明程度,建立安全情報信息共享機制,定期發(fā)布相應的研究報告,對相應的管理規(guī)范和指引進行動態(tài)調整。美國聯邦政府承諾,將以符合《憲法》和美國價值觀并保護公民自由和隱私的方式充分利用人工智能,明確要培養(yǎng)公眾對人工智能技術的信任和信心,并在技術應用中保護公民自由、隱私和美國的價值觀。我國可以借鑒美國問責治理制度,適應人工智能監(jiān)督的較強技術性??山忉屝缘那疤崾悄軌蛴行Ю迩寮夹g運作的方式,明確輸入資料和輸出結果之間的關聯性,以此來判定通過技術產生的結果是否恰當,是否存在偏差或者是否有歧視[21],因此需要更多對專業(yè)知識有了解的人對其進行解釋,從而增加公眾的信任度。政府或國家決策者應對人工智能的研究和應用加強引導、監(jiān)督和管理,廣泛開展智能知識普及,提供智能產品的服務和加大智能培訓力度,建立健全公開透明的人工智能監(jiān)管體系,督促人工智能行業(yè)和企業(yè)加強自律,切實履行社會責任。

      d.可依賴性強化。

      人工智能系統(tǒng)應當成為人類的輔助工具,而非干預人類甚至取代人類,進而引發(fā)系統(tǒng)失控的風險。人機交互是人工智能和人類共同協(xié)作的過程,這一過程以人工智能系統(tǒng)的可信賴性為基礎,人類需要增強對人工智能系統(tǒng)的信任,進一步增強與人工智能的互動。在人機交互過程中,人類和系統(tǒng)需要有共同目標,并執(zhí)行各自任務,以達成協(xié)調的合作。美國作為人工智能發(fā)展較為發(fā)達的國家,在人機交互層面仍在不斷探索中,人機混合智能和態(tài)勢感知機理相對模糊、機制較為混亂,由此而產生的智能只描述了事實性計算,缺失了人的情感性、價值性和責任性。人工智能系統(tǒng)在與人類高效協(xié)作時,應實現個性化適應,從而提升人機溝通能力。人機交互應不斷迭代發(fā)展,最終實現個性化的輔助決策系統(tǒng),達到人與機器的最優(yōu)匹配。此外,為了增強人工智能的可依賴性,提升人工智能的安全性能,我國應建立人工智能安全責任制度。結合美國構建責任框架和問責機制的思想,設立安全問責框架并進行落實,促使各相關主題樹立責任意識,一方面明晰組織內部責任分工,建立責任制;另一方面明確系統(tǒng)開發(fā)設計、使用、維護等不同階段對應主體的責任。

      5 結 語

      人工智能飛速發(fā)展的同時,與之相伴的誤解、誤判等問題也需要及時解決。國內現有研究雖然試圖解決這一問題,但并未從政府引導人工智能適配我國倫理與法治的角度進行分析,更極少將域外經驗應用于中國特色社會主義倫理準則與法律體系中。面對人工智能引發(fā)的倫理與法律問題,美國已經采取措施對人工智能的健康發(fā)展及時指引,通過增強人工智能的可審計性、可追溯性、可解釋性和可依賴性,開發(fā)和運行符合倫理和法治的人工智能系統(tǒng),促進人工智能契合人類的需求,解決因人工智能技術和系統(tǒng)應用帶來改變而產生負面影響,滿足技術不斷提升的同時維護安全。我國應當對域外經驗中的可取之處進行吸收,對其中的誤區(qū)進行避免,通過理念層面和實操層面的雙重努力,進一步加強人工智能體系化布局,加快人工智能安全風險研判,完善風險管理體系,確保我國的人工智能依照倫理和法律穩(wěn)步發(fā)展。

      猜你喜歡
      倫理人工智能系統(tǒng)
      《心之死》的趣味與倫理焦慮
      Smartflower POP 一體式光伏系統(tǒng)
      WJ-700無人機系統(tǒng)
      ZC系列無人機遙感系統(tǒng)
      北京測繪(2020年12期)2020-12-29 01:33:58
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      IT經理世界(2018年20期)2018-10-24 02:38:24
      連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
      數讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      凤城市| 临沂市| 灵丘县| 常德市| 哈巴河县| 朝阳市| 吴川市| 吴堡县| 榆中县| 启东市| 和龙市| 沾化县| 永川市| 体育| 灵武市| 吉木萨尔县| 德化县| 恩施市| 赣州市| 德庆县| 许昌市| 绍兴县| 通河县| 沐川县| 龙泉市| 锡林郭勒盟| 南宫市| 晴隆县| 宜黄县| 赤城县| 城口县| 谷城县| 政和县| 清苑县| 长寿区| 博客| 绥棱县| 绵阳市| 墨脱县| 始兴县| 岫岩|