【摘要】? ? 人工智能作為當(dāng)今社會人類活動的重要賦能技術(shù),正在深刻的改變世界。圍繞人工智能的開發(fā)與應(yīng)用,其所引發(fā)的倫理風(fēng)險和法律問題愈發(fā)凸顯。本文重點梳理了人工智能的法律與倫理面臨的若干問題,總結(jié)了國內(nèi)外發(fā)展現(xiàn)狀,并從有序推動人工智能立法、完善人工智能監(jiān)管評估、推動人工智能倫理法律綜合治理等方面提出了建議。
【關(guān)鍵詞】? ? 人工智能? ? 法律? ? 倫理
引言:
人工智能技術(shù)近十年獲得高速發(fā)展和廣泛的應(yīng)用,正在深刻改變?nèi)祟惿鐣纳a(chǎn)和生活方式,為社會和經(jīng)濟發(fā)展提供了新的技術(shù)手段和途徑;另一方面,人工智能在技術(shù)轉(zhuǎn)化和應(yīng)用時,對社會治理、國防和國家安全等領(lǐng)域產(chǎn)生巨大的沖擊,在法律與倫理方面帶來了諸多風(fēng)險和挑戰(zhàn)。
當(dāng)前,世界主要國家都將人工智能的法律倫理問題作為重點內(nèi)容,逐步加大對其的前瞻探索和研究。本文從人工智能法律和倫理的范疇出發(fā),梳理了當(dāng)前人工智能法律倫理發(fā)展面臨的挑戰(zhàn),總結(jié)了國內(nèi)外人工智能法律倫理發(fā)展的現(xiàn)狀與趨勢,最后提出了未來發(fā)展的幾點思考與建議。
一、人工智能法律與倫理涉及的若干問題
(一)人工智能的倫理問題
人工智能不同的發(fā)展階段所引發(fā)的倫理問題有所不同。在當(dāng)前強人工智能逐步發(fā)展的趨勢下,從倫理安全的角度,近期需要應(yīng)對人工智能在算法歧視、人工智能技術(shù)濫用等風(fēng)險,遠(yuǎn)期需要防范其可能產(chǎn)生超級智能而帶來的不可控性以及對人類主體性的沖擊。
1.算法歧視
算法是人工智能實現(xiàn)各種功能的核心,也是將各類技術(shù)結(jié)合、運用和創(chuàng)新的關(guān)鍵,但算法也包含著可能的安全風(fēng)險和隱患。特別是人工智能算法存在著有別于傳統(tǒng)軟件程序的邏輯性、關(guān)聯(lián)性,在輸出上可能會給用戶帶來不透明和難以解釋。同時算法依賴大量訓(xùn)練或真實的數(shù)據(jù),當(dāng)數(shù)據(jù)的搜集、整理不夠全面、公正和客觀時,就會產(chǎn)生沖擊道德倫理的輸出結(jié)果,從而形成基于宗教信仰、經(jīng)濟狀況、外貌等形式的算法歧視廣泛存在。
2. 技術(shù)濫用
政府部門、公司、個人等主體在使用人工智能技術(shù)過程中,由于技術(shù)無限制的使用以及管理缺失,如果不能公平、正當(dāng)守法使用隱私數(shù)據(jù),或者在過程中缺乏有效的管理機制,將引發(fā)威脅人們隱私保護(hù)的風(fēng)險事件。另一方面,全球的信息技術(shù)商業(yè)巨頭,在競爭中逐漸形成了資本、人才和技術(shù)的優(yōu)勢和壁壘,并通過這種優(yōu)勢的“濫用”,一定程度上造成數(shù)據(jù)壟斷,影響了人工智能技術(shù)的拓展應(yīng)用和數(shù)據(jù)的廣泛共享。
3. 沖擊人類主體性
隨著人工智能快速發(fā)展,特別是具有一定自主性的強人工智能發(fā)展,人工智能技術(shù)沖擊人類主體性的可能,已不再是遙遠(yuǎn)的科幻想象。
在2017全球移動互聯(lián)網(wǎng)大會,霍金發(fā)表演講時指出:“人類需警惕人工智能發(fā)展的威脅。因為人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身,人類由于受到漫長的生物進(jìn)化限制,將無法與之競爭。[1]” 2018年7月,在國際人工智能聯(lián)合會議上,包括馬斯克、谷歌DeepMind三位創(chuàng)始人在內(nèi)的超過2000名AI學(xué)者、企業(yè)家共同簽署《致命性自主武器宣言》,宣誓不參與致命性自主武器系統(tǒng)的開發(fā)、研制工作。
(二)人工智能的法律問題
1.人格權(quán)保護(hù)
當(dāng)前具有模仿人類行為、說話等行為的人工智能產(chǎn)品,在研發(fā)時預(yù)先植入了人類的聲音、動作、表情和形體等方面的功能。而這些預(yù)設(shè)功能,往往來自于他人的真實聲音、肖像和肢體動作,如果未經(jīng)他人允許而擅自采集上述活動并加以使用,就可能構(gòu)成了對他人人格權(quán)的侵害。此外,日常生活中經(jīng)常使用的聲紋、指紋以及人臉識別技術(shù),在對用戶數(shù)據(jù)采集的同時,也可能對聲音、肖像等造成侵權(quán)風(fēng)險。
2.知識產(chǎn)權(quán)保護(hù)
很多人工智能技術(shù)經(jīng)過前期數(shù)據(jù)訓(xùn)練與學(xué)習(xí),已經(jīng)能夠音樂、繪畫、寫作等方面具有一定的創(chuàng)作能力,由這些能力所形成的作品將給知識產(chǎn)權(quán)保護(hù)帶來新的課題。例如,2020 年是世界著名音樂家貝多芬誕辰 250 周年,一個由科研人員和音樂家組成的團(tuán)隊利用人工智能續(xù)寫了貝多芬生前未完成的《第十交響曲》[2]。該作品的著作權(quán)是歸屬于人工智能軟件的開發(fā)者還是所有者,甚至是人工智能本身,存在著很多爭議。
3. 數(shù)據(jù)財產(chǎn)保護(hù)
人工智能框架和算法需要海量數(shù)據(jù)加以支撐,這也對數(shù)據(jù)保護(hù)提出了新的挑戰(zhàn)。人工智能的數(shù)據(jù)往往來自于人類真實的行為和活動,在收集、存儲和利用的過程當(dāng)中,如何確保數(shù)據(jù)不被泄露和合規(guī)使用,不同于以往存儲于信息系統(tǒng)的數(shù)據(jù)保護(hù),具有很多現(xiàn)實的問題需要研究。此外,當(dāng)數(shù)據(jù)量達(dá)到一定程度時,其產(chǎn)生的質(zhì)變將可能涉及國家安全。例如,大量的用戶個人信息、交易數(shù)據(jù)、信用數(shù)據(jù)等,對國家的金融穩(wěn)定與安全提供具有重要的參考價值,也需要相應(yīng)的法律制度予以保護(hù)。
二、國內(nèi)外人工智能法律倫理發(fā)展概況
(一)國外人工智能倫理發(fā)展情況
1.美國
2018年9月,美國眾議院監(jiān)督和政府改革小組委員會發(fā)布《機器崛起:人工智能及對美國政策不斷增長的影響》白皮書,從失業(yè)、隱私、偏見和惡意使用4個領(lǐng)域提出了具體建議,包括:改善美國工人的教育、培訓(xùn)和再培訓(xùn),使其在人工智能驅(qū)動的經(jīng)濟中更具競爭力;使用人工智能系統(tǒng)做出相應(yīng)決策時應(yīng)確保支持這些系統(tǒng)的算法是可審計和可檢查的;研究如何識別人工智能系統(tǒng)中的偏見,以及如何通過技術(shù)更好地消除偏見和如何解釋偏見。2019年2月11日,美國總統(tǒng)特朗普簽署行政令,啟動“美國人工智能倡議”,該倡議的五大重點之一便是制定與倫理有關(guān)聯(lián)的人工智能治理標(biāo)準(zhǔn)。
2.歐盟
2018年4月8日,歐盟委員會發(fā)布《可信賴AI的倫理準(zhǔn)則》。《可信賴AI的倫理準(zhǔn)則》提出了“可信賴人工智能”的兩個重要組成、四項倫理準(zhǔn)則和7個關(guān)鍵條件:兩個重要組成包括尊重人權(quán)、法律和核心價值觀,應(yīng)確保技術(shù)的安全可靠,避免造成因技術(shù)不足而造成無意的傷害;四項倫理準(zhǔn)則包括尊重人自主性、預(yù)防傷害、公平性和可解釋性。七個關(guān)鍵條件包括人的能動性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉、問責(zé)機制,以確保人工智能足夠安全可靠。
(二)國外人工智能法律布局
目前,國外人工智能進(jìn)入到立法階段的重點領(lǐng)域是自動駕駛。
1.美國
2013年5月,美國就出臺了《關(guān)于自動駕駛汽車法規(guī)的意見》,明確規(guī)定自動駕駛汽車容許在美國發(fā)展和測試,在2017年7月,美國眾議院再次出臺了《自動駕駛法案》。除了國家層面,美國的許多州也對自動駕駛汽車測試、上路行駛紛紛立法,如內(nèi)華達(dá)州、佛羅里達(dá)州、加利福尼亞州等。
2.歐盟
在歐洲的大部分國家早在2014年已經(jīng)對自動駕駛汽車制定和出臺了相關(guān)的交通管理法規(guī),英國也與2015年1月出臺相關(guān)政策,容許自動駕駛汽車上路測試。測試過程中,自動駕駛汽車必須配有專業(yè)的駕駛員,遇到突發(fā)情況需要駕駛員及時操縱汽車予以應(yīng)對。隨后,瑞典、德國等國家也就自動駕駛汽車的路面測試和上路要求做出了類似于英國的規(guī)定,無人駕駛技術(shù)可謂穩(wěn)步的在歐洲推進(jìn)。
(三)我國人工智能法律與倫理發(fā)展情況
我國非常重視人工智能技術(shù)發(fā)展以及帶來的倫理法律問題,強調(diào)在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風(fēng)險挑戰(zhàn)。 2017年頒布的《新一代人工智能發(fā)展規(guī)劃》明確指出,“強化數(shù)據(jù)安全與隱私保護(hù),為人工智能研發(fā)和廣泛應(yīng)用提供海量數(shù)據(jù)支撐”以及“促進(jìn)人工智能行業(yè)和企業(yè)自律,切實加強管理,加大對數(shù)據(jù)濫用、侵犯個人隱私、違背道德倫理等行為的懲戒力度” [3]。中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟制定了《人工智能行業(yè)自律公約》,至2020年7月,已有50家單位簽署[4]。在強人工智能方面,相對歐美,我國在政策層面更專注于強人工智能可行性技術(shù)路線的探索研究,但針對強人工智能安全與健康發(fā)展的遠(yuǎn)期布局,還需從技術(shù)、倫理等方面做更前瞻的統(tǒng)籌安排。
三、幾點思考
科學(xué)成果能否造福于人類,除了技術(shù)本身的不斷進(jìn)步之外,還需要充分尊重人類社會的倫理道德和法律邊界。因此,在充分肯定人工智能對解放人類生產(chǎn)力所帶來的重大便利的同時,必須高度重視人工智能技術(shù)所帶來的倫理安全風(fēng)險和法律空白,為未來的人工智能技術(shù)構(gòu)建合理、完整的倫理框架,提供行之有效的倫理指南和法律依據(jù)。
(一)持續(xù)推動人工智能各領(lǐng)域立法
我國人工智能立法已進(jìn)入深入推進(jìn)階段,個人信息保護(hù)、數(shù)據(jù)安全等方面已經(jīng)有了相應(yīng)的法律法規(guī)。需要進(jìn)一步根據(jù)人工智能新業(yè)態(tài)新模式的發(fā)展,加快對現(xiàn)有法規(guī)的調(diào)整、修訂和完善。地方、行業(yè)與國家在不同層面分別發(fā)揮立法支撐作用,在比較成熟的人工智能行業(yè)可以先行推出行業(yè)標(biāo)準(zhǔn),地方出臺符合本地實際的正常規(guī)定,最后在國家層面及時總結(jié)地方和行業(yè)實踐經(jīng)驗,推動相關(guān)領(lǐng)域立法。
(二)完善人工智能的監(jiān)管與評估
加強有關(guān)人工智能倫理與法律的理論研究,探索監(jiān)管評估具體措施。對于事關(guān)人類整體安全和人民生命安全的人工智能高端綜合應(yīng)用系統(tǒng)與平臺(如機器學(xué)習(xí)平臺、大型數(shù)據(jù)平臺等)、核心技術(shù)和軟硬件(如先進(jìn)機器學(xué)習(xí)、魯棒模式識別、低功耗智能計算芯片),完善涉及倫理規(guī)則和法律合規(guī)的監(jiān)管。謹(jǐn)慎開展、重點關(guān)注具有自我復(fù)制或自我改進(jìn)能力的自主性人工智能的安全問題,持續(xù)評估可能出現(xiàn)的失控性風(fēng)險。
(三)推動人工智能倫理法律的綜合治理
構(gòu)建算法模型安全、數(shù)據(jù)安全與隱私保護(hù)、基礎(chǔ)設(shè)施安全、產(chǎn)品和應(yīng)用安全、測試評估安全等人工智能安全標(biāo)準(zhǔn)體系與評估規(guī)范。加強頂層設(shè)計,將人工智能法律倫理層面工作與人工智能開發(fā)應(yīng)用統(tǒng)籌推進(jìn),加強各部門、各地區(qū)、跨行業(yè)的協(xié)同合作,健全相應(yīng)的工作聯(lián)動機制和協(xié)調(diào)程序。建立人工智能的倫理道德規(guī)范標(biāo)準(zhǔn),發(fā)揮中國引領(lǐng)作用,積極參與國際法律政策制定。
作者單位:焦陽? ? 信息工程大學(xué)洛陽校區(qū)
參? 考? 文? 獻(xiàn)
[1] 人工智能:顛覆性創(chuàng)新還是文明終結(jié)者?.新華社. http://opinion.people.com.cn/GB/n1/2017/0829/c1003-29501377.html.2017
[2] 人工智能續(xù)寫貝多芬生前未完成的《第十交響曲》.CSDN社區(qū). https://blog.csdn.net/HyperAI/article/details/103573167
[3]國發(fā)〔2017〕35號,《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》
[4] 《人工智能行業(yè)自律公約》. 中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟. http://aiiaorg.cn/uploadfile/2019/0808/20190808053719487.pdf