陶海燕,周吉銀
(1 陸軍軍醫(yī)大學第一附屬醫(yī)院健康管理中心,重慶 400038,252905109@qq.com;2 陸軍軍醫(yī)大學第二附屬醫(yī)院國家藥物臨床試驗機構,重慶 400037)
谷歌人工智能AlphaFold和打敗圍棋高手的AlphaGo可謂孿生兄弟,2018年11月2日AlphaFold在極其困難的任務中擊敗了所有對手,成功根據基因序列預測了蛋白質的三維結構。作為一項基礎技術,AlphaFold被稱為人工智能研究推動和加速新科學發(fā)現方面的“第一個重要里程碑”[1]。2019年8月《科學》雜志的一篇文章稱超級人工智能在人類頂級專業(yè)撲克游戲(六人無限制德州撲克)中的表現強于頂尖人類選手,玩多人撲克是人工智能進步里程碑的標志之一[2]。Insilico Medicine公司利用其開發(fā)的人工智能系統來構思和設計新的藥物分子結構僅需21天,合成并在小鼠中成功測試了一種主要候選藥物,其設計、合成和驗證總計約46天[3]。
近年來,知名互聯網公司強勢布局人工智能領域,如,谷歌相繼收購了以DeepMind、Kaggle為代表的人工智能公司,國際商業(yè)機器公司(IBM)打造了Watson平臺,百度進軍無人駕駛汽車,阿里打造“城市數據大腦”,騰訊公司成立人工智能實驗室。我國人工智能研究質量不斷提高,但在高影響力論文、人才和倫理方面仍需進一步提升[4]。我國在計算機視覺、語音識別和自然語言處理方面擁有世界領先的公司,但在塑造人工智能核心技術工具、制造具有人工智能功能的半導體芯片和設計可支持高級人工智能系統的計算芯片專家方面也不斷突破。我國可能需要5~10年才能達到美國和英國的基本理論和算法的創(chuàng)新水平[4]。到2017年底,我國擁有的人工智能科學家和工程師人數排名第二,但頂級人工智能研究人員僅排名第六[4]。
人工智能的設計者、管理者、使用者和受用者未深入思考對社會的潛在影響。鑒于人工智能算法的不透明性、不可解釋性帶來的不確定性風險,研究人員須負有相關責任。未來非常有必要思考怎樣將人工智能的治理原則切實貫徹到人工智能的整個生命周期(模型、產品、服務)。在自動駕駛、信息推送、虛擬現實等熱門領域,設計者在產品設計和業(yè)務運營中也應積極探索,讓人工智能提供的信息和服務助人成長。我國應加快人工智能倫理治理步伐,積極參與全球人工智能倫理準則的研究和制定,及早識別禁區(qū),更好地讓技術創(chuàng)新造福人類。
目前,大多數人工智能的研究都聚焦在狹義人工智能上,如自動駕駛汽車、會下圍棋的AlphaGo等。人工智能也許是唯一比基因編輯技術更能影響醫(yī)療領域的技術,主要應用于智能診療、智能健康管理、醫(yī)療機器人、智能藥物研發(fā)等。人工智能既能服務于個人和社會,也可能被濫用,引發(fā)安全、公平、算法透明、社會包容、網絡安全等挑戰(zhàn),也深刻影響人類尊嚴、隱私、歧視等基本權利[5]。人工智能換臉、聲音合成等人工智能技術的濫用,以及借助人工智能技術篩選受騙目標人群,讓電信網絡詐騙層出不窮,這些都有力證明人工智能的不合理使用將引發(fā)倫理和道德風險。
人工智能存在算法歧視導致的不公平,所訓練的“算法機器”無法達到萬無一失[6]。鑒于人工智能各方有不同利益訴求和立場,擁有者、設計者和使用者對人工智能的價值理念具有差異性。人工智能不是一個可預測的、完美的理性機器,其倫理缺陷由算法、使用目標和評估等決定,應足夠重視構建倫理準則以防范風險[7]。人工智能倫理準則是各國、各組織之間交流的重要議題。要研究讓機器自主學習人類價值觀以避免風險,這是人工智能最大的挑戰(zhàn)之一,迄今尚無一臺機器能真正基于理解實現自主學習人類的倫理道德。人工智能所引發(fā)的倫理治理挑戰(zhàn)是各國面臨的共同問題,需建立符合各國所需的倫理治理準則。
歐盟在人工智能倫理治理的規(guī)范上邁入世界前列。2019年4月,歐盟發(fā)布的《可信人工智能倫理準則》包含七個關鍵條件[8]。歐盟已將人工智能倫理打造成一個從宏觀的頂層價值到中觀的倫理要求,再到微觀的技術實現的治理過程。人工智能的挑戰(zhàn)具有全球性,任何國家都應負起各自責任。作為負責任的大國,我國正積極融入全球人工智能倫理治理,以期共享實踐經驗。2019年6月的《亞太及日本企業(yè)人工智能倫理道德研究》報告顯示,我國企業(yè)在運用人工智能指導方針及管理標準方面位居亞洲前列。2019年6月9日,G20通過了聯合聲明以及《G20人工智能原則》,是第一個由各國政府簽署的人工智能原則。上述各倫理準則都展現發(fā)展和安全的核心價值,即“鼓勵創(chuàng)新(發(fā)展)、包容審慎(安全)”,屬于目前人工智能發(fā)展最大的共識。
人工智能既需創(chuàng)新,又需監(jiān)管,其早期政策制定的難點在于如何平衡好創(chuàng)新和監(jiān)管。美國對人工智能的監(jiān)管是為了促進創(chuàng)新,以規(guī)避帶來抑制創(chuàng)新的負面影響。我國對人工智能的態(tài)度和立場更接近于歐盟。
近年全球醫(yī)療領域人工智能初創(chuàng)公司融資額遠超剩余行業(yè)的總額。人工智能增強醫(yī)療創(chuàng)新的步伐只會加速,在生物學的整合并非個例。為保持人工智能的發(fā)展優(yōu)勢,2018年4月英國議會發(fā)布《人工智能在英國:充分準備、意愿積極、能力爆棚?》的報告[9],隨后歐盟委員會發(fā)布戰(zhàn)略文件,從戰(zhàn)略角度定位人工智能價值觀,明確了人類優(yōu)先的價值觀,人工智能務必有益于社會和個人,在人工智能價值觀指引下發(fā)展全球人工智能。
為保持全球競爭力,多種人工智能醫(yī)療器械已獲美國食品藥品管理局的快速批準上市。以谷歌為首的人工智能團隊屢屢突破技術創(chuàng)新,已將其神經網絡用于探索醫(yī)療領域,在癌癥病理圖片識別、基因組突變檢測、疾病風險評估等諸多領域取得了等于甚至超過人類水平的成績。許多領域的人工智能技術還處于探索試驗階段,基本沒實施臨床研究。
美國人工智能技術全球領先,卻有不同的政策,倫理問題的討論相對偏少,謹慎立法和監(jiān)管,通過激勵企業(yè)自我約束、擬定倫理指南等以解決人工智能的價值觀挑戰(zhàn)和監(jiān)管[10]。即在技術早期鼓勵百花齊放,政府從“輕”管理,大力投資于技術發(fā)展和創(chuàng)新,確保在基礎研究和應用研究之間的對話。隨著技術的出現與成熟,如何將人工智能納入已有的監(jiān)管結構中成了一個更為棘手的問題,政府需要介入更多。
2016年9月,美國著名科技公司亞馬遜、谷歌、微軟、IBM和Facebook聯合成立非營利性合作組織,商討人工智能的行業(yè)規(guī)范和標準。隨后美國未來生命研究院提出“阿西洛馬人工智能原則”的23條準則,明確人工智能的研發(fā)要遵守為人類做貢獻、安全、負責、透明、可解釋和多數人受益等原則[11]。2018年3月26日谷歌公司成立“全球技術顧問委員會”,其外部專家監(jiān)督谷歌公司在應用人工智能等新技術時,遵循倫理準則的依從性。以期作為獨立的監(jiān)督機構,更“負責任”的開發(fā)和使用人工智能及相關技術產品,思考人臉識別、機器學習算法等人工智能技術應用中的倫理問題并提出建議[12]。顧問委員會2019年專家專業(yè)囊括全球知名高校和科研院所的哲學、計算機和公共政策等領域。但由于倫理委員會一成員的觀點與谷歌價值觀不合,谷歌員工提出抗議,導致2019年4月5日該委員會解散。
我國人工智能戰(zhàn)略文件多有涉及法律、倫理等反映人工智能價值觀的制度安排。國家標準化管理委員會發(fā)布《人工智能標準化白皮書2018》,首次從國家層面明確我國人工智能的為人類服務原則和責任原則。2018年7月我國發(fā)展研究基金會發(fā)布報告《未來基石——人工智能的社會角色與倫理》,提出一系列人工智能的倫理建議,也推動了倫理問題的討論。
百度創(chuàng)始人李彥宏在2019年全國兩會上提案,建議在政府主管部門牽頭下,由跨學科領域的行業(yè)專家、人工智能企業(yè)代表、行業(yè)用戶和公眾等研究人工智能倫理,并從頂層設計,以期加速行業(yè)健康發(fā)展,主動迎接人工智能技術革命。2019年6月17日發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,國家新一代人工智能治理專業(yè)委員會提出8條人工智能的治理原則,即和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作和敏捷治理[13]。
但我國人工智能的倫理治理框架僅具備原則性指向,還不夠成熟。我國學界已有的不少研究,但與國際接軌程度不高。我國缺乏研究人工智能倫理治理的政策,未有效對接、轉化和落地我國人工智能發(fā)展規(guī)劃中的倫理建設內容。為此,需對接國際加速我國人工智能的倫理治理。
人工智能邁入嶄新發(fā)展階段,具有人機協同、跨界融合、群智開放等特點,正深遠影響人類生活。人工智能帶來諸多倫理挑戰(zhàn),可采用明確人類優(yōu)先、代表性樣本和研究者以規(guī)避偏見、故障透明且可追溯原則、研發(fā)生產銷售的全過程監(jiān)管、立法以健全監(jiān)督管理體系、規(guī)范以明確道德倫理邊界、通過教育提升公眾認知水平、限制壟斷數據和全球治理以共同應對挑戰(zhàn)等[5]。雖然當前各國、企業(yè)和研究者未就人工智能的控制和發(fā)展達成共識,但“為人類服務”是被共同認可的標準。
當前社會各界逐漸意識到人工智能的潛在風險,對其治理的呼聲很高,也陸續(xù)出臺越來越多的治理原則或應用準則,有助于引導行業(yè)健康發(fā)展。但這些治理原則或應用準則無法律強制力和約束力,且無責任范圍。我國人工智能倫理治理原則專門關注國際協作,共同維護人工智能的發(fā)展??商貏e從以下多方面增進我國人工智能倫理治理的建設。
與人工智能交互的人類必須擁有充分且有效的自我決定能力,人工智能系統應遵循以人為本的理念,服務于人類、增強人類的認知并提升人類技能。人工智能存在的價值是教人學習、讓人成長,而不是超越人、取代人。如果想要人工智能突破性技術符合多元文化價值觀,政府的資助是必需的。如果政府沒有參與資助,技術中的價值觀會跑偏。政府的資助也可確保研究結果被共享,而不被某一組織商業(yè)化。積極應對經濟變革,提升教育和培訓體系,使之與時代發(fā)展步伐相一致;及時監(jiān)測勞動力市場變動,為過渡期失業(yè)者提供支持,培養(yǎng)多元化、跨學科人才。提升技術和產業(yè)能力,促進人工智能技術廣泛滲透到各行各業(yè)。人工智能使資源節(jié)約和環(huán)境友好;規(guī)避平臺與數據壟斷,鼓勵公平競爭。
人工智能算法的準確性依賴于海量數據的獲取和計算,個人信息日漸被數據化、被自動采集和分析及商業(yè)化,隱私泄露風險大增,已有法律法規(guī)無法有效保護已泄露的個人信息。鑒于人工智能的深度學習需大量數據,數據的開放和共享尤為關鍵,需各國政府攜手共享公共數據以加快人工智能的訓練和測試。過去15年里歐盟已多次開放和再利用公共數據和政府資助的研究成果,也將出臺醫(yī)療健康數字化轉型政策(包括分享基因數據及其他醫(yī)療數據)。公共政策還應鼓勵更廣泛地分享私人所有的數據,與此同時,需要遵守關于個人數據保護的法律政策,如遵守歐盟《通用數據保護法案》,以保護個人信息[14]。因此,人工智能的發(fā)展要基于尊重和保護個人隱私,保障個人知情權和選擇權。在個人信息的采集、存儲、處理、使用等環(huán)節(jié)應設置邊界,形成規(guī)范。完善個人數據授權撤銷機制,打擊任何竊取、篡改、泄露和其他非法收集利用個人信息的行為。
人工智能的可解釋性、透明性、可控性和可靠性應不斷提升,以期能審核、預防、監(jiān)督、追溯、信賴。人工智能的安全尤其重要,重點關注魯棒性和抗干擾性,評價其安全性和可控性。人工智能算法的透明性仍是主要挑戰(zhàn)之一。當前人工智能深度學習算法的自適應性尚無法解決實時變化的噪聲、環(huán)境及惡意攻擊。描述真實世界的數據是最理想的算法學習數據庫,但實際訓練用的數據庫較片面化、理想化,不同于真實世界的多變性、復雜性。2019年10月《科學》雜志報道,一個衛(wèi)生系統廣泛使用的算法存在明顯的偏見。產生該偏見源于算法預測的是醫(yī)療費用而非疾病??梢姡J為選擇容易獲取的貌似合理真實數據可能是算法偏見的一個重要來源[6]。
人工智能企業(yè)要履行其社會責任,才真正達到了負責任的人工智能要求。人工智能技術的使用導致責任主體難以追究,導致執(zhí)法成本過高。人工智能擁有者、設計者、使用者應具備一定的自律意識和社會責任感,嚴守法規(guī)、倫理準則和規(guī)范。推行問責制,明確擁有者、設計者、使用者各自責任。應預防人工智能被用于非法活動。在構建人工智能平臺時,企業(yè)往往不知道用戶會如何使用平臺。應設計使人工智能系統可自動檢測、警示和規(guī)避濫用,這是人工智能制造者和設計者繞不開的問題。
人工智能產品并不是法律意義上的主體,暗箱算法的可解釋性不強,難以按照現行法規(guī)追溯事故責任主體。由所有參與到人工智能產品的發(fā)明、授權和分配過程中的人來分擔責任。這就要求人工智能系統必須能夠在算法和運行層面追溯問題的來源,從而確定相關責任主體。算法問責要基于算法透明,算法透明并非指讓公眾了解算法的各個技術特征。對算法功能的廣泛理解無益于實現算法問責,簡短、標準化且涉及可能影響公眾決策或提升公眾對算法系統的整體理解的信息內容的披露更有效。通過解釋某結果如何得出以實現透明,將使當前人工智能系統面臨極大技術挑戰(zhàn),也大大限制人工智能的應用;反之,在人工智能系統的行為和決策上實現有效透明將更可取,更能顯著提高效益。
尊重人工智能發(fā)展規(guī)律,創(chuàng)新有序發(fā)展與發(fā)現、解決風險并行。優(yōu)化管理完善治理,使其貫穿于產品和服務的全生命周期。研究和預判更高級人工智能的潛在風險,負責任地確保其長遠發(fā)展真正有益于人類、社會和生態(tài)?,F存的倫理準則對人工智能領域來說是不夠的,包括《赫爾辛基宣言》、《貝爾蒙特報告》及《阿西洛馬人工智能原則》。應積極考慮對人工智能準則、政策法規(guī)等的適應性修訂,使之適應人工智能的發(fā)展。如文化信仰、風俗習慣和社會經濟背景影響各國人民的不同愿望和需求,各國政府應組建各自審議機構,積極組織社會各界代表公開討論,決定如何將這些倫理準則納入具體的政策法規(guī)[15]。
鼓勵人工智能企業(yè)組建倫理委員會,制定倫理指南以引導、約束其人工智能研發(fā)者及其研發(fā)應用活動。即人工智能的倫理治理不可只停留在抽象原則的層面,要融入不同主體、不同層次的實踐活動,使之成為有生命的機制。具體要管好重點行業(yè),要在符合法規(guī)、遵守倫理的條件下,加強監(jiān)管視覺識別、用戶畫像、精準推送、虛擬助理等人工智能技術應用的重點行業(yè),強化商業(yè)APP規(guī)范管理,防范侵犯消費者權益的惡性事件。
人工智能企業(yè)界無法獨自解決人工智能給人類社會帶來的復雜問題,組建人工智能研究院有助于加速其倫理問題的研究,特別是人工智能應用和影響層面的基本問題。相關人員應深入了解人工智能,相關部門需要設立專項資金,資助高校和研究機構前瞻性地研究人工智能的倫理問題,有助于倫理規(guī)范和制度的適時修改。2018年美國麻省理工學院籌資10億美元新建人工智能學院,主要研究人工智能的公共政策及倫理問題。同年,斯坦福大學組建人工智能研究院,旨在加快研究人工智能對社會的影響。2019年3月德國慕尼黑工業(yè)大學與Facebook共建人工智能倫理研究所,研究人工智能帶來的倫理挑戰(zhàn),從技術和倫理層面審查人工智能領域的項目,以期為社會、人工智能行業(yè)和立法部門提供參考。
鼓勵跨國、跨區(qū)、跨學科、跨領域的合作交流,推動國際組織、政府部門、科研機構、教育機構、企業(yè)、社會組織、公眾積極參與人工智能發(fā)展與治理中的協調互動。國際合作和對話,尊重各國治理原則和實踐,形成廣泛共識的國際治理框架和標準規(guī)范。應協同推進我國新一代人工智能倫理與治理研究,使其逐步與國際接軌,共享我國人工智能倫理治理實踐經驗。
人工智能將使人類社會駛向不確定性的未來,適時建立人工智能倫理治理準則,有助于其行穩(wěn)致遠?;谌斯ぶ悄軡撛陲L險和受益,必須隨著科學研究和技術發(fā)展,適時考量倫理,逐步修改人工智能的倫理治理準則。這不僅需要人工智能行業(yè)人員主動參與,更需跨學科、社會、政治和國家的界限,以多方協作的負責任方式,讓全部個體、群體和區(qū)域均參與技術發(fā)展過程,以期使技術造福于人類。為人類服務是發(fā)展人工智能要堅守的一個共識,英國和歐盟先后發(fā)布報告,均從戰(zhàn)略高度定位了“以人為本”的人工智能價值觀。在我國具備人工智能技術和產業(yè)優(yōu)勢基礎上,期待我國人工智能的倫理治理能影響世界人工智能技術的發(fā)展。