“控制既是效果也是導因,而認為控制是某種由你來施展的概念是對于進步的真正阻礙?!?/p>
一份文件、巨大挑戰(zhàn)
國務院在2017年7月8日印發(fā)了一份名為《新一代人工智能發(fā)展規(guī)劃》的通知,正式把以人工智能為導向的科技與經(jīng)濟發(fā)展列為中國未來的專注焦點,列入國家戰(zhàn)略層面的系統(tǒng)布局,希望能借此強化自身的國際競爭力。其中,人工智能發(fā)展的戰(zhàn)略目標是分成三個階段:首先要求人工智能的總體技術和應用到2020年與世界先進水平同步,相關產(chǎn)業(yè)成為新的重要經(jīng)濟增長點,而相關技術應用要成為改善民生的新途徑;繼而要求人工智能的基礎理論到2025年實現(xiàn)重大突破,其中的部分技術與應用要達到世界領先水平,并成為帶動產(chǎn)業(yè)升級和經(jīng)濟轉型的主要動力;最終則是要求人工智能的理論、技術與應用總體在2030年達到世界領先水平,成為世界主要人工智能的創(chuàng)新中心,并讓智能經(jīng)濟、智能社會取得明顯成效,為躋身創(chuàng)新型國家前列、成為經(jīng)濟強國奠定重要基礎。1
《通知》對整個社會提出了一系列的巨大挑戰(zhàn):人們必須有效運用以工智能作為未來社會經(jīng)濟發(fā)展的基礎,否則即可能在競爭中面臨被淘汰的命運。這意味著人們?nèi)粘I钆c行為模式的各種基礎設施,今后或將面臨一次乃至多次大規(guī)模的更新改版。例如,所有的鍋碗瓢杓、家用電器等日常用品以及各種交通工具都將全面“智能化”,給人們帶來前所未見的便利。
然而,這也意味著許多前未曾見的問題與挑戰(zhàn)將會出現(xiàn)。因此,《通知》明確要求必須“制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”,包括“相關法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。開展與人工智能應用相關的民事與刑事責任確認、隱私和產(chǎn)權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等。重點圍繞自動駕駛、服務機器人等應用基礎較好的細分領域,加快研究制定相關安全管理法規(guī),為新技術的快速應用奠定法律基礎?!?
道德制約與法律原則
早在近代對人工知能的探索剛剛萌芽的1942年,科幻小說家艾薩克·艾西莫夫(Исаак Ю?дович Ози?мов or Isaac Asimov,1920-1992,見左下圖(圖片來源:互聯(lián)網(wǎng)))已在他的小說中闡述了所謂的“機器人三定律”(Three Laws of Robotics)或“艾西莫夫法則”(Asimovs Laws):一、機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;二、除非違背第一法則,機器人必須服從人類的命令;三、在不違背第一及第二法則下,機器人必須保護自己。3
后來經(jīng)過一系列的調(diào)整,到了1985年出版的《機器人與帝國》(也是艾西莫夫的最后一部科幻小說)中,他又進一步把“艾西莫夫法則”演繹為對機器人的四項定律。它們是:第零法則:機器人不得傷害人類族群,或因不作為(袖手旁觀)使人類族群受到傷害;第一法則:除非違背第零法則,機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;第二法則:除非違背第零或第一法則,機器人必須服從人類的命令;第三法則:在不違背第零至第二法則下,機器人必須保護自己。4
艾氏創(chuàng)造出這四項法則的原意主要是為了他的小說提供必要的框架,而其本人也對這四項法則在具體的實踐上如何能夠緊密無縫地協(xié)調(diào)操作也表達了某種程度的懷疑。5但它們還是產(chǎn)生了巨大的影響,也成為歐洲聯(lián)盟機器人民事法規(guī)則委員會(EU Commission on Civil Law Rules on Robotics)在2015年向歐洲議會所提呈的一項決議與相關建議事項(草案)的基礎。6
歐盟議會已于2017年2月16日以396:123票、85票棄權正式通過了這項名為《機器人民事法規(guī)則》(Civil Law Rules on Robotics,以下簡稱歐盟《機器人規(guī)則》)的決議。7決議本身并無法律效力,還需要歐盟議會與歐盟理事會(European Council)依據(jù)“一般立法程序”(ordinary legislative procedure)的要求先責成歐盟委員會(European Commission)依據(jù)決議中的建議事項提出具體的立法草案,然后再由兩個部門分別通過;如果委員會決定不采取那些建議事項時,就必須向理事會及議會提出報告和說明。8另外必須特別指明,這個《決議》只是要求對人工智能的“民間使用與開發(fā)”(civil use and development)予以規(guī)制,軍事性的發(fā)展與用途顯然不在其列。
決議在《一般原則》部分的第一條(前言第T段)明確采納了“艾西莫夫法則”。但由于這些要求并不能真正被轉化為機器語言或代碼,因此還是只能對從事人工智能“機器人”的設計者、生產(chǎn)者與操作者而設。換句話說,整套《機器人規(guī)則》實際上的立足點還是對自然人所設置的基本道德規(guī)范,在具體的執(zhí)行上目前還有著一定程度的困難,畢竟人類的道德判斷與價值觀本身就不是統(tǒng)一的,而且可以因時、因地、因人而異,非常錯綜復雜。9緊接的第二個原則一方面要維系對于危險承擔、侵權責任與透明度的傳統(tǒng)規(guī)制,另一方面又需兼顧與機器人的研究、創(chuàng)新和開發(fā)之間的相互平衡,便不難看出其中的微妙性與復雜性,尤其是其要強調(diào)對于“人工智能”的開發(fā)應聚焦于如何補強人類的能力(complimenting human capabilities)而非取代人類。
這意味著在具體的法律制定上,必須采取穩(wěn)扎穩(wěn)打、步步為營、謹小慎微的態(tài)度與做法,在沒有經(jīng)過充分的風險與效益評估之前絕不能躁進或冒進。10《決議》建議要對于“智能機器人”建立通行于歐盟地區(qū)的一套完整注冊登記制度以便于管理,并從制定下列的若干法規(guī)開始:
(一)機器人工程人員的道德行為規(guī)范;
(二)相關倫理道德研究委員會的規(guī)范;
(三)設計者的認證許可;
(四)使用者的認證許可。endprint
當以上法規(guī)制定完成后,人們方再根據(jù)“機器人”與“人工智能”的實際發(fā)展狀況,適時從民事相關責任的角度推出對應的規(guī)制?!稕Q議》在此等于確立了一個根本原則:人工智能無論如何發(fā)展,最終要受到法律規(guī)制的依然是人(無論是自然人或法人)而不是任何的機器或裝置,也因此,最終如有任何可能獲得某種權利但也同時要承擔相關風險與法律責任的,也必須是人而非任何的機器或裝置。否則,機器或裝置作為可獲取權利的工具,卻也可能成為人類推卸責任的“替罪羔羊”,這絕不是任何立法所希望發(fā)生的情形。既有的科技法律規(guī)制一向采取“技術中立”的立場,上述基本原則不但符合此一立場,維持了整個法制體系的一致性,也是讓相關的研發(fā)得以持續(xù)進行的重要保證,不至于讓相關的人員與市場無所適從。11
“人工智能”如何定義?
既然要考慮對“人工智能”所可能會產(chǎn)生的問題給予某種法律規(guī)制,那么首先必須處理的就是人工智能的定義問題。歐盟議會的《決議》已責成歐盟委員會對于網(wǎng)絡物理體系(cyber physical systems)、自動化系統(tǒng)(autonomous systems)、智能自動化機器人(smart autonomous robots)以及它們的附屬類型等提出適用于整個歐盟的一般性定義?!稕Q議》并列出了五個關于“智能機器人”(smart robot)的特征來做為考量:
(一)通過感應器和/或與其周圍環(huán)境的信息交換(互連性interconnectivity)所獲得的自我管理能力(autonomy)以及對于這些信息的交換與分析;
(二)從經(jīng)驗與互動中的自我學習(可供選取的非必要條件);
(三)至少具有少許的物理支持(a minor physical support);
(四)使其行為與行動適應于周圍的環(huán)境;
(五)不具備生物學意義上的“生命”。
在歐盟內(nèi)部針對這個《決議》草案文本所提出的相關論證報告中,可以看到從一開始人們在名稱的使用上便產(chǎn)生了相當大的爭議。報告認為,使用“智能機器人”這樣的名稱本身就具有極大的挑戰(zhàn)性,因這為會誤導人們認為相關技術的發(fā)展將與文明社會直接產(chǎn)生沖突。報告建議考慮僅使用諸如“自我管理性機器人”(autonomous robot)等較具關聯(lián)性的名稱(但這類建議最終顯然未被接受)。此外,基于科學與文化的理由,報告認為在《決議》中提及所謂的機器人意識與“艾西莫夫法則”是錯誤的,因為那只是作為小說的架構基礎,在先天上就注定會有相當程度的含混不明之處,完全不適宜作為法律的規(guī)制;而且那也僅是針對機器的操作功能而設,事實上既無法轉化為可供操作的機器語言,也無法對從事設計的工作人員做出有效的規(guī)制。12
此外,上述所列舉的五項特征顯然避開了一個關鍵而困難的考量因素:人為控制。究竟一個機器或裝置要在何種程度上擺脫人為或外部的控制(取得獨立性),才算是具備了“人工智能”?這一問題恐怕在先天上和技術上就寓含了許多難以解決的困難。例如,從事醫(yī)療的納米裝置(nano-devices),其本身就同時具備了偵測、器官修補與施打藥物等多重功能。這樣的裝置也是一種超微型機器人,每一個單位都蘊含了相當規(guī)模的大數(shù)據(jù)和自我操作能力。這種裝置大量注射到人體中后,可以直接穿透細胞壁與細胞膜,而與細胞核內(nèi)的去氧核糖核酸產(chǎn)生互動,從而進行標靶式的精準治療。但也正是如此,就更加需要外在的人為監(jiān)督與控制,以確保整個操作在有序的狀態(tài)下進行。換句話說,表面上這些微型機器人在血管里跑來跑去,貌似在做它們自己該做的工作,沒有受到任何控制;但從某一個角度來說,控制發(fā)生在機器人注射到身體之前,計算機程序從一開始就設定了機器人可操作的范圍,那么在這種情形中,可否視為機器人仍然受到某種控制?
“人工智能”是否應賦予“人格”?
參酌美國聯(lián)邦政府的分析,當前關于“人工智能”的研究與發(fā)展已經(jīng)經(jīng)過了兩波的發(fā)展,而目前很可能正在展開第三波的進程。13實際的情況是,“人工智能”還都是為了服務于人而設(因此與其照英語的字面翻譯為“人工智能”,倒不如稱為“智能人工”更為貼切),所有的“人工智能”或“智能機器人”在先天的設計與定義上最終都不能完全擺脫人的控制,從而至少在可見的未來,在法律規(guī)制上也難以享有獨立的“人格”。如同所有人在生理上的各項感知與功能都由自主與非自主兩個系統(tǒng)所組成,兩者必須相互搭配、相輔相成。但在法律規(guī)制上,并不因為另有一個極為精巧、平行存在而且?guī)缀跬耆皇軅€人意志控制的非自主神經(jīng)系統(tǒng),法律就必須賦予每個人兩個人格權。“人工智能”就猶如人類非自主神經(jīng)系統(tǒng)與功能的延伸。
從一個反向的視角來思考,在探討究竟是否要對“人工智能”賦予任何法律地位乃至權益之前,或許需要處理的先決問題是:一旦人工智能造成了問題或損害,如果能夠證明其符合侵權行為的要件,那么究竟應該由誰來承擔風險與損害賠償責任?須知機器或裝置完全沒有辨別是非的能力,更無從“了解”其從事特定工作或行為的性質(zhì)為何,完全不具有任何能夠承擔責任的“健全神智”(sanity)或“行為能力”可言。對于人的行為(作為或不作為),法律也需要先確定當事人具有行為能力才課以相應的義務與責任。所以,至少在可預見的未來,具有“人工智能”的機器或裝置本身是既不需要也根本無法承擔危險或肩負責任的。
接下來的問題是:對于幼兒或心智耗弱的人而言,雖然法律上只給予限制行為能力,但基于人人平等與保護社會弱勢族群的基本公共政策,法律仍對未成年人賦予人格權與受限的財產(chǎn)權,在具體的權利行使上則必須經(jīng)由其監(jiān)護人的許可。14那么對于“人工智能”而言,是否也要將其視為“弱勢族群”而給予相當于未成年人的人格與財產(chǎn)權保護,然后由其開發(fā)者或所有人來擔任“監(jiān)護人”,承擔部分或全部的義務與責任?無論采取何種政策,都將對未來的法制發(fā)展造成相當大的沖擊。不過至少在特定機器或裝置所能處理的范圍內(nèi)而言,其強大的功能,恐怕會使得人們很難再將它們視為“弱勢”了。endprint
“人工智能”能否開創(chuàng)知識產(chǎn)權?
可以確知的是,“人工智能”在可見的未來仍將只作為輔助性的工具。固然對于“人工智能”本身的開發(fā)、設計、后臺的軟件操作程序等等或有可能獲得專利權、著作權或是商業(yè)秘密的保護,那么,人工智能所開發(fā)或生成的作品是否能夠享有知識產(chǎn)權呢?
以著作權為例。《伯爾尼公約》在第一條便開宗明義地指出,該公約是“為保護作者對其文學和藝術作品……”而制定的,通說認為這就已經(jīng)明確了著作權的保護制度是為了保護自然人(作者)的創(chuàng)意作品而設。15美國版權局在其最新(第三)版的《美國版權局實踐指南》中也特別表明了此點,并針對猿猴自拍照所產(chǎn)生的問題例示其不受著作權的保護。16因此,除非特定作品能具體指向特定的“人”為其作者,目前在美國,凡是純粹由“人工智能”所開發(fā)出來的創(chuàng)作都無法獲得著作權而直接進入公共領域。歐盟議會的《決議》只是提出了一些呼吁其委員會未來在擬議立法草案時應該在知識產(chǎn)權方面注意到的一些基本事項,但并未直接觸及這個問題。
對此,已有中外學者認為,由“人工智能”所生成的內(nèi)容只要符合了“獨創(chuàng)性”的要求,就可視為代表其設計者或開發(fā)者的意志所產(chǎn)生的創(chuàng)作,并由該“人工智能”的所有人(包括投資人)或開發(fā)人獲得著作權,否則在欠缺激勵的情況下,“人工智能”的所有人或開發(fā)人將欠缺甚至不再具有持續(xù)投入研發(fā)的積極性(有些類似“職務創(chuàng)作”的概念)。17不過這個主張恐怕還需要克服一些難點:既然“人工智能”是通過摘取并組合相當數(shù)量的人的知識、意見、思維與觀點等所匯集而成的大數(shù)據(jù)所組成,那么是否所有(或至少是“主要”)的“貢獻者”也應該被視為共同的開發(fā)者,從而相關的任何權益(包括著作權)也應該由他們來共享?反過來說,如果主要的參與者或貢獻者無法從中獲得相應或符合一定比例的權益,那么是否也會導致他們因為欠缺激勵而失去參與的積極性?然而如果一項權利是由多數(shù)人所共享,是否又意味著該權利名存實亡,因為這很容易大幅增加交易成本,從而導致難以從事后續(xù)性的許可或其他使用(至少潛在的合作對象很可能會望之卻步)?無論如何,這是個非常值得關注的問題。由于知識產(chǎn)權一向關乎非常微妙的動態(tài)性平衡,相關舉措必須謹小慎微、步步為營,尤其需要借助各種的實證調(diào)研與分析來論證。另外必須注意的,前述相關問題是未來全球都要面對的挑戰(zhàn),閉門造車無益于解決問題,人們應通過國際性的對話機制(例如世界知識產(chǎn)權組織或世界貿(mào)易組織等)來集思廣益。
控制與便利的平衡
最近的一條流行語是“未來已來”,用這四個字形容“人工智能”領域尤其貼切,而“未來來自過去”的說法則與其更加貼合。人類對于數(shù)據(jù)信息的儲存和使用可以至少上溯到一萬八千多年以前18,而現(xiàn)代意義上的“大數(shù)據(jù)”使用(運用計算機技術)則可至少追溯到1881年美國聯(lián)邦政府對人口調(diào)查數(shù)據(jù)信息的處理。19到了二十一世紀,我們更是見到了數(shù)據(jù)信息的爆量產(chǎn)出。谷歌公司的原行政總裁艾瑞克·史密特(Eric Schmidt)曾在2010年的“科技經(jīng)濟會議”(Techonomy Conference)的演講中表示,截至當時,人類每兩天所創(chuàng)造出的數(shù)據(jù)或信息量就等同于人類文明創(chuàng)始到2003年的信息總量。20時至今日,信息量的飆速累積更是遠遠超出了人們的想像。
物極必反,對所有的政府、企業(yè)、研究機構乃至消費者而言,在面對不可思議的浩繁數(shù)據(jù)信息之時,必然無可避免地會遭遇到兩難境地:如果真能坐擁天下所有的信息,事實上卻形同一無所知,因為如此龐大的信息量只會讓人茫然不知所從;反之,如果沒有辦法掌握到任何的信息,也自然形同盲啞喑聾,無法做出正確的研判,讓自己失去競爭力。21因此如何能去蕪存菁,在這兩者之間找到一個符合成本效益的平衡,并做好系統(tǒng)性的管理、分析,已經(jīng)成為所有人都無法回避的挑戰(zhàn)。從社會公益的立場而言,前述問題也成為如何避免加劇貧富與文化、教育差距的試金石。
對于所有的消費者而言,將來“所有權”的概念恐將益加“空殼化”,表面上的“擁有”已經(jīng)不再具有如何實質(zhì)性的意義。例如,以往購買鍋碗瓢杓起碼可以用上十年甚至更久,對于制造商這都屬于“耐久性”的產(chǎn)品(durable goods),必須不斷去開發(fā)新的消費族群才能維持一定的運營。但是在可預見的未來,由“人工智能”作為后臺支撐的“智能產(chǎn)品”,為了讓鍋與爐灶能夠連通對話、控制火候,所有的鍋爐都會加裝芯片并受到來自某個“云”的軟件程序所操控,而且不定期就必須有所更新。結果一個本來可以用到十年的鍋,卻可能因為相對應的軟件不再支持,而每隔三、五年就得更換一次。此時“耐久性”已在不經(jīng)意間轉化成了“更新性”,制造商可以取得更多次的獲利。所有權被“知識產(chǎn)權化”,各種買賣實際上逐漸被“使用許可”給替代,對于任何產(chǎn)品的使用方式與持續(xù)時間都掌握在他人的手中,并依靠各種智能軟件的平臺和運算來“決定”,無論是鍋碗瓢杓、打印機或是電子書,乃至出門乘坐的交通工具,甚至自己的居所等等,將莫不如此。
這樣的產(chǎn)品“購買”(或“許可”使用)與使用方式其實早已行之有年,上述對智能產(chǎn)品的描述,不正是目前人們對于智能手機、電腦與打印機等裝置使用方式的寫照?而其背后最重要的操作,就是通過對個人或其他各種相關信息的獲取(從而可以累積為所謂的“大數(shù)據(jù)”)來換取更為精準到位的服務。換句話說,這就是消費者必須放棄對各種信息的控制,或是說讓廠家取得對信息更多的控制來換取自身的便利(雖然有的功能消費者可能完全不需要)。同樣的情況更凸顯在以“共享”為標榜的服務上?,F(xiàn)時風靡的“共享單車”很可能只是未來“共享汽車”(而且是自動駕駛)乃至其他各種大眾服務的序曲。22為了競爭,通過“人工智能”對大數(shù)據(jù)的操作管理,每一輛到府接送的自動駕駛汽車都將走向完全為使用者量身訂制的“客制化服務”,當乘客上車時可能會發(fā)現(xiàn)車內(nèi)已調(diào)整為乘客所喜好的顏色、座位距離、溫度與濕度,乃至于播放乘客所喜歡的音樂或其他娛樂節(jié)目等等。但這樣的愿景同樣必須以乘客自愿放棄或提供其個人的各種相關信息作為前提。endprint
因此,未來的相關法律規(guī)制也就有必要適當有效地在控制與便利之間尋找適當?shù)钠胶狻H藗兙烤故欠裨敢鉃榱俗陨淼姆N種便利、安全或其他考慮而將原本要由自己做出的判斷或決策轉交由人工智能裝置來從事,從而也必須隨之失去一部分對于自身相關事物(與事務)的控制?除了上述對于如何定義、如何擬制為人的問題外,目前在法律規(guī)制的層面,我們還可以看到的最具關鍵性的問題,大約存在于隱私權的保障、不同平臺數(shù)據(jù)庫之間的橫向交叉運用與管理、知識產(chǎn)權的賦予和維權以及各種智能產(chǎn)品的瑕疵擔保與侵權責任(包括在進入全自動化之前的過渡階段的風險承擔、損害賠償責任與黑客破壞造成的重大危害或損失等)配置等四個面向。這都需要人們一方面未雨綢繆、悉心論證,另一方面提出各種備案,以供隨時討論立法。23
結論:兩個反思
這個平衡的探索過程,至少會引發(fā)兩個反思。第一個反思可追溯至英國人亨利·邁因爵士(Sir Henry J. S. Maine)在十九世紀中葉所出版的巨著《古代法》。他在這部巨著中以一句簡短的描述,對整個人類法制的進程做出了一個經(jīng)典性的總結:“迄今為止,社會進展的走向就是從身份到契約的運動?!?4其中所寓含的一層意義是,整個社會的互動和交易已經(jīng)從垂直走向了水平,也就是從以往只論出身的社會階層高低從而得以享有不同的待遇,走向人人平起平坐的對等互動,在不違反公共政策的情形下,甚至還可以用私人間的合同(自律)取代法律的規(guī)定(公律),而且在公共政策上還考慮到消費者往往是處于某種相對弱勢的地位,因此刻意矯枉過正,通過制定諸如《消費者權益保護法》等特別的立法來抬高消費者的協(xié)商議價地位,例如制造商對所有購買者的產(chǎn)品瑕疵承擔責任等規(guī)定。
然而對于以“人工智能”所帶動的產(chǎn)品或服務而言,“許可”勢將在相當?shù)某潭壬先〈鷤鹘y(tǒng)的買賣成為一切交易互動的基礎。在先天和本質(zhì)上,任何“許可”協(xié)定都是一個“不平等條約”,與買賣的法律關系迥然不同。這樣的發(fā)展是否意味著人們其實又逐漸的從契約走回到了身份(雖然此處的“身份”與兩千年前的狀況已然有所不同,但卻又有些驚人的近似性,例如,按照使用者不同的付費層級享有截然不同的服務內(nèi)涵)?
第二個反思是一個假設性、純粹學理上的問題,但卻反映出一種潛在隱憂。假如歐洲在歷史上沒有經(jīng)過一千多年的“黑暗時代”,也就是假設在莫札特所處的十八世紀就已經(jīng)出現(xiàn)了今天所能看到的各種科技,那么他是否會利用這些高科技工具在他短暫的34年生命中創(chuàng)作出更多不朽的樂曲?抑或他反而會沈迷于各種網(wǎng)絡賭博、游戲與社交網(wǎng)絡等(據(jù)一些傳記的描述,莫札特頗好嬉游賭博),反而成為一個默默無名、對社會無大貢獻的潦倒?jié)h?換句話說,工具的便利性是否果真會帶動更多的創(chuàng)新?
這當然是個無解的問題,不過至少有一點可以確定,就是莫札特已經(jīng)把他所有的音樂作品都寫到了紙上,從而使其完整地保留了下來。否則,如果他適用了當時流行的科技來儲存文檔,后人很有可能根本無法從那些已經(jīng)被完全淘汰掉的載體(例如讀卡機、軟碟等等)中重新讀取他的作品了。這也就提醒我們,人類一方面貌似在開創(chuàng)各類新型的大數(shù)據(jù),但在另一方面,也同時不自覺地大量丟失各種寶貴的信息數(shù)據(jù),導致自己的固有文化資產(chǎn)不斷流失。因此,各種大數(shù)據(jù)之間未來如何能彼此順利無縫的接軌,又能如何平穩(wěn)順利地從一個技術平臺過渡升級到另一個新的平臺,都將是對“人工智能”運行的巨大挑戰(zhàn)。
總而言之,從“大數(shù)據(jù)”到“共享經(jīng)濟”到物聯(lián)網(wǎng)(Internet of Things),再到自動化機器人和“人工智能”,其法律規(guī)制或將不斷涉及控制與便利的拉鋸、交換與權衡。在這個快速發(fā)展的過程中,由于還有太多不確定的因素,政府固然需要扮演某種角色,但為了避免對于其中的微妙平衡造成不當干擾,尤其是不當?shù)囟髿⑾嚓P的研發(fā)與商機,政府必須做到謹小慎微、步步為營。因此,當前階段,政府相關法規(guī)的岀臺不宜太快,而應刻意保持一定程度的滯后。如果確有需要制定規(guī)則,那么,在相關的定義還尚未明確之前,政府只適合從事框架式的“輕度規(guī)制”。打比方說,政府只需要規(guī)范關于環(huán)境保護、操作與人身安全以及基本責任承擔的框架性規(guī)定即可,至于究竟是誰要在這樣的框架內(nèi)來搭建相關的平臺、需要多少投融資、如何設計建設平臺,則悉由參與者依據(jù)市場的實際狀況而定。一旦平臺搭成,由誰來登臺表演、演出何種節(jié)目等,政府都不需置喙,也應交由市場去自行決定,這就是所謂的“讓凱撒的歸凱撒”。唯有如此,才能有效地釋放出巨大的動力,幫助達成國務院《新一代人工智能發(fā)展規(guī)劃》所提出的挑戰(zhàn)與目標,把中國的整個市場引領到一個新的境界!
“控制既是效果也是導因,而認為控制是某種由你來施展的概念是對于進步的真正阻礙。”
—史蒂夫·格蘭德25endprint