馬治國,胡明強,張 磊
(西安交通大學 法學院, 陜西 西安 710049)
人工智能基礎(chǔ)數(shù)據(jù)包括在對機器學習模型進行訓練時所用的訓練數(shù)據(jù)以及對機器學習模型進行測試的測試數(shù)據(jù)。與其他類型的數(shù)據(jù)相比,人工智能基礎(chǔ)數(shù)據(jù)具有獨特屬性。首先,人工智能基礎(chǔ)數(shù)據(jù)需要開源開放。人工智能基礎(chǔ)數(shù)據(jù)作為一種數(shù)據(jù)資源可以被無限復制,一個標注好的圖像或者一批被精心選定的訓練數(shù)據(jù)集可以應(yīng)用在多個人工智能項目之上。人工智能基礎(chǔ)數(shù)據(jù)的制作和選取是每個人工智能項目必不可少的前期準備工作,這種前期準備工作在相當程度上具有一致性。因此,倘若為每個人工智能項目都制作和選取不同的人工智能基礎(chǔ)數(shù)據(jù),勢必造成大量的人力和物力的浪費。為了避免不必要的浪費,人工智能基礎(chǔ)數(shù)據(jù)需要開源開放,這也正是我國《新一代人工智能發(fā)展規(guī)劃》提出“重點建設(shè)面向人工智能的公共數(shù)據(jù)資源庫”的緣由所在。其次,與從互聯(lián)網(wǎng)上直接獲取的數(shù)據(jù)有所不同,人工智能基礎(chǔ)數(shù)據(jù)往往需要通過智力勞動才能創(chuàng)造取得,并且極具經(jīng)濟價值。比如微軟必應(yīng)團隊的研發(fā)人員曾有言:“獲取足夠高質(zhì)量的訓練數(shù)據(jù)通常是構(gòu)建基于人工智能服務(wù)的最具挑戰(zhàn)性的部分。通常,由人類標記的數(shù)據(jù)質(zhì)量很高(錯誤相對較少),但成本高昂,無論是金錢還是時間方面?!盵1]
傳統(tǒng)理論通常僅從數(shù)據(jù)交易價值層面對普通數(shù)據(jù)進行保護,具體包括三種情形:其一,數(shù)據(jù)保護并未被納入賦權(quán)范疇予以考量,而是通過規(guī)制數(shù)據(jù)使用或交易行為,例如依據(jù)《中華人民共和國民法典》(以下簡稱《民法典》)對數(shù)據(jù)交易行為實施保護,從而在數(shù)據(jù)的交易和流轉(zhuǎn)過程中體現(xiàn)其價值。其二,考慮到數(shù)據(jù)應(yīng)開放和共享的特點,設(shè)立新型財產(chǎn)權(quán),從而促使大數(shù)據(jù)資源獲得更為充分的利用。其三,有學者提出,數(shù)據(jù)是“網(wǎng)絡(luò)社會中的公物”[2],換言之,其是一種無體物。因此,通過物權(quán)加以保護亦是傳統(tǒng)理論提供的路徑選擇之一。
然而,人工智能基礎(chǔ)數(shù)據(jù)需要數(shù)據(jù)創(chuàng)作者根據(jù)自己長期積累的知識和經(jīng)驗,對原始數(shù)據(jù)進行再加工,以期能符合人工智能訓練和測試的要求。例如,獲得應(yīng)用于智慧醫(yī)療的基礎(chǔ)數(shù)據(jù),需要醫(yī)學和人工智能等領(lǐng)域的專業(yè)人員對由過往病歷數(shù)據(jù)組成的原始數(shù)據(jù)開展排列、組合、清洗以及標記工作。一方面,此類工作并非簡單和機械的重復勞動,而是對人工智能基礎(chǔ)數(shù)據(jù)的創(chuàng)作有一定的技術(shù)要求,并且需要付出相關(guān)的智力勞動。另一方面,通過此類工作獲得的基礎(chǔ)數(shù)據(jù)的價值內(nèi)容不僅體現(xiàn)在數(shù)據(jù)交易之中,還貫穿于數(shù)據(jù)利用的過程之中。因此,正是由于人工智能基礎(chǔ)數(shù)據(jù)的獨特屬性,傳統(tǒng)理論很難為其找到適宜的保護路徑。
除此之外,在數(shù)據(jù)保護的相關(guān)立法層面,2020年5月頒布的《民法典》主要是規(guī)制涉及個人信息的數(shù)據(jù),2021年6月通過的《中華人民共和國數(shù)據(jù)安全法》(以下簡稱《數(shù)據(jù)安全法》)主要是針對普通數(shù)據(jù)(包括政務(wù)數(shù)據(jù))作出的一般性規(guī)定,2021年8月通過的《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)則是對以電子或者其他方式記錄的與已識別或者可識別的自然人有關(guān)的各種信息進行保護。然而與人工智能技術(shù)密切相關(guān)的基礎(chǔ)數(shù)據(jù)的知識產(chǎn)權(quán)問題在這一輪數(shù)據(jù)法治進程中并未獲得更多關(guān)注,亟需進一步完善相關(guān)立法,從而形成專門的法律規(guī)制體系。
人工智能正在深刻地改變著我們的社會生活。目前人工智能主要在不同應(yīng)用場景下利用大量的基礎(chǔ)數(shù)據(jù)訓練和驗證人工神經(jīng)網(wǎng)絡(luò),因此人工智能基礎(chǔ)數(shù)據(jù)是人工神經(jīng)網(wǎng)絡(luò)是否能夠成功生成的重要因素。我國《新一代人工智能發(fā)展規(guī)劃》明確提出了“人工智能基礎(chǔ)數(shù)據(jù)與安全檢測平臺”。有學者也曾指出:“數(shù)據(jù)資源與土地、勞動力、資本等生產(chǎn)要素一樣,已經(jīng)成為促進經(jīng)濟增長和社會發(fā)展的基本要素。”[3]作為數(shù)據(jù)資源的一種重要類型,人工智能基礎(chǔ)數(shù)據(jù)是人工智能行業(yè)發(fā)展的基石,如果沒有合適的基礎(chǔ)數(shù)據(jù),我國很多人工智能應(yīng)用型企業(yè)的產(chǎn)品就難以持續(xù)有效地進行訓練和驗證。然而,目前在通常情況下,以谷歌和臉書為代表的美國大型跨國公司免費開放其所擁有的人工智能基礎(chǔ)數(shù)據(jù),我國很多應(yīng)用型企業(yè)和研究機構(gòu)使用的相關(guān)基礎(chǔ)數(shù)據(jù)卻是從包括上述美國公司在內(nèi)的國外大型跨國公司直接獲取和使用。數(shù)據(jù)獲取的被動性困境嚴重制約了我國人工智能技術(shù)的發(fā)展進程,長此以往將對以人工智能為重要技術(shù)支撐的國家高新科技實力的提升造成不利影響,因此,積極研發(fā)和培育自主性人工智能基礎(chǔ)數(shù)據(jù)資源迫在眉睫。
但是,人工智能基礎(chǔ)數(shù)據(jù)需要大量人力和物力的持續(xù)投入,而且為了加快訓練速度以及提高產(chǎn)品效果,在特定的應(yīng)用場景還需要對原始數(shù)據(jù)進行清洗和標記等預處理,然而這些預處理的過程非常復雜和繁瑣,期間不免會產(chǎn)生有關(guān)基礎(chǔ)數(shù)據(jù)的歸屬、管理、交易以及不法利用等法律問題。因此,人工智能基礎(chǔ)數(shù)據(jù)作為一種新興科技領(lǐng)域的數(shù)據(jù)類型,應(yīng)以法治思維和法治方式考量其培育過程和后續(xù)權(quán)屬狀態(tài)的規(guī)制;與此同時,作為人類智力成果的新晉形式,其應(yīng)當納入到知識產(chǎn)權(quán)法治范疇,并對其知識產(chǎn)權(quán)的保護予以規(guī)范化設(shè)計。然而,我國現(xiàn)行的知識產(chǎn)權(quán)法律存在局限性保護的現(xiàn)實困境,人工智能基礎(chǔ)數(shù)據(jù)專門法保護模式亟需確立。
從知識產(chǎn)權(quán)法基本理論來看,人工智能技術(shù)的重要資源支撐——基礎(chǔ)數(shù)據(jù)的法律屬性是智力成果,應(yīng)當在知識產(chǎn)權(quán)法治話語體系中挖掘其保護路徑。然而,從立法學角度窺探,現(xiàn)行的知識產(chǎn)權(quán)法律體系是否能有人工智能基礎(chǔ)數(shù)據(jù)保護的一席之地,這是實現(xiàn)基礎(chǔ)數(shù)據(jù)保護法治化的重要前提。從目前我國知識產(chǎn)權(quán)法律相關(guān)內(nèi)容來看,人工智能基礎(chǔ)數(shù)據(jù)保護嵌入成文法體系存在客體和標準等一系列“格格不入、水土不服”的現(xiàn)實困境。
首先,人工智能基礎(chǔ)數(shù)據(jù)本身不是專利法保護的客體。專利法的客體是專利法保護的對象,亦即依照專利法可以被授予專利權(quán)的發(fā)明創(chuàng)造?!吨腥A人民共和國專利法》(以下簡稱《專利法》)第2條規(guī)定:“發(fā)明,是指對產(chǎn)品、方法或其改進所提出的新的技術(shù)方案。實用新型,是指對產(chǎn)品的形狀、構(gòu)造或者其結(jié)合所提出的適于實用的新的技術(shù)方案?!奔夹g(shù)方案是對要解決的技術(shù)問題采取利用自然規(guī)律的技術(shù)手段的結(jié)合。然而,數(shù)據(jù)本身是否屬于利用自然規(guī)律的技術(shù)手段卻存在廣泛爭議。因此,在實踐中,企業(yè)通常在生成人工智能基礎(chǔ)數(shù)據(jù)的方法方面嘗試予以保護,但這并非是保護人工智能基礎(chǔ)數(shù)據(jù)本身,因此作為一種間接保護,其保護力度明顯不足。
其次,人工智能基礎(chǔ)數(shù)據(jù)并不完全是匯編作品。在我國司法實踐中,有獨創(chuàng)性的數(shù)據(jù)庫通常是歸入?yún)R編作品并通過著作權(quán)法進行保護。比如北京中易中標電子信息技術(shù)有限公司與微軟公司、微軟(中國)有限公司侵害著作權(quán)糾紛二審民事判決書明確指出:“……是一個將四萬三千多個自行開發(fā)的指令代碼分別匯編形成的數(shù)據(jù)庫作品,受《中華人民共和國著作權(quán)法》(以下簡稱《著作權(quán)法》)及相關(guān)國際公約、條約的保護。”[4]但是,著作權(quán)保護的客體是匯編作品之中具有獨創(chuàng)性的選擇或編排的表達,并不直接保護其中的具體內(nèi)容。因此,如果不侵犯具有獨創(chuàng)性的選擇或者編排,他人就可以自由地使用匯編作品之中的內(nèi)容,這種顯失公平的制度安排對人工智能基礎(chǔ)數(shù)據(jù)的創(chuàng)作者而言是一種精神和經(jīng)濟的雙重打擊。此外,直接將數(shù)據(jù)納入到鄰接權(quán)的保護客體之中也是不合適的。鄰接權(quán)又稱為作品傳播者權(quán),是指作品傳播者對其在傳播作品過程中所做出的創(chuàng)造性勞動和投資而享有的權(quán)利。對于人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作者而言,其創(chuàng)作人工智能基礎(chǔ)數(shù)據(jù)并不是為了廣泛傳播,而是用于下一步的生產(chǎn),或者通過數(shù)據(jù)交易從而實現(xiàn)其價值。
再次,人工智能基礎(chǔ)數(shù)據(jù)與商業(yè)秘密之間存在屬性抵牾,導致前者無法作為商業(yè)秘密予以保護。其一,人工智能基礎(chǔ)數(shù)據(jù)一旦向不特定的第三人公開,就不再具有商業(yè)秘密的屬性。然而,數(shù)據(jù)得以利用的常態(tài)在于既要保障信息能夠自由分享和流通并且為公眾獲得,又要確保數(shù)據(jù)創(chuàng)作者能夠商品化其產(chǎn)品從而為生產(chǎn)提供充分的激勵。因此,商業(yè)秘密的非公開性與人工智能基礎(chǔ)數(shù)據(jù)的高度可復用性之間是相悖的。其二,根據(jù)《與貿(mào)易有關(guān)的知識產(chǎn)權(quán)協(xié)定》第39條以及《中華人民共和國反不正當競爭法》第9條的規(guī)定,人工智能基礎(chǔ)數(shù)據(jù)作為商業(yè)秘密予以保護需要數(shù)據(jù)處于秘密狀態(tài)并且已經(jīng)被所有者采取保密措施。但對于人工智能應(yīng)用型企業(yè)而言,整個算法的測試過程以及模型的訓練過程均需要反復地使用此數(shù)據(jù),并且由于計算力的稀缺,訓練過程會在云端或者算力共享者端進行,然而將人工智能基礎(chǔ)數(shù)據(jù)上傳到云端很可能會破壞數(shù)據(jù)的秘密性。因此,無論從人工智能特殊的應(yīng)用環(huán)境還是從有利于數(shù)據(jù)交易的角度出發(fā),將人工智能基礎(chǔ)數(shù)據(jù)作為商業(yè)秘密進行保護都是難以實現(xiàn)的。
首先,根據(jù)我國《專利法》第22條的規(guī)定,對于發(fā)明專利,創(chuàng)造性的要求是指與現(xiàn)有技術(shù)相比,此發(fā)明具有突出的實質(zhì)性特點和顯著的進步。對于實用新型專利,創(chuàng)造性的要求是要具有實質(zhì)性特點和進步。然而,根據(jù)《專利審查指南》的相關(guān)規(guī)定,實質(zhì)性特點是指對于本領(lǐng)域的技術(shù)人員而言,技術(shù)方案并非顯而易見的。人工智能基礎(chǔ)數(shù)據(jù)可能是在原始數(shù)據(jù)上進行標注等操作予以獲得的,經(jīng)過標注后的人工智能基礎(chǔ)數(shù)據(jù)與原始數(shù)據(jù)之間的區(qū)別往往較小,很難達到《專利法》所規(guī)定的創(chuàng)造性標準。
其次,我國《著作權(quán)法》所稱作品是指文學、藝術(shù)和科學領(lǐng)域內(nèi)具有獨創(chuàng)性并能以一定形式表現(xiàn)的智力成果。對于獨創(chuàng)性,2002年《最高人民法院關(guān)于審理著作權(quán)民事糾紛案件適用法律若干問題的解釋》第15條規(guī)定:“由不同作者就同一題材創(chuàng)作的作品,作品的表達系獨立完成并且有創(chuàng)作性的,應(yīng)當認定作者各自享有獨立著作權(quán)?!睋Q言之,所謂獨創(chuàng)性,要求作品不僅是由作者獨立完成,并且具有創(chuàng)作性。然而,大多數(shù)的人工智能基礎(chǔ)數(shù)據(jù)只是數(shù)據(jù)的集合或簡單標注,因此人工智能基礎(chǔ)數(shù)據(jù)與原始數(shù)據(jù)的區(qū)別度較低,其中的獨創(chuàng)性因素并不突出。
人工智能基礎(chǔ)數(shù)據(jù)對人工智能產(chǎn)業(yè)的價值日益凸顯,與此同時,伴隨著人工智能技術(shù)的發(fā)展,個人信息受到侵犯的情形愈發(fā)增多,涉及個人信息的數(shù)據(jù)保護問題也逐漸獲得立法者的更多關(guān)注。德國、美國以及歐盟等西方發(fā)達國家或地區(qū)為了確保其在人工智能技術(shù)方面的領(lǐng)先地位,努力嘗試通過立法促進數(shù)據(jù)資源共享。因此,域外數(shù)據(jù)保護的相關(guān)立法進程也可以被視為保護個人信息與促進數(shù)據(jù)流通和共享之間的博弈過程。
早在1999年,美國學者萊斯格(Lawrence Lessig)就提出應(yīng)當賦予個人數(shù)據(jù)所有權(quán),從而確定個人對自身數(shù)據(jù)的財產(chǎn)權(quán)利[5]。美國企業(yè)界也一直推動保護企業(yè)數(shù)據(jù)權(quán)的相關(guān)立法,促使企業(yè)作為數(shù)據(jù)權(quán)主體對自身的數(shù)據(jù)享有財產(chǎn)權(quán)利。與此同時,1999年7月美國統(tǒng)一州法全國委員會通過了《統(tǒng)一計算機信息交易法》,將信息財產(chǎn)確立為一種獨立的法律客體,但只有兩個州采納[6]。目前,西方發(fā)達國家或地區(qū)有關(guān)數(shù)據(jù)保護的立法路徑不盡相同,主要包括德國知識產(chǎn)權(quán)法保護路徑、美國判例法保護路徑以及歐盟專門法保護路徑。無論是美國模式還是德國模式,都是從現(xiàn)行法的基礎(chǔ)上嘗試對數(shù)據(jù)進行保護,但都存在保護不力的缺陷。歐盟模式從專門立法的角度對數(shù)據(jù)進行保護又陷入了個人數(shù)據(jù)與非個人數(shù)據(jù)之間的利益糾纏。
第一,德國《著作權(quán)與鄰接權(quán)法》第87條規(guī)定,受鄰接權(quán)保護的數(shù)據(jù)是系統(tǒng)的或者按一定方法進行的排列,可通過電子或者其他方式獲得的,在搜集、校對或者呈現(xiàn)上需要有質(zhì)或者量的實質(zhì)性投資的作品、數(shù)據(jù)或其他材料的匯集。此法的第二編第六章規(guī)定了數(shù)據(jù)制作者具有排他性的權(quán)利,這種排他性的權(quán)利涵蓋了對數(shù)據(jù)集在方式或范圍上的實質(zhì)部分進行復制、發(fā)行或再利用。由此可見,德國通過將數(shù)據(jù)納入鄰接權(quán)的客體進行保護,因此,對于獨創(chuàng)性不高的人工智能基礎(chǔ)數(shù)據(jù)而言,其保護力度較低。
第二,美國判例法制度對于不受版權(quán)保護但本身卻具有實用價值的非物質(zhì)信息可以給予一定保護。這種保護手段存在于法院的判決之中,當發(fā)生針對版權(quán)保護的客體范疇之外的非物質(zhì)信息方面的糾紛時,法院可以通過判例的形式逐步獲得對這類信息的相關(guān)權(quán)益予以救濟的手段。美國在司法實踐中形成了保護特定信息的盜用原則(Misappropriation Doctrine)。盜用原則是1918年美國最高法院在International New Service V. Associated Press案中首次確立的,國際新聞服務(wù)公司(International New Service)未經(jīng)聯(lián)合出版公司(Associated Press)的同意,擅自復制了后者出版的關(guān)于一戰(zhàn)的新聞。最高法院大法官認為此種行為是一種“在未播種的地方進行收獲的行為(endeavoring to reap where it had not sown)”[7]。另外,有學者認為,包括人工智能基礎(chǔ)數(shù)據(jù)在內(nèi)的商業(yè)數(shù)據(jù)在美國還可以通過適用不正當競爭法的原則性條款進行保護,例如《聯(lián)邦貿(mào)易委員會法》第5條[8]。但是,通過原則性條款的保護只是立法上的次優(yōu)選擇,畢竟使用原則性條款對數(shù)據(jù)進行保護具有較大的不確定性。
第三,歐盟1996年通過的《數(shù)據(jù)庫法律保護指令》對于數(shù)據(jù)庫使用了較為寬泛的定義,即經(jīng)系統(tǒng)或有序的安排,并可通過電子或其他手段單獨加以訪問的獨立的作品、數(shù)據(jù)或其他材料的集合[9],并且,第三章規(guī)定了“非獨創(chuàng)性數(shù)據(jù)庫”及其制作者的一系列特殊權(quán)利(sui generis right)。但是,歐盟委員會在2005年12月對此指令的立法效果進行調(diào)查時發(fā)現(xiàn),立法并未實現(xiàn)促進數(shù)據(jù)庫發(fā)展的目的。這主要是因為此指令對于特殊權(quán)利范圍所使用的措辭較為模糊,無論在歐盟還是其成員國層面都存在解釋上的困難,從而使得權(quán)利人在適用法律時面臨著較大的不確定性。歐盟2018年5月25日正式實施的《一般數(shù)據(jù)保護條例》過分強調(diào)了原始數(shù)據(jù)特別是個人數(shù)據(jù)的泄露風險,其保持了歐盟一貫的立法風格,即在保護創(chuàng)新和保護隱私權(quán)之間更傾向于后者。從整體上看,《一般數(shù)據(jù)保護條例》主要突出了私權(quán)至上的原則,對數(shù)據(jù)控制者和處理者使用個人數(shù)據(jù)進行了嚴格限制。具體來說,《一般數(shù)據(jù)保護條例》賦予了數(shù)據(jù)權(quán)主體七項主要權(quán)利,即知情權(quán)、訪問權(quán)、修正權(quán)、被遺忘權(quán)、限制處理權(quán)、可攜帶權(quán)以及拒絕使用權(quán)。其中,限制處理權(quán)和拒絕使用權(quán)這兩項權(quán)利對人工智能基礎(chǔ)數(shù)據(jù)的限制最多。值得注意的是,歐盟議會2018年10月4日投票通過了《非個人數(shù)據(jù)自由流動條例》,此條例旨在歐洲范圍之內(nèi)消除非個人數(shù)據(jù)在存儲和處理方面的地域限制。此條例的通過是對《一般數(shù)據(jù)保護條例》的修正,通過將數(shù)據(jù)二分為個人數(shù)據(jù)與非個人數(shù)據(jù),平衡個人隱私權(quán)與數(shù)據(jù)權(quán)之間的關(guān)系。由此可見,即使對保護個人權(quán)利極為重視的歐盟,其也不會完全無視數(shù)據(jù)在產(chǎn)業(yè)上的重要作用。但是,歐盟的保護路徑仍然存在一定的缺陷,即由于個人數(shù)據(jù)與非個人數(shù)據(jù)之間的界限難以嚴格厘清,在實際操作中勢必會存在困難。
從人工智能基礎(chǔ)數(shù)據(jù)的保護模式來看,雖然目前德國、美國以及歐盟尚未對人工智能基礎(chǔ)數(shù)據(jù)進行專門立法保護,但是在最新的立法動態(tài)中都表現(xiàn)出對人工智能基礎(chǔ)數(shù)據(jù)的重視。美國在2017年12月通過的《人工智能未來法案》提到了要促進人工智能數(shù)據(jù)共享以及保護個人隱私等問題。同樣,歐盟在2020年2月發(fā)布的《人工智能白皮書》也提出,要創(chuàng)建可信賴的人工智能歐洲數(shù)據(jù)池,并明確提出歐盟應(yīng)抓住“下一個數(shù)據(jù)浪潮”。隨著人工智能行業(yè)的快速發(fā)展,人工智能基礎(chǔ)數(shù)據(jù)將更加不可或缺,如何激發(fā)人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作者的創(chuàng)作熱情,并且平衡人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作者與個人信息所有者之間的利益將成為各國立法者亟需解決的關(guān)鍵問題。
另外,值得注意的是,世界各國對數(shù)據(jù)利用和個人信息保護這二者的價值傾向選擇有所不同,從而導致了針對數(shù)據(jù)保護制定的政策和法律也有所區(qū)別。從全球范圍來看,具體存在以下三種完全不同的模式:第一種模式是從維護商業(yè)利益的角度出發(fā),對數(shù)據(jù)跨境流動進行監(jiān)管,即優(yōu)先保護企業(yè)的利益,積極倡導行業(yè)自律和行業(yè)自由發(fā)展,相關(guān)立法十分謹慎,對數(shù)據(jù)跨境流動的監(jiān)管也相對寬松,美國是采取這種模式的代表性國家。第二種模式是從注重保護個人信息和隱私的角度出發(fā),對數(shù)據(jù)跨境流動進行嚴格監(jiān)管。這種模式往往是基于歷史傳統(tǒng)文化,非常重視對個人信息權(quán)和隱私權(quán)的保護,例如歐盟根據(jù)《一般數(shù)據(jù)保護條例》嚴控數(shù)據(jù)的跨境流動。第三種模式是從注重數(shù)據(jù)主權(quán)的角度出發(fā),對數(shù)據(jù)跨境流動進行嚴格監(jiān)管。例如俄羅斯就通過相關(guān)立法予以規(guī)定,涉及俄羅斯公民的數(shù)據(jù)必須在俄羅斯本地服務(wù)器進行存儲,加工或處理俄羅斯公民的數(shù)據(jù)也必須在俄羅斯本國進行。這實際上是對數(shù)據(jù)的“閉關(guān)鎖國”,不利于人工智能行業(yè)的健康發(fā)展,是一種以喪失發(fā)展機遇為代價的極端保護模式。除了俄羅斯以外,巴西、印度以及馬來西亞等國家也都有類似的監(jiān)管制度。
人類社會是一切人類行為的總和。從動態(tài)視角看,社會運行依托的是人們實施的各種行為,這作為人類社會發(fā)展史的一般規(guī)律,即使在技術(shù)理性高度發(fā)達和人工智能技術(shù)迅猛發(fā)展的當今時代仍然沒有過時。因此,法律制度作為規(guī)范人類行為和確保社會有序運行的現(xiàn)代規(guī)則安排,對于人工智能技術(shù)領(lǐng)域的治理發(fā)揮著不可或缺的重要作用。其中,基礎(chǔ)數(shù)據(jù)作為人工智能技術(shù)的核心要素,對其進行全面、系統(tǒng)和有效的法律保護是確保人工智能技術(shù)可持續(xù)發(fā)展的必要環(huán)節(jié)。然而,從節(jié)約法律治理成本的角度考量,將一種日益凸顯的社會問題納入法治軌道予以應(yīng)對,人們一般是從“舊法”即現(xiàn)行法律體系之中去尋找與之相匹配的規(guī)則內(nèi)容,并非起初就沿著制定“新法”的方向去考慮。而且,正如前文所述,人工智能基礎(chǔ)數(shù)據(jù)具有知識產(chǎn)權(quán)性,這也為人工智能基礎(chǔ)數(shù)據(jù)的法律保護路徑進入現(xiàn)有的知識產(chǎn)權(quán)法律體系提供了理論支撐。但是,面對人工智能基礎(chǔ)數(shù)據(jù)自身所存在的特有屬性及其衍生的應(yīng)用問題,現(xiàn)有的知識產(chǎn)權(quán)法律體系并不能予以有效回應(yīng)。因此,在進一步考察和分析域外立法實踐的基礎(chǔ)上,我們有必要另起爐灶式地對人工智能基礎(chǔ)數(shù)據(jù)實施專門法保護,即制定《人工智能基礎(chǔ)數(shù)據(jù)保護條例》,其立法邏輯進路具體如下:第一,考慮到人工智能基礎(chǔ)數(shù)據(jù)具有不同于傳統(tǒng)數(shù)據(jù)的一系列特點,專門法應(yīng)當確立全新的保護原則;第二,從立法學原理來看,法律作為權(quán)利義務(wù)的集合,專門法應(yīng)當明晰基礎(chǔ)數(shù)據(jù)的相關(guān)權(quán)利義務(wù);第三,考慮到人工智能技術(shù)的門檻高和更新快等特點,專門法應(yīng)當通過建立行政監(jiān)管與行業(yè)自律相結(jié)合的保護機制,從而推動基礎(chǔ)數(shù)據(jù)的多元主體保護進程;第四,基于人工智能基礎(chǔ)數(shù)據(jù)自由流動的屬性要求,當其涉及跨境問題時,專門法應(yīng)當作出相應(yīng)的監(jiān)管規(guī)定。
我國目前與數(shù)據(jù)保護相關(guān)的立法主要是從知情同意、合目的性和最少使用三個方面確立數(shù)據(jù)保護的基本原則。其中,知情同意原則作為核心原則,是指任何采集、利用和處理個人數(shù)據(jù)的行為都應(yīng)事先通知當事人并征求其同意。合目的原則和最少使用原則都指向?qū)€人數(shù)據(jù)利用和處理行為的規(guī)制,要求前述行為不僅受到初始目的的約束,還要盡可能少地利用和處理個人數(shù)據(jù)。
傳統(tǒng)的數(shù)據(jù)保護三大原則更加重視對數(shù)據(jù)之中有關(guān)個人信息的保護,在數(shù)據(jù)收集、利用以及處理之前,通過事前積極的預防性控制,明確劃定數(shù)據(jù)收集、處理和利用的界限[10]。但是,考慮到人工智能基礎(chǔ)數(shù)據(jù)的獨有特點,直接適用傳統(tǒng)的數(shù)據(jù)保護三大原則存在阻礙人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作的潛在風險,也不利于人工智能基礎(chǔ)數(shù)據(jù)的開放和共享。首先,知情同意原則的提出是數(shù)據(jù)權(quán)主體行使其個人數(shù)據(jù)支配權(quán)的具體表現(xiàn)。圍繞此原則,數(shù)據(jù)利用者履行了極為復雜的通知義務(wù),但是其沿襲傳統(tǒng)消費者合同“強制披露”的管制思路,卻從來都面臨著質(zhì)疑。人工智能基礎(chǔ)數(shù)據(jù)需要在原始數(shù)據(jù)的基礎(chǔ)上進行創(chuàng)作,通過前述創(chuàng)作過程,人工智能基礎(chǔ)數(shù)據(jù)載有個人信息的可能性將大幅度降低。如果立法要求人工智能基礎(chǔ)數(shù)據(jù)的創(chuàng)作者嚴格履行通知義務(wù),保護個人信息的收效則變得極為有限,并且將極大地增加其創(chuàng)作成本。其次,由于人工智能技術(shù)的應(yīng)用目的多種多樣,立法要求數(shù)據(jù)創(chuàng)作者履行合目的和最少使用的義務(wù)則過分增加了其負擔。在現(xiàn)代國家體制下,利益衡量主要是立法者的義務(wù),如何平衡人工智能基礎(chǔ)數(shù)據(jù)之中各種利益的沖突,應(yīng)當屬于《人工智能基礎(chǔ)數(shù)據(jù)保護條例》立法工作的重點之一??偠灾?由于人工智能基礎(chǔ)數(shù)據(jù)自身所獨有的特點,傳統(tǒng)的數(shù)據(jù)保護原則并不能直接適用。與此不同,由于《人工智能基礎(chǔ)數(shù)據(jù)保護條例》作為我國《民法典》的下位法,考慮到下位法不能與上位法相抵觸,那么在涉及個人信息的人工智能基礎(chǔ)數(shù)據(jù)保護方面,應(yīng)當遵循《民法典》所提出的“合法、正當、必要原則,且不得過度處理”。此外,在嚴格保護個人信息的前提下,為了更好地促進人工智能基礎(chǔ)數(shù)據(jù)的流通,提高基礎(chǔ)數(shù)據(jù)的利用價值和效率,人工智能基礎(chǔ)數(shù)據(jù)保護還應(yīng)當包括以下三項新型原則:
第一,數(shù)據(jù)安全原則。數(shù)據(jù)安全原則是指為了保障人工智能基礎(chǔ)數(shù)據(jù)的創(chuàng)作安全、使用安全和流通安全,從而避免人工智能基礎(chǔ)數(shù)據(jù)在創(chuàng)作、使用以及流通過程中受到惡意毀壞、違規(guī)接觸或者不法利用,人工智能基礎(chǔ)數(shù)據(jù)保護的相關(guān)立法應(yīng)當明確創(chuàng)作者保障數(shù)據(jù)安全的責任和義務(wù)。盡管我國《民法典》第1038條規(guī)定了信息收集者和控制者負有保障個人信息安全的義務(wù),然而此法條也僅是明確了涉及個人信息的數(shù)據(jù)安全保障義務(wù),未涵蓋所有的數(shù)據(jù)類型,并且其安全保障義務(wù)也僅限于收集和存儲階段,未將數(shù)據(jù)創(chuàng)作和流通階段納入個人信息安全監(jiān)管的范疇。因此,《人工智能基礎(chǔ)數(shù)據(jù)保護條例》有必要進一步明確人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作者和控制者對于數(shù)據(jù)安全所承擔的保障義務(wù)。
第二,數(shù)據(jù)共享原則。隨著人工智能技術(shù)的不斷發(fā)展,基礎(chǔ)數(shù)據(jù)的價值日益凸顯,數(shù)據(jù)孤島現(xiàn)象也愈加嚴重。所謂數(shù)據(jù)孤島現(xiàn)象,是指基礎(chǔ)數(shù)據(jù)被存儲在政府或者企業(yè)的服務(wù)器上,這種分散存儲的方式導致數(shù)據(jù)之間彼此獨立,再加上不同的數(shù)據(jù)控制者對同一數(shù)據(jù)具有不同的用途,因此不同的數(shù)據(jù)控制者之間的數(shù)據(jù)像一座座散落在互聯(lián)網(wǎng)海洋的孤島,并不能有效地實現(xiàn)開放和共享。數(shù)據(jù)孤島現(xiàn)象必然會導致數(shù)據(jù)資源被重復存儲和創(chuàng)作,從而導致大量人力和物力的浪費。數(shù)據(jù)孤島現(xiàn)象的產(chǎn)生不僅是由于受到技術(shù)發(fā)展的制約,從某種程度上也是因為目前的法律制度并不能滿足技術(shù)發(fā)展的需求。尤其是針對人工智能基礎(chǔ)數(shù)據(jù)而言,同一組數(shù)據(jù)可以訓練多種適用于不同應(yīng)用場景的人工智能算法,因此為了避免數(shù)據(jù)資源的浪費,鼓勵人工智能基礎(chǔ)數(shù)據(jù)的開放和共享應(yīng)當是《人工智能基礎(chǔ)數(shù)據(jù)保護條例》的基本原則之一。
第三,分類管理原則。數(shù)據(jù)是信息的載體,不同數(shù)據(jù)所蘊含的信息內(nèi)容也有所不同。有學者主張根據(jù)數(shù)據(jù)的信息內(nèi)容和生成過程對數(shù)據(jù)進行分類,具體包括用戶的信息數(shù)據(jù)、用戶發(fā)布的數(shù)據(jù)、平臺自采的數(shù)據(jù)以及衍生的數(shù)據(jù)[11]。因此,人工智能基礎(chǔ)數(shù)據(jù)不應(yīng)一概而論,而是應(yīng)當分類管理和區(qū)別對待。其一,對于僅含有風景、物體的圖片等無法識別出特定個人且不屬于國家秘密或者商業(yè)秘密的人工智能基礎(chǔ)數(shù)據(jù),應(yīng)當在確保數(shù)據(jù)安全的前提下,采用行業(yè)自律為主、行政主管部門監(jiān)管為輔的管理模式,鼓勵其開放和共享,充分釋放此類人工智能基礎(chǔ)數(shù)據(jù)的潛在價值。其二,對于人臉圖像、個人活動軌跡等能夠識別出特定個人的人工智能基礎(chǔ)數(shù)據(jù),則需要采取行政主管部門監(jiān)管為主、行業(yè)自律為輔的管理模式,并且根據(jù)數(shù)據(jù)涉及個人隱私的程度進一步將此類基礎(chǔ)數(shù)據(jù)劃分為私密數(shù)據(jù)和非私密數(shù)據(jù)。對于私密數(shù)據(jù)的流通,應(yīng)當嚴格依照知情同意原則,事先取得數(shù)據(jù)權(quán)主體的同意,否則被視為非法的數(shù)據(jù)流通;對于非私密數(shù)據(jù)的流通,則可以適當弱化知情同意原則,以促進此類基礎(chǔ)數(shù)據(jù)的開放和共享。其三,應(yīng)當嚴格限制涉及國家秘密的人工智能基礎(chǔ)數(shù)據(jù)的開放和共享,并嚴格按照《中華人民共和國保守國家秘密法》的規(guī)定,由特定行政主管機關(guān)對此類基礎(chǔ)數(shù)據(jù)進行標記和管理。
理論界對于數(shù)據(jù)權(quán)的內(nèi)容有不同的觀點。有學者根據(jù)不同的權(quán)利主體將數(shù)據(jù)權(quán)分為數(shù)據(jù)創(chuàng)作者的數(shù)據(jù)權(quán)以及數(shù)據(jù)利用者的數(shù)據(jù)權(quán),其中數(shù)據(jù)創(chuàng)作者的數(shù)據(jù)權(quán)又包括了隱私權(quán)等人格權(quán)[12-13]。事實上,此處涉及的人格權(quán)是指被歸入“信息性隱私”范疇的且被定義成新型人格權(quán)的個人信息權(quán)。然而,與個人信息權(quán)有所不同,數(shù)據(jù)權(quán)是以財產(chǎn)利益為導向的。我國《民法典》傾向于將數(shù)據(jù)權(quán)與個人信息權(quán)區(qū)分對待。例如,《民法典》第四編規(guī)定了一般人格權(quán)和各項具體人格權(quán),第六章則在充分考量個人信息與隱私既相似又相異的特性后,將個人信息權(quán)作為一種特殊人格權(quán)予以保護。相反,在人格權(quán)和財產(chǎn)權(quán)的二分格局下,無論是過去的《中華人民共和國民法總則(一審稿草案)》將數(shù)據(jù)視為一種知識產(chǎn)權(quán),還是如今的《民法典》將其和網(wǎng)絡(luò)虛擬財產(chǎn)并列,數(shù)據(jù)均未脫離財產(chǎn)權(quán)的性質(zhì),因此,《人工智能基礎(chǔ)數(shù)據(jù)保護條例》應(yīng)當明確,基礎(chǔ)數(shù)據(jù)權(quán)的內(nèi)容應(yīng)當僅包括財產(chǎn)權(quán),把數(shù)據(jù)創(chuàng)作者的人格權(quán)排除在外。具體言之,人工智能基礎(chǔ)數(shù)據(jù)權(quán)作為財產(chǎn)權(quán),其所有者享有通過人工智能基礎(chǔ)數(shù)據(jù)獲得收益的權(quán)利。由于數(shù)據(jù)具有無限復制的特點,轉(zhuǎn)讓數(shù)據(jù)的所有權(quán)并非是實現(xiàn)利益最大化的最佳途徑,因此《人工智能基礎(chǔ)數(shù)據(jù)保護條例》還需要建立基于數(shù)據(jù)權(quán)的許可制度。許可是讓渡財產(chǎn)權(quán)之中除所有權(quán)以外的其他權(quán)利的行為,比如許可作為知識產(chǎn)權(quán)制度設(shè)計的重要環(huán)節(jié),是知識產(chǎn)權(quán)所有者行使權(quán)利和獲得收益的主要手段。在人工智能基礎(chǔ)數(shù)據(jù)專門立法中引入許可制度是實現(xiàn)數(shù)據(jù)價值的重要保證,也可以更有效地鼓勵數(shù)據(jù)所有者開放數(shù)據(jù)。
沒有無義務(wù)的權(quán)利,權(quán)利與義務(wù)的對應(yīng)性決定了人工智能基礎(chǔ)數(shù)據(jù)權(quán)的對立面是相應(yīng)的義務(wù)需要嚴格履行。首先,人工智能基礎(chǔ)數(shù)據(jù)的所有者具有向原始數(shù)據(jù)的所有者分享收益的義務(wù)。人工智能基礎(chǔ)數(shù)據(jù)是對海量的原始數(shù)據(jù)進行清洗、重排和標注等預處理之后形成的可以用來進行人工智能訓練的數(shù)據(jù)。因此,由于人工智能基礎(chǔ)數(shù)據(jù)是在原始數(shù)據(jù)的基礎(chǔ)上帶來的價值提升,人工智能基礎(chǔ)數(shù)據(jù)的所有者只能就其增值部分享有權(quán)利,其對原始數(shù)據(jù)的所有者需要讓渡收益的義務(wù)則應(yīng)當在《人工智能基礎(chǔ)數(shù)據(jù)保護條例》中予以明晰。其次,人工智能基礎(chǔ)數(shù)據(jù)的所有者具有保護個人信息安全的義務(wù)。我國《民法典》規(guī)定,自然人的個人信息受法律保護。并且《民法典》在《中華人民共和國網(wǎng)絡(luò)安全法》(以下簡稱《網(wǎng)絡(luò)安全法》)第76條的基礎(chǔ)上,進一步對個人信息的定義予以完善,即個人信息是以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別特定自然人的各種信息,包括自然人的姓名、出生日期、身份證件號碼、生物識別信息、住址、電話號碼、電子郵箱、健康信息、行蹤信息等。由此可見,個人信息權(quán)所保護的與個人身份相關(guān)的信息屬于隱私權(quán)保護的范疇。盡管過于強調(diào)個人信息權(quán)必然會降低數(shù)據(jù)資源的流動性,從而降低數(shù)據(jù)資源的價值,但是如果無視個人信息權(quán),個人隱私便易于泄露,從而將導致嚴重的信息安全隱患問題。因此,人工智能基礎(chǔ)數(shù)據(jù)的所有者在享有占有、使用以及交易基礎(chǔ)數(shù)據(jù)等權(quán)利的同時,還應(yīng)當履行保護個人信息安全的義務(wù)。具體來說,《人工智能基礎(chǔ)數(shù)據(jù)保護條例》應(yīng)當在《民法典》《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律框架內(nèi),進一步明確個人信息安全保護的責任主體。由于此責任主體應(yīng)為個人信息的控制者,那么人工智能基礎(chǔ)數(shù)據(jù)的創(chuàng)作者或持有者作為相關(guān)個人信息的控制者,應(yīng)當承擔個人信息安全的保護責任。一方面,在創(chuàng)作或使用基礎(chǔ)數(shù)據(jù)時,基礎(chǔ)數(shù)據(jù)的創(chuàng)作者作為此數(shù)據(jù)的實際控制者,其也實際控制著個人信息,因此應(yīng)負有保護個人信息安全的義務(wù)。另一方面,基礎(chǔ)數(shù)據(jù)的持有者可以通過許可和轉(zhuǎn)讓兩種方式處分基礎(chǔ)數(shù)據(jù)。許可是對基礎(chǔ)數(shù)據(jù)使用權(quán)的讓渡,由于數(shù)據(jù)具有可復制的特點,許可方與被許可方均是基礎(chǔ)數(shù)據(jù)的實際控制者,因此雙方都應(yīng)當承擔個人信息安全的保護責任。轉(zhuǎn)讓則需要轉(zhuǎn)移基礎(chǔ)數(shù)據(jù)的所有權(quán),轉(zhuǎn)讓完成后,轉(zhuǎn)讓方喪失了對個人信息的實際控制,因此其保護個人信息安全的義務(wù)也應(yīng)隨所有權(quán)一同轉(zhuǎn)移給被轉(zhuǎn)讓方。最后,在人工智能基礎(chǔ)數(shù)據(jù)的所有者的合法權(quán)益受到侵犯時,《人工智能基礎(chǔ)數(shù)據(jù)保護條例》應(yīng)當根據(jù)不同的侵權(quán)行為情節(jié)給予相應(yīng)的救濟力度。知識產(chǎn)權(quán)是一種絕對權(quán)和對世權(quán),基礎(chǔ)數(shù)據(jù)的所有者在占有、使用以及交易數(shù)據(jù)時所享有的各項權(quán)利理應(yīng)受到尊重和保護。因此,當相關(guān)合法權(quán)益受到侵犯時,不法侵害人應(yīng)當承擔停止侵害、消除影響、賠禮道歉或者賠償損失等民事責任;情節(jié)嚴重的,則應(yīng)當承擔相應(yīng)的刑事責任。
《人工智能基礎(chǔ)數(shù)據(jù)保護條例》需要調(diào)整多種利益沖突,其中既有人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作者與原始數(shù)據(jù)所有者之間的利益沖突,也存在人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作者和個人信息所有者之間的利益沖突。為了更好地解決這些利益糾葛,各級行政主管部門應(yīng)當承擔其應(yīng)有的責任。首先,各地區(qū)和各部門應(yīng)對其工作之中所產(chǎn)生、匯總以及加工的人工智能基礎(chǔ)數(shù)據(jù)施加保護,承擔主體責任;其次,各行業(yè)主管部門應(yīng)對其所主管領(lǐng)域中產(chǎn)生和運用的人工智能基礎(chǔ)數(shù)據(jù)予以保護,承擔監(jiān)管責任;最后,由國家網(wǎng)絡(luò)安全主管部門統(tǒng)籌保護在信息網(wǎng)絡(luò)中傳播的人工智能基礎(chǔ)數(shù)據(jù)。
然而,人工智能基礎(chǔ)數(shù)據(jù)主要服務(wù)于人工智能行業(yè),人工智能行業(yè)具有技術(shù)門檻高和知識產(chǎn)權(quán)密集等特點,發(fā)展規(guī)律和發(fā)展模式也不同于以往的傳統(tǒng)行業(yè),其更加依賴于數(shù)據(jù)、算法以及計算機網(wǎng)絡(luò)等新興技術(shù),因此,僅通過國家強制手段保護人工智能基礎(chǔ)數(shù)據(jù)有其自身局限性,不能滿足行業(yè)發(fā)展的需要,還應(yīng)當通過行業(yè)自律手段為人工智能基礎(chǔ)數(shù)據(jù)提供更加周延的保護。行業(yè)自律是指由行業(yè)組織根據(jù)具體協(xié)議制定行為規(guī)則,約束和規(guī)范行業(yè)內(nèi)部各企業(yè)的日常生產(chǎn)、經(jīng)營或管理等行為,在不違反強制性法律法規(guī)或者得到相關(guān)授權(quán)的前提下,由行業(yè)組織對違反規(guī)則的行為進行譴責或處罰。此行業(yè)自律規(guī)則也被稱為“軟法”,是一種盡管不具有國家強制力,但又起到一定約束效果的行為規(guī)范,此約束效果主要來源于行業(yè)組織成員的自我約束,是一種重要的自主治理形式。因此,《人工智能基礎(chǔ)數(shù)據(jù)保護條例》應(yīng)當明確加強對人工智能行業(yè)的積極引導,鼓勵人工智能應(yīng)用型企業(yè)對基礎(chǔ)數(shù)據(jù)流通過程之中的相關(guān)行為進行自我約束和規(guī)制,從而形成業(yè)內(nèi)良好的數(shù)據(jù)流通生態(tài)。
近年來,針對數(shù)據(jù)流通領(lǐng)域的自律規(guī)則或公約正在逐漸涌現(xiàn)。2014年6月,中關(guān)村大數(shù)據(jù)交易產(chǎn)業(yè)聯(lián)盟發(fā)布了《中關(guān)村數(shù)海大數(shù)據(jù)交易平臺規(guī)則(征求意見稿)》;2015年5月,貴陽大數(shù)據(jù)交易所發(fā)布了《貴陽大數(shù)據(jù)交易所702公約》;2016年7月,數(shù)據(jù)中心聯(lián)盟與中國信息通信研究院聯(lián)合制定了《數(shù)據(jù)流通行業(yè)自律公約》。上述規(guī)則或公約作為數(shù)據(jù)流通的行業(yè)行為規(guī)范已經(jīng)開啟了人工智能基礎(chǔ)數(shù)據(jù)自律保護的踐行之路,尤其是《數(shù)據(jù)流通行業(yè)自律公約》作為到目前為止較為全面和規(guī)范的典型之一,其包含加強用戶數(shù)據(jù)保護,促進數(shù)據(jù)交易、共享和轉(zhuǎn)移等環(huán)節(jié)的有序規(guī)范,推動數(shù)據(jù)的充分流通和價值開發(fā),完善企業(yè)內(nèi)部制度管理和技術(shù)保障等內(nèi)容。此外,《數(shù)據(jù)流通行業(yè)自律公約》不僅約定了數(shù)據(jù)流通規(guī)則,還針對侵犯個人隱私權(quán)的行為制定了相關(guān)懲罰措施,即對個人與企業(yè)的權(quán)益協(xié)調(diào)以及企業(yè)的社會責任等方面予以明確規(guī)定。隨著人工智能基礎(chǔ)數(shù)據(jù)流通規(guī)模的不斷擴大以及行業(yè)內(nèi)部對基礎(chǔ)數(shù)據(jù)保護意識的逐步提升,未來將會有更多的有關(guān)數(shù)據(jù)流通的行業(yè)行為規(guī)范“正在趕來的路上”。因此,《人工智能基礎(chǔ)數(shù)據(jù)保護條例》也應(yīng)當通過設(shè)置相關(guān)條款明確對行業(yè)自律保護的鼓勵態(tài)度,從而在立法層面推動基礎(chǔ)數(shù)據(jù)的行業(yè)自律保護更加縱深發(fā)展。
20世紀70年代,世界經(jīng)濟合作與發(fā)展組織首次提出了“跨境數(shù)據(jù)流動”的概念。隨著互聯(lián)網(wǎng)技術(shù)和分布式存儲技術(shù)的發(fā)展,目前全球整體呈現(xiàn)數(shù)據(jù)存儲的集中化趨勢,數(shù)據(jù)的跨境流動現(xiàn)象日益增多,導致數(shù)據(jù)權(quán)被侵犯的概率大幅度提高。因此,對人工智能基礎(chǔ)數(shù)據(jù)跨境流動的過程監(jiān)管應(yīng)當成為相關(guān)專門立法設(shè)計的重點考量進路之一。
第一,目前跨境數(shù)據(jù)流動的監(jiān)管標準主要有“以地理區(qū)域為基準”(geographically based)和“以組織機構(gòu)為基準”(organizationally based)的兩種規(guī)制路徑:前者依“充分性”(adequacy)原則,后者依“問責制”(accountability)原則[14]。由于近年來這兩種規(guī)制路徑已呈現(xiàn)融合的趨勢[15],《人工智能基礎(chǔ)數(shù)據(jù)保護條例》可以嘗試采用兩種規(guī)制路徑相結(jié)合的立法范式,從而實現(xiàn)對人工智能基礎(chǔ)數(shù)據(jù)跨境流動的有效監(jiān)管。
第二,為了確保人工智能基礎(chǔ)數(shù)據(jù)跨境流動在各國法律框架內(nèi)都能通暢無阻,充分發(fā)揮人工智能基礎(chǔ)數(shù)據(jù)的最大效用,《人工智能基礎(chǔ)數(shù)據(jù)保護條例》需要協(xié)調(diào)國內(nèi)法與外國法在數(shù)據(jù)跨境流動方面相關(guān)規(guī)定的沖突。正如學者王利明指出:“不同國家之間的立法差異是導致跨境數(shù)據(jù)流動受到阻礙的主要原因?!盵16]綜合考察域外立法實踐,各國之間關(guān)于數(shù)據(jù)保護的立法模式?jīng)_突主要體現(xiàn)在對數(shù)據(jù)跨境流動的監(jiān)管思路和對個人信息的保護力度這兩個方面,因此,我們應(yīng)當在《人工智能基礎(chǔ)數(shù)據(jù)保護條例》之中明晰解決上述沖突的基本原則和具體規(guī)則。首先,原則性立場是維護我國數(shù)據(jù)主權(quán),加強對數(shù)據(jù)跨境流動的監(jiān)管,保護本國數(shù)據(jù)資源,在數(shù)據(jù)跨境流動的國際談判中占得先機。其次,對不同類別的人工智能基礎(chǔ)數(shù)據(jù)采取差異化的監(jiān)管策略:對于無法識別出屬于特定個人的,并且也不屬于商業(yè)秘密或者國家秘密的人工智能基礎(chǔ)數(shù)據(jù),可以采用較為寬松的監(jiān)管策略,鼓勵此類人工智能基礎(chǔ)數(shù)據(jù)的開放和共享;對于能夠識別出屬于特定個人的,或者屬于企業(yè)的商業(yè)秘密的人工智能基礎(chǔ)數(shù)據(jù),則應(yīng)當嚴格監(jiān)管,并且加大違規(guī)懲罰力度;對于屬于國家秘密的人工智能基礎(chǔ)數(shù)據(jù),則應(yīng)嚴格執(zhí)行本地存儲和處理,禁止此類人工智能基礎(chǔ)數(shù)據(jù)的跨境流動。再次,在選擇準據(jù)法時,綜合考慮人工智能基礎(chǔ)數(shù)據(jù)生成地、數(shù)據(jù)權(quán)人所在地或侵權(quán)行為發(fā)生地,選擇是否應(yīng)當適用我國的《人工智能基礎(chǔ)數(shù)據(jù)保護條例》。具體來說,從維護我國的數(shù)據(jù)主權(quán)、保護我國人工智能基礎(chǔ)數(shù)據(jù)創(chuàng)作者的合法權(quán)益、保障我國人工智能產(chǎn)業(yè)的健康發(fā)展等角度進行考量,當人工智能基礎(chǔ)數(shù)據(jù)生成地、數(shù)據(jù)權(quán)人所在地或侵權(quán)行為發(fā)生地之中的任何一處在我國境內(nèi),就應(yīng)當適用我國法律。
當今世界的人工智能技術(shù)飛速發(fā)展,人們的生產(chǎn)和生活從其中受益愈發(fā)凸顯,人類社會文明程度取得重大的歷史性飛躍。然而,無論進步到多么發(fā)達的水平,科學技術(shù)始終離不開人類智慧的支撐和主宰,技術(shù)理性在人工智能技術(shù)持續(xù)發(fā)展的進程中仍然占據(jù)重要地位。但凡失去技術(shù)理性,當人工智能技術(shù)水平越高時,其潛在的技術(shù)風險、行業(yè)風險以及道德風險就會越大。因此對技術(shù)本身發(fā)展具有重要意義的人工智能技術(shù)理性需要規(guī)范(法律)理性予以保障,具體范式是以法治思維和法治方式保障人工智能技術(shù)。作為人工智能核心要素的基礎(chǔ)數(shù)據(jù)是“依法治AI(Artificial Intelligence的英文縮寫)”的關(guān)鍵內(nèi)容。盡管人工智能基礎(chǔ)數(shù)據(jù)屬于人類的智力成果,但又不同于傳統(tǒng)意義上的知識產(chǎn)權(quán)客體,其具有可以無限復制、容易擴散以及越用越增值等特性,因此現(xiàn)行知識產(chǎn)權(quán)法律在人工智能基礎(chǔ)數(shù)據(jù)的保護方面存在諸多困境,從而不利于基礎(chǔ)數(shù)據(jù)的開源開放或技術(shù)本身的創(chuàng)新。為了確保人工智能行業(yè)的健康發(fā)展,針對人工智能技術(shù)的必要支撐要素——基礎(chǔ)數(shù)據(jù),在根據(jù)《數(shù)據(jù)安全法》實施一般性保護的基礎(chǔ)上,我國亟需通過制定《人工智能基礎(chǔ)數(shù)據(jù)保護條例》,對此類數(shù)據(jù)的保護原則、相關(guān)權(quán)利義務(wù)、多元主體保護以及跨境流通監(jiān)管等方面進行規(guī)定,從而形成人工智能基礎(chǔ)數(shù)據(jù)的專門法保護路徑。