胡 光, 楊珍珠
(河南師范大學(xué) 知識(shí)產(chǎn)權(quán)學(xué)院, 河南 新鄉(xiāng) 453007)
1. 基于人工智能技術(shù)的發(fā)明分析
“人工智能”技術(shù)按照“智能”形成度和功能實(shí)現(xiàn)度可進(jìn)行以下分級(jí):初級(jí)也就是最基礎(chǔ)的“人工智能”(artifitial intelligence)。由知識(shí)庫(kù)(可稱(chēng)為專(zhuān)家系統(tǒng))形成,本質(zhì)上是利用設(shè)定的規(guī)則對(duì)存儲(chǔ)數(shù)據(jù)進(jìn)行整理,并從這些數(shù)據(jù)中得出邏輯結(jié)論,其中數(shù)據(jù)和規(guī)則都必須由人工智能的操作者提供。第二級(jí)為“機(jī)器學(xué)習(xí)”。在機(jī)器學(xué)習(xí)過(guò)程中,利用程序工程師提供的輸入和輸出數(shù)據(jù),算法分析程序可以找到其中存在的規(guī)律,將輸入數(shù)據(jù)映射到輸出結(jié)果(邏輯回歸)中,從而在不依賴(lài)輸出數(shù)據(jù)的情況下對(duì)新的輸入數(shù)據(jù)進(jìn)行預(yù)測(cè)。機(jī)器學(xué)習(xí)的貢獻(xiàn)在于能夠自我設(shè)計(jì)規(guī)則,其尋找規(guī)則的過(guò)程通常稱(chēng)為“訓(xùn)練”,使用的數(shù)據(jù)稱(chēng)為“訓(xùn)練數(shù)據(jù)”(training data)。第三級(jí)為“表征學(xué)習(xí)”(representation learning)。這一級(jí)別主要針對(duì)非結(jié)構(gòu)化的數(shù)據(jù)。人工智能程序可將輸入數(shù)據(jù)轉(zhuǎn)換成更能夠解決特定問(wèn)題的現(xiàn)實(shí)形式。與機(jī)器學(xué)習(xí)相比,具備表征學(xué)習(xí)能力的人工智能技術(shù)可以提供更具針對(duì)性的結(jié)果,但其學(xué)習(xí)以及表征生成的過(guò)程不易描述,這會(huì)給現(xiàn)有“充分披露”原則的實(shí)現(xiàn)帶來(lái)實(shí)質(zhì)性挑戰(zhàn)。第四級(jí)為“深度學(xué)習(xí)”(deep learning)。深度學(xué)習(xí)是表征學(xué)習(xí)的子集,是具有多個(gè)層級(jí)(稱(chēng)為“depth”)的模型——通用術(shù)語(yǔ)為“多層感知器”(multi-layer perceptron)。
就功能而言,前兩個(gè)級(jí)別——知識(shí)庫(kù)整理和邏輯回歸分析——通常用于處理“對(duì)人類(lèi)來(lái)說(shuō)很難但對(duì)計(jì)算機(jī)來(lái)說(shuō)很容易”的事務(wù),例如將預(yù)先確定的規(guī)則應(yīng)用于大數(shù)據(jù)集;而表征學(xué)習(xí)尤其是深度學(xué)習(xí),多用于處理“對(duì)人類(lèi)容易但對(duì)計(jì)算機(jī)卻難的事情”,例如模式識(shí)別、圖像處理或自然語(yǔ)言處理[1]。對(duì)于具備初級(jí)和部分第二級(jí)別功能的人工智能,現(xiàn)有的專(zhuān)利理論中用于判斷計(jì)算機(jī)軟件發(fā)明的方法可以適用,這意味著沒(méi)有直接耦合到特定應(yīng)用程序的人工智能算法,如果僅僅涉及相對(duì)簡(jiǎn)單或單一的數(shù)學(xué)方法(例如邏輯回歸)則不具備可專(zhuān)利性(1)在美國(guó)的Mayo標(biāo)準(zhǔn)框架下,判斷方法基于以下假設(shè):第一步,作為數(shù)學(xué)概念的基本人工智能算法是一個(gè)抽象的概念,因此沒(méi)有資格申請(qǐng)專(zhuān)利。但是第二步則提出,司法上的例外可以納入實(shí)際應(yīng)用,為人工智能算法專(zhuān)利留下空間。參見(jiàn):2019 Revised Patent Subject Matter Eligibility Guidance,www.govinfo.gov/content/pkg/FR-2019-01-07/pdf/2018-28282.pdf.。第三和第四級(jí)是需要關(guān)注的重點(diǎn),特別是“深度學(xué)習(xí)”層級(jí),這類(lèi)系統(tǒng)可能具有大量的隱藏層,其權(quán)重在學(xué)習(xí)/培訓(xùn)過(guò)程中、在沒(méi)有人工干預(yù)的情況下允許自主完善。
基于此,人工智能發(fā)明可以分類(lèi)如下:(1)體現(xiàn)人工智能領(lǐng)域進(jìn)步的發(fā)明(例如,改進(jìn)的機(jī)器學(xué)習(xí)(ML)模型或新算法下的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu));(2)將人工智能應(yīng)用于人工智能以外領(lǐng)域的發(fā)明;(3)人工智能自主生成的發(fā)明。
2. 人工智能生成發(fā)明的運(yùn)行原理
建立一個(gè)神經(jīng)網(wǎng)絡(luò)算法的基本過(guò)程包括:第一步“問(wèn)題輸入”,即將問(wèn)題轉(zhuǎn)變?yōu)榭奢斎肷窠?jīng)元的數(shù)據(jù)信息(二位數(shù)字所代表的聲音、圖像等信息)。第二步“設(shè)定拓?fù)浣Y(jié)構(gòu)”,即設(shè)立多層神經(jīng)元進(jìn)行識(shí)別實(shí)驗(yàn)。第三步“訓(xùn)練神經(jīng)元”,即選取問(wèn)題實(shí)例,反復(fù)運(yùn)行識(shí)別實(shí)驗(yàn)。其中,確定拓?fù)浣Y(jié)構(gòu)的多種不同方法、確定最終輸出存在的方法以及訓(xùn)練期間調(diào)解突觸強(qiáng)度所用的不同方法等所形成的變體,在設(shè)計(jì)中都必須具有可行性[2]。
對(duì)于具有自主學(xué)習(xí)能力的深層神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)推理的過(guò)程被嵌入數(shù)千個(gè)模擬神經(jīng)元的活動(dòng),這些神經(jīng)元排列在數(shù)十個(gè)甚至數(shù)百個(gè)錯(cuò)綜復(fù)雜的互聯(lián)層中。第一層中的神經(jīng)元接收一個(gè)輸入信息,比如圖像中像素的強(qiáng)度等,然后在輸出新信號(hào)之前進(jìn)行計(jì)算,產(chǎn)生的結(jié)果被輸送到下一層的神經(jīng)元,依此類(lèi)推,直至達(dá)到設(shè)定之目標(biāo)。此外,還有一個(gè)被稱(chēng)為反向傳播的過(guò)程,它會(huì)調(diào)整單個(gè)神經(jīng)元的計(jì)算,讓網(wǎng)絡(luò)學(xué)會(huì)產(chǎn)生所需的輸出,這一過(guò)程與人腦的運(yùn)行機(jī)理極其相似。“對(duì)于機(jī)器學(xué)習(xí)最好的理解就是,他們發(fā)展出自己的直覺(jué)力,然后用直覺(jué)來(lái)行動(dòng),這和以前的謠言——它們只按照編好的程序工作——大不相同”[3]。也就是說(shuō),要求人工智能具有意識(shí)和情感,在現(xiàn)階段以及今后的很長(zhǎng)時(shí)間也許無(wú)法實(shí)現(xiàn),但是按照有關(guān)學(xué)者的預(yù)測(cè),對(duì)人腦仿真的創(chuàng)造性思維卻可以完成:“大腦極大的可塑性使我們能夠進(jìn)行學(xué)習(xí)。但計(jì)算機(jī)的可塑性更大,通過(guò)改變軟件完全可以重建它的工作”“因?yàn)閿?shù)字化計(jì)算可以實(shí)現(xiàn)任意精度的對(duì)模擬值的仿真”[1]。正因如此,世界著名人工智能研發(fā)機(jī)構(gòu)——麻省理工學(xué)院的學(xué)者這樣描述人工智能深度學(xué)習(xí)系統(tǒng):“這個(gè)系統(tǒng)太復(fù)雜了,即使是設(shè)計(jì)它的工程師也很難找出其產(chǎn)生任何單一行動(dòng)的本質(zhì)原因?!盵4]以至于,麻省理工學(xué)院的研究人員在使用人工智能深度學(xué)習(xí)算法發(fā)現(xiàn)一種新的抗生素之后,描述這一系統(tǒng)為“從事某種智能活動(dòng)(doing something intelligent)”[5]??梢?jiàn),人工智能的創(chuàng)造性功能的發(fā)展在一定程度已經(jīng)得到證實(shí)和認(rèn)同。
在解決人工智能生成發(fā)明所涉公開(kāi)問(wèn)題之前,首先要對(duì)專(zhuān)利“公開(kāi)”制度設(shè)計(jì)的初衷予以回歸性解釋。專(zhuān)利法上“充分公開(kāi)”原則設(shè)立的基本目的在于通過(guò)“專(zhuān)利說(shuō)明書(shū)”“權(quán)利要求書(shū)”等專(zhuān)利申請(qǐng)文獻(xiàn),清楚且充分地描述發(fā)明客體,以使本領(lǐng)域普通技術(shù)人員能夠?qū)υ摪l(fā)明予以復(fù)制并以最佳的方式實(shí)施。以美國(guó)為例,其專(zhuān)利法中規(guī)定了三項(xiàng)獨(dú)立而明確的披露要求:書(shū)面描述、適用性和最佳模式[6]。根據(jù)美國(guó)專(zhuān)利商標(biāo)局所制定的審查指南,專(zhuān)利說(shuō)明書(shū)應(yīng)當(dāng)能夠指導(dǎo)本領(lǐng)域的普通技術(shù)人員如何在不需要通過(guò)非適當(dāng)性試驗(yàn)的情況下制造和使用所要求保護(hù)的發(fā)明,在確定專(zhuān)利說(shuō)明書(shū)是否滿(mǎn)足申請(qǐng)要求以及是否存在必要的不適當(dāng)性試驗(yàn)時(shí),審查員可以利用“WANDS”要素予以判斷,具體包括:權(quán)利要求的廣度、發(fā)明的性質(zhì)、現(xiàn)有技術(shù)的狀況、普通技術(shù)人員的水平、本領(lǐng)域的可預(yù)測(cè)性水平、發(fā)明人提供的指導(dǎo)案例、是否存在工作實(shí)例,以及根據(jù)本發(fā)明公開(kāi)內(nèi)容制作或使用本發(fā)明所需的實(shí)驗(yàn)量等[7]。這些要求適用于在美國(guó)所有的專(zhuān)利申請(qǐng),包括那些針對(duì)人工智能生成發(fā)明的申請(qǐng)。我國(guó)最新修訂的《專(zhuān)利審查指南》中所要求的審查員能夠“理解發(fā)明的一般路徑,……在理解發(fā)明時(shí)應(yīng)當(dāng)充分了解背景技術(shù)整體狀況、理解發(fā)明的技術(shù)方案所能帶來(lái)的技術(shù)效果、明確發(fā)明相對(duì)于背景技術(shù)所作出的改進(jìn)”[8],實(shí)質(zhì)上是對(duì)“充分公開(kāi)”所應(yīng)達(dá)到之目的的一般性限定?!俺浞止_(kāi)”制度的設(shè)計(jì)雖然具有鼓勵(lì)技術(shù)傳播、促進(jìn)技術(shù)的價(jià)值溢出,減少重復(fù)的研究成本等多層價(jià)值面向和功能指向,但其核心功能在于可以根據(jù)所提供的書(shū)面材料(專(zhuān)利說(shuō)明書(shū)等),確保發(fā)明人實(shí)際上已經(jīng)創(chuàng)造并擁有要求保護(hù)的發(fā)明,并且所屬領(lǐng)域的普通技術(shù)人員無(wú)需通過(guò)過(guò)度試驗(yàn)即可理解、應(yīng)用該技術(shù),進(jìn)而能夠適用于生產(chǎn),產(chǎn)生價(jià)值,推動(dòng)進(jìn)步,即滿(mǎn)足“可實(shí)施性條件”和“合理支持條件(書(shū)面描述)”。因此,人工智能生成發(fā)明如果希望獲得專(zhuān)利,則所面臨的專(zhuān)利充分公開(kāi)問(wèn)題主要是通過(guò)何種方式實(shí)現(xiàn)申請(qǐng)專(zhuān)利發(fā)明信息的透明,以期在最大限度內(nèi),在滿(mǎn)足權(quán)利人利益要求、確保專(zhuān)利功能的實(shí)現(xiàn)以及促進(jìn)社會(huì)科學(xué)進(jìn)步三者之間找到最佳平衡點(diǎn)。因而,該制度是關(guān)乎整個(gè)專(zhuān)利制度價(jià)值得以實(shí)現(xiàn)的核心問(wèn)題之一。IEEE在為美國(guó)政府有關(guān)人工智能生成發(fā)明制度所作的咨詢(xún)報(bào)告中就曾強(qiáng)調(diào),“解決目前人工智能生成/輔助專(zhuān)利范圍的不確定性將有利于人工智能技術(shù)的發(fā)展”“人工智能生成/輔助專(zhuān)利的專(zhuān)利申請(qǐng)人將受益于該技術(shù)所能披露的信息所帶來(lái)的更多的確定性”[9],人工智能生成發(fā)明公開(kāi)制度也必須圍繞這一核心目的進(jìn)行設(shè)置。
1. 充分公開(kāi)內(nèi)容確定
人工智能算法的輸出結(jié)果雖然是由數(shù)據(jù)和代碼決定的,其過(guò)程并不會(huì)比自然現(xiàn)象更難以分析和解釋?zhuān)疃葘W(xué)習(xí)并不完全遵循“數(shù)據(jù)輸入—特征提取—特征選擇—邏輯推理—預(yù)測(cè)”這一規(guī)律,而是由計(jì)算機(jī)直接從事物原始特征出發(fā),自動(dòng)學(xué)習(xí)和生成高級(jí)的認(rèn)知結(jié)果。在人工智能輸入的數(shù)據(jù)和其輸出的結(jié)果之間,存在著無(wú)法洞悉的、被稱(chēng)為“黑箱”(black box)的“隱層”。這里的“黑箱”不但意味著不能觀察,還意味著即使人工智能試圖向設(shè)計(jì)者予以解釋?zhuān)O(shè)計(jì)者可能也無(wú)法理解。那么,如果人類(lèi)對(duì)人工智能生成發(fā)明的過(guò)程處于不能完全知悉的狀態(tài),就不能實(shí)現(xiàn)人類(lèi)自身發(fā)明創(chuàng)造之技術(shù)場(chǎng)景的“重現(xiàn)”或“再現(xiàn)”,普通技術(shù)人員要想重復(fù)該發(fā)明,則必須最大限度地明確獲知人類(lèi)培訓(xùn)人工智能所使用之?dāng)?shù)據(jù)、模型等,以實(shí)現(xiàn)技術(shù)場(chǎng)景“預(yù)現(xiàn)”。在這種情況下,充分公開(kāi)所涉內(nèi)容如果僅僅局限于說(shuō)明算法,而不能闡釋算法運(yùn)行之模式,那么對(duì)于“深度學(xué)習(xí)”而言,即使對(duì)基本模型進(jìn)行充分的描述,技術(shù)人員仍然沒(méi)有足夠的信息來(lái)重現(xiàn)該模型,若想達(dá)到充分公開(kāi)之目的,目前仍然需要至少公開(kāi)以下兩項(xiàng)內(nèi)容:一是對(duì)培訓(xùn)數(shù)據(jù)的使用,包括模型的每個(gè)學(xué)習(xí)系數(shù)或權(quán)重;二是對(duì)模型培訓(xùn)方式的描述。
2. 經(jīng)濟(jì)效益要素考量
對(duì)于高科技產(chǎn)業(yè)而言,在需要考慮的外部性要素中,經(jīng)濟(jì)效益平衡問(wèn)題是重點(diǎn)之一,因?yàn)椤皬膶?zhuān)利制度鼓勵(lì)技術(shù)知識(shí)傳播的社會(huì)目標(biāo)角度看,技術(shù)溢出使既有專(zhuān)利較早進(jìn)入公共領(lǐng)域,客觀上有利于整個(gè)社會(huì)技術(shù)知識(shí)的共享和傳播。但是,從專(zhuān)利制度鼓勵(lì)研發(fā)投資的社會(huì)目標(biāo)角度看,技術(shù)外溢降低了既有專(zhuān)利的私人價(jià)值,可能降低創(chuàng)新者研發(fā)投資和申請(qǐng)專(zhuān)利的積極性”[10]。
現(xiàn)階段,人工智能技術(shù)的開(kāi)發(fā)和應(yīng)用涉及大量初創(chuàng)公司和一些小型經(jīng)濟(jì)實(shí)體,如果對(duì)人工智能生成發(fā)明在“充分公開(kāi)”的要求方面采用過(guò)于嚴(yán)苛的標(biāo)準(zhǔn),而要求披露傳統(tǒng)計(jì)算機(jī)硬件/軟件的特性和操作以及訓(xùn)練模型、數(shù)據(jù)和模塊等,則會(huì)給他們帶來(lái)沉重的經(jīng)濟(jì)、法律和技術(shù)負(fù)擔(dān)。以美國(guó)為例,2020年8月3日,美國(guó)初創(chuàng)企業(yè)與發(fā)明人促進(jìn)就業(yè)聯(lián)盟(USIJ)發(fā)布了題為《有效可靠的專(zhuān)利制度對(duì)關(guān)鍵技術(shù)投資的重要性》的報(bào)告,指出專(zhuān)利制度的變化正導(dǎo)致風(fēng)險(xiǎn)投資在開(kāi)發(fā)專(zhuān)利密集型高科技企業(yè)資金中所占份額大幅下降。2004年,風(fēng)險(xiǎn)投資大部分流向?qū)@芗椭圃鞓I(yè)。及至2017年,這些專(zhuān)利密集型行業(yè)獲得的資金份額從2004年的50%以上下降至2017年的28%(2016年達(dá)到24.5%的低點(diǎn))[11]。這一數(shù)據(jù)表明,過(guò)于嚴(yán)苛的專(zhuān)利審查制度會(huì)影響資本投入,從而降低以變革性技術(shù)為特征的專(zhuān)利密集型企業(yè)的創(chuàng)新能力。而訓(xùn)練數(shù)據(jù)又具有重要的獨(dú)立價(jià)值(3)有理論認(rèn)為,雖然目前沒(méi)有專(zhuān)門(mén)針對(duì)人工智能算法數(shù)據(jù)的知識(shí)產(chǎn)權(quán)保護(hù)法規(guī),但培訓(xùn)數(shù)據(jù)可以作為商業(yè)秘密保護(hù),如果培訓(xùn)數(shù)據(jù)提供了一些新的和有用的結(jié)果,則可以作為專(zhuān)利保護(hù)。,將其公之于眾可能會(huì)阻礙初創(chuàng)企業(yè)替代性收入來(lái)源,或者輔助競(jìng)爭(zhēng)對(duì)手更快地啟動(dòng)周邊設(shè)計(jì)的方案研發(fā),加速競(jìng)爭(zhēng)。因此,在制定涉及人工智能生成發(fā)明的披露標(biāo)準(zhǔn)時(shí),有必要對(duì)公開(kāi)的程度設(shè)定可供操作的邊界,以達(dá)到技術(shù)創(chuàng)新擴(kuò)散所產(chǎn)生的經(jīng)濟(jì)效應(yīng)與初創(chuàng)高科技型企業(yè)成本優(yōu)化之間的平衡。
1. 數(shù)據(jù)的公有留存與安全供給
學(xué)者們?cè)谟懻摻鉀Q黑箱問(wèn)題時(shí)提出“追蹤數(shù)據(jù)來(lái)源的方式有助于人們更正錯(cuò)誤”“如果不良數(shù)據(jù)的后續(xù)使用者不知道該數(shù)據(jù)的來(lái)源,他們可能就不會(huì)相信數(shù)據(jù)當(dāng)事人。如果他們能夠跟蹤數(shù)據(jù)的出處,更正過(guò)程就會(huì)容易得多”[12]。設(shè)計(jì)一套對(duì)人工智能訓(xùn)練數(shù)據(jù)持續(xù)性供給的監(jiān)管技術(shù),以確保對(duì)在發(fā)明使用過(guò)程中所出現(xiàn)的問(wèn)題能夠依據(jù)數(shù)據(jù)之出處予以適度修正,對(duì)于人工智能生成發(fā)明的披露具有重要意義。
數(shù)據(jù)保存最為重要的目的是在記錄、確保數(shù)據(jù)安全并持續(xù)更新的基礎(chǔ)上,在滿(mǎn)足人工智能學(xué)習(xí)需要的同時(shí)保證發(fā)明的適用性。鑒于人工智能系統(tǒng)的復(fù)雜性、內(nèi)部運(yùn)行的不透明以及難以快速驗(yàn)證等特征,更應(yīng)當(dāng)確保與算法、編程有關(guān)的測(cè)試記錄,以及有關(guān)建立、測(cè)試和驗(yàn)證人工智能系統(tǒng)的訓(xùn)練方法、使用流程和相關(guān)技術(shù)的資料文件,包括預(yù)先制定的安全措施和避免歧視偏見(jiàn)的應(yīng)對(duì)方案等得到有效留存,并準(zhǔn)確記錄特定情形下高風(fēng)險(xiǎn)人工智能應(yīng)用測(cè)試的數(shù)據(jù)集,詳細(xì)描述數(shù)據(jù)集的主要特征和選擇方式。事實(shí)上,信息的留存問(wèn)題并不是人工智能技術(shù)所獨(dú)有的,其已經(jīng)在一個(gè)完全不同的專(zhuān)利領(lǐng)域得到解決,即涉及微生物的發(fā)明。為了從基本材料中產(chǎn)生有用的物質(zhì),生物技術(shù)的發(fā)明可能會(huì)使用微生物,對(duì)于涉及的生物材料很難僅僅通過(guò)書(shū)面形式予以充分描述。如果說(shuō)明書(shū)對(duì)如何制造要求保護(hù)的發(fā)明作出了充分指引,那么多大程度上允許公眾訪問(wèn)、獲得這些微生物材料就決定了該項(xiàng)發(fā)明的實(shí)現(xiàn)程度。為解決這一問(wèn)題,需要建立一整套在嚴(yán)格條件下保存、獲得生物材料的存儲(chǔ)系統(tǒng)。根據(jù)1977年《布達(dá)佩斯條約》(Budapest Treaty 1977)規(guī)定,如果相關(guān)的書(shū)面說(shuō)明被認(rèn)為不足以描述樣品的特征或者不夠充分,則專(zhuān)利申請(qǐng)人可提取存放在指定國(guó)際保存機(jī)構(gòu)(international depositary authority,簡(jiǎn)稱(chēng)IDA)的微生物樣本,以滿(mǎn)足專(zhuān)利描述的要求(4)1977年《布達(dá)佩斯條約》即The Budapest Treaty on the International Recognition of the Deposit of Microorganisms for the Purposes of Patent Procedure,是一項(xiàng)國(guó)際專(zhuān)利法條約,最初于1977年4月28日簽署,第一次于1980年8月9日生效。世界知識(shí)產(chǎn)權(quán)組織負(fù)責(zé)條約的管理。截至2019年8月,“布達(dá)佩斯條約”共有82個(gè)締約國(guó)。該條約規(guī)定了關(guān)于存放和儲(chǔ)存生物材料的具體條款。條約要求所有簽署人按照規(guī)定的條件將生物材料予以?xún)?chǔ)存并提供使用權(quán)限,有權(quán)接受儲(chǔ)存樣本的締約方包括儲(chǔ)戶(hù)、任何持有存放人書(shū)面授權(quán)的人以及任何宣布正在處理與儲(chǔ)存材料有關(guān)專(zhuān)利申請(qǐng)的知識(shí)產(chǎn)權(quán)局。。由于神經(jīng)網(wǎng)絡(luò)具有模仿生物網(wǎng)絡(luò)特性,因此,獲得人工智能發(fā)明專(zhuān)利的數(shù)據(jù)留存可以參考建立類(lèi)似于生物材料存儲(chǔ)的人工智能培訓(xùn)數(shù)據(jù)公有保理系統(tǒng),用于保存培訓(xùn)數(shù)據(jù),并通過(guò)明確制定獲取數(shù)據(jù)的法定條件,一方面促進(jìn)公眾合法獲得專(zhuān)有數(shù)據(jù)進(jìn)行研究,另一方面保護(hù)提供上述數(shù)據(jù)的專(zhuān)利申請(qǐng)人利益,推動(dòng)類(lèi)似于人工智能系統(tǒng)等在內(nèi)的需要大規(guī)模數(shù)據(jù)披露和使用的技術(shù)專(zhuān)利公開(kāi)(5)還有一種被稱(chēng)為“數(shù)據(jù)大使館”的跨境數(shù)據(jù)共管模式,即外國(guó)政府對(duì)存儲(chǔ)在他國(guó)數(shù)據(jù)中心的數(shù)據(jù)保持管轄權(quán),允許將數(shù)據(jù)儲(chǔ)存在特定國(guó)家數(shù)據(jù)中心的外國(guó)主體在面臨與數(shù)據(jù)相關(guān)的任何爭(zhēng)議時(shí),只受自己國(guó)家法律的專(zhuān)屬管轄,不適用于數(shù)據(jù)存儲(chǔ)國(guó)的法律——相當(dāng)于這些數(shù)據(jù)獲得了“外交豁免”,以推動(dòng)數(shù)據(jù)信息安全流動(dòng)。。
2. 數(shù)據(jù)的合法與安全使用
數(shù)據(jù)是人工智能的基礎(chǔ)要素,獲得初步開(kāi)發(fā)和持續(xù)培訓(xùn)的數(shù)據(jù)對(duì)于人工智能功能的實(shí)現(xiàn)非常重要,因此,數(shù)據(jù)和數(shù)據(jù)集都極其具有價(jià)值,特別是“大數(shù)據(jù)”(如可以通過(guò)計(jì)算分析以揭示模式、趨勢(shì)和關(guān)聯(lián)的超大數(shù)據(jù)集等)。專(zhuān)利公開(kāi)原則要求權(quán)利要求書(shū)中的信息應(yīng)該受到保護(hù),而說(shuō)明書(shū)中的信息則可以自由使用,那么,除專(zhuān)利“公開(kāi)”之技術(shù)性要求外,人工智能生成發(fā)明如果需要公開(kāi)數(shù)據(jù),會(huì)面臨一個(gè)規(guī)范性問(wèn)題——數(shù)據(jù)的合法使用。雖然在不涉及敏感數(shù)據(jù)使用的情況下(比如人工智能在天氣預(yù)報(bào)或天文學(xué)中的應(yīng)用等)不涉及數(shù)據(jù)的保護(hù),但絕大多數(shù)情況下人工智能確實(shí)需要使用或收集個(gè)人數(shù)據(jù),并且在一定程度上存在大量的個(gè)人數(shù)據(jù)被用來(lái)訓(xùn)練和測(cè)試人工智能的情況。例如,歐洲專(zhuān)利局曾以披露不足為由駁回一項(xiàng)涉及人工智能的發(fā)明(6)該發(fā)明為使用人工神經(jīng)網(wǎng)絡(luò)程序?qū)⑼庵軠y(cè)得的血壓曲線轉(zhuǎn)化為等效主動(dòng)脈瓣壓。,在駁回決定中專(zhuān)利局指出,根據(jù)歐洲專(zhuān)利法第83條之規(guī)定,歐洲專(zhuān)利申請(qǐng)應(yīng)當(dāng)以一種足夠清晰和完整的方式披露該項(xiàng)發(fā)明,披露程度必須達(dá)到使該領(lǐng)域的技術(shù)人員能夠根據(jù)他/她的一般常識(shí),并依據(jù)該技術(shù)再現(xiàn)所聲稱(chēng)的發(fā)明。專(zhuān)利審核委員會(huì)同時(shí)認(rèn)為,這項(xiàng)基于人工智能技術(shù)的發(fā)明應(yīng)用:“無(wú)論是要求還是描述都沒(méi)有包含人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練的細(xì)節(jié),而僅僅表明權(quán)值是由機(jī)器學(xué)習(xí)決定的”[13],特別是缺少不同年齡、性別、體質(zhì)類(lèi)型、健康狀況等患者的信息,所披露的內(nèi)容沒(méi)有揭示哪些輸入數(shù)據(jù)適合于訓(xùn)練所發(fā)明的人工神經(jīng)網(wǎng)絡(luò),或者至少有一個(gè)適合于解決當(dāng)前技術(shù)問(wèn)題的數(shù)據(jù)集。因此,該項(xiàng)基于人工智能神經(jīng)網(wǎng)絡(luò)的專(zhuān)利沒(méi)有滿(mǎn)足充分披露的條件,造成該人工智能神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法無(wú)法由技術(shù)人員再現(xiàn),進(jìn)而不能重復(fù)發(fā)明過(guò)程。依據(jù)該案例,涉及人工智能系統(tǒng)的發(fā)明,其公開(kāi)范圍除去系統(tǒng)本身運(yùn)行之基本技術(shù)特征外,還應(yīng)當(dāng)涵蓋人工智能數(shù)據(jù)選擇與處理的方法。在這種情況下,要想滿(mǎn)足充分公開(kāi)的要求,就會(huì)涉及大量的個(gè)人信息。根據(jù)歐盟《通用數(shù)據(jù)保護(hù)條例》(TheGeneralDataProtectionRegulation,簡(jiǎn)稱(chēng)GDPR),使用個(gè)人數(shù)據(jù)信息要遵守“透明性原則”,即在考慮個(gè)人數(shù)據(jù)具體情況和背景的前提下,盡最大之可能確保信息使用的透明度,即清晰、公開(kāi)和誠(chéng)實(shí)地向公眾提供如何以及為何使用個(gè)人數(shù)據(jù),包括:原理說(shuō)明,發(fā)明的原因可以以可訪問(wèn)的非技術(shù)方式予以解釋?zhuān)回?zé)任說(shuō)明,誰(shuí)參與人工智能系統(tǒng)的開(kāi)發(fā)、管理和實(shí)施,以及如何對(duì)最終的發(fā)明進(jìn)行人工審查;數(shù)據(jù)說(shuō)明,在特定決策中使用了哪些數(shù)據(jù)以及如何使用。具體到人工智能發(fā)明專(zhuān)利則意味著,如果不向公眾公開(kāi)關(guān)于人工智能生成發(fā)明是如何以及為什么做出、所使用的個(gè)人數(shù)據(jù)如何被用來(lái)訓(xùn)練和測(cè)試人工智能系統(tǒng),就會(huì)違反透明性原則。除此之外,基于數(shù)據(jù)的高流動(dòng)性,建議由國(guó)際社會(huì)牽頭設(shè)計(jì)一套國(guó)際化數(shù)據(jù)流轉(zhuǎn)安全機(jī)制[14],例如:通過(guò)設(shè)立標(biāo)準(zhǔn)(包括關(guān)于數(shù)據(jù)格式、定義、結(jié)構(gòu)、標(biāo)記、傳輸、操作、使用和管理的相關(guān)協(xié)議)確保數(shù)據(jù)能夠在不同系統(tǒng)中重復(fù)使用。鼓勵(lì)利用區(qū)塊鏈或者通用安全加密技術(shù)等記錄數(shù)據(jù)獲取和收集的歷史維護(hù)數(shù)據(jù)源,確保數(shù)據(jù)的真實(shí)性(7)例如WIPO開(kāi)發(fā)的“WIPO PROOF”安全在線網(wǎng)站,允許申請(qǐng)人請(qǐng)求針對(duì)特定數(shù)字文件的WIPO PROOF令牌。該系統(tǒng)依托世界上最強(qiáng)大和最嚴(yán)格的標(biāo)準(zhǔn)之一——eIDAS標(biāo)準(zhǔn)設(shè)計(jì)和開(kāi)發(fā),使用公鑰基礎(chǔ)結(jié)構(gòu)(PKI)技術(shù)生成WIPO PROOF令牌,系統(tǒng)不會(huì)讀取文件的內(nèi)容或存儲(chǔ)文件的副本,而是根據(jù)安全單向算法與請(qǐng)求者的瀏覽器進(jìn)行本地交互,以創(chuàng)建文件的唯一數(shù)字指令,為信息提供最高級(jí)別的確定性,即令牌上的日期和時(shí)間是準(zhǔn)確且未被篡改的。任何人(甚至第三方)都可以通過(guò)遵循一些簡(jiǎn)單的步驟在網(wǎng)站上驗(yàn)證WIPO PROOF令牌。參見(jiàn)WIPO PROOF:WIPO Introduces New Business Service That Provides Evidence of An Intellectual Asset’s Existence,https://www.wipo.int/pressroom/en/articles/2020/article_0012.html.。
現(xiàn)階段以神經(jīng)元網(wǎng)絡(luò)技術(shù)為代表的人工智能系統(tǒng),已經(jīng)能夠通過(guò)大量可持續(xù)供給的數(shù)據(jù)學(xué)習(xí)找到事物之間關(guān)聯(lián),發(fā)現(xiàn)其中的規(guī)律,產(chǎn)生新的知識(shí)并自主創(chuàng)造出新的產(chǎn)品或工藝。并且,伴隨技術(shù)的不斷進(jìn)步和數(shù)據(jù)信息量的疊加,人工智能在提供新知識(shí)、新技術(shù)和新發(fā)現(xiàn)上的能力必將隨之增長(zhǎng),其發(fā)展?jié)摿赡苓h(yuǎn)遠(yuǎn)超過(guò)人類(lèi)在這幾百年工業(yè)革命中的規(guī)模和速度,而人類(lèi)介入之影響亦必隨之減弱。做好人工智能作為產(chǎn)品和技術(shù)發(fā)明者的準(zhǔn)備且應(yīng)將其盡快提上日程。即使人工智能在知識(shí)產(chǎn)權(quán)權(quán)利主體性方面由于道德或倫理的限制無(wú)法在短期內(nèi)獲得突破,但其生成發(fā)明的專(zhuān)利認(rèn)定對(duì)于促進(jìn)這一變革性技術(shù)的發(fā)展與新業(yè)態(tài)的繁榮具有重要意義。因此,在既有專(zhuān)利公開(kāi)制度的基礎(chǔ)上,通過(guò)公開(kāi)人工智能生成發(fā)明中的數(shù)據(jù)、訓(xùn)練模型并利用類(lèi)似于微生物保藏的算法建立保藏體系和跨地域的數(shù)據(jù)安全模式,可以一定程度上解決人工智能生成發(fā)明專(zhuān)利公開(kāi)的“黑箱”問(wèn)題,滿(mǎn)足充分公開(kāi)之要求。
沈陽(yáng)工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2022年2期