何煉紅,鄧韜
摘要:人工智能生成物的獨(dú)創(chuàng)性標(biāo)準(zhǔn)直接影響到其作品資格的認(rèn)定,具有重要意義。應(yīng)該以“獨(dú)立創(chuàng)作、源于本人”和“最低限度創(chuàng)造性”作為獨(dú)創(chuàng)性構(gòu)成要素,采用獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn),以人類干預(yù)引領(lǐng)和保障科技向善。司法實(shí)踐中,構(gòu)建人類干預(yù)評(píng)價(jià)模型,將案例抽象為人類干預(yù)情形組合,可解決獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)之客觀化問(wèn)題;構(gòu)建人類干預(yù)條件模型,歸納人類干預(yù)情形組合與著作權(quán)保護(hù)之間的關(guān)系,可解決獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)之門檻問(wèn)題。
關(guān)鍵詞:人工智能生成物;獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn);人類干預(yù);司法判斷模型
中圖分類號(hào):D923.4? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):16738268(2021)05005514
近年來(lái),學(xué)界對(duì)人工智能生成物的著作權(quán)保護(hù)問(wèn)題予以了高度關(guān)注,縱觀現(xiàn)有成果,對(duì)人工智能生成物是否具備獨(dú)創(chuàng)性,肯定者有之,否定者也有之。爭(zhēng)論原因正是學(xué)者們對(duì)人工智能生成物獨(dú)創(chuàng)性的判斷方法或判斷標(biāo)準(zhǔn)不一致[1]197。這種不一致與獨(dú)創(chuàng)性本身爭(zhēng)議、人工智能主體資格分歧均有聯(lián)系。“獨(dú)創(chuàng)性標(biāo)準(zhǔn)”對(duì)判斷作品資格極為重要,是人工智能生成物可版權(quán)性問(wèn)題的破題核心,故有必要對(duì)人工智能生成物“獨(dú)創(chuàng)性標(biāo)準(zhǔn)”爭(zhēng)議予以再探討,以利于理論和實(shí)務(wù)界統(tǒng)一判斷方法和適用標(biāo)準(zhǔn)。在當(dāng)前的技術(shù)背景下,人工智能生成物區(qū)別于傳統(tǒng)的作品,其所蘊(yùn)含的人格因素在其他文章里,也被表述為“思想”“人格”因素、人格要素、個(gè)性特征等,本文統(tǒng)一稱呼為人格因素。被大大沖淡,但著作權(quán)法的內(nèi)核依然是鼓勵(lì)和獎(jiǎng)賞人類創(chuàng)作,獨(dú)創(chuàng)性仍包含著對(duì)作品人格因素的期待,故有必要采用獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn),通過(guò)構(gòu)建人類干預(yù)之司法判斷模型,篩選出人格因素達(dá)標(biāo)的人工智能生成物予以著作權(quán)保護(hù)。
一、人工智能生成物獨(dú)創(chuàng)性標(biāo)準(zhǔn)之論爭(zhēng)
(一)人工智能生成物獨(dú)創(chuàng)性標(biāo)準(zhǔn)探討的意義
當(dāng)前,人工智能生成物是否應(yīng)納入著作權(quán)法保護(hù)得到了廣泛討論。支持者認(rèn)為,可以防止機(jī)器人創(chuàng)作中的抄襲之風(fēng)[2],以產(chǎn)權(quán)化方式降低市場(chǎng)交易成本[1]199。反對(duì)的理由是,貿(mào)然納入不符合要求的人工智能生成物會(huì)破壞著作權(quán)法的內(nèi)在統(tǒng)一性和合理性,其利益可以通過(guò)其他法律規(guī)則保護(hù);保護(hù)基于同一算法邏輯得到的不同生成物會(huì)滋生人類創(chuàng)造惰性而背離立法宗旨[3]。但無(wú)論是否要納入著作權(quán)法保護(hù),都要從法釋義學(xué)上尋找一個(gè)合理的解釋。受著作權(quán)法保護(hù)的“作品”要件通常包括:(1)屬于文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi);(2)具有獨(dú)創(chuàng)性;(3)能以一定形式表現(xiàn);(4)是智力成果;(5)是思想的表達(dá)參照《著作權(quán)法》第3條和《著作權(quán)法實(shí)施條例》第2條、第3條以及《與貿(mào)易有關(guān)的知識(shí)產(chǎn)權(quán)協(xié)定》第9條。。人工智能生成物顯然滿足第(1)、(3)條,但是否滿足“獨(dú)創(chuàng)性”“智力成果”屬性、是否為“思想的表達(dá)”則存在爭(zhēng)議。
在上述三個(gè)爭(zhēng)議要素的判斷當(dāng)中,又屬獨(dú)創(chuàng)性判斷最為重要。因?yàn)楠?dú)創(chuàng)性是確定“作品”的必要條件如,吳漢東教授主編、北京大學(xué)出版社出版的《知識(shí)產(chǎn)權(quán)法學(xué)(第六版)》將獨(dú)創(chuàng)性、可復(fù)制性作為作品受著作權(quán)保護(hù)的兩個(gè)實(shí)質(zhì)條件。又如,王遷教授著、中國(guó)人民大學(xué)出版社出版的《知識(shí)產(chǎn)權(quán)法教程(第六版)》認(rèn)為應(yīng)該從三個(gè)方面理解作品:(1)作品必須是人類的智力成果;(2)作品必須是能夠被他人客觀感知的外在表達(dá);(3)只有具有獨(dú)創(chuàng)性的外在表達(dá)才是作品。,且討論獨(dú)創(chuàng)性在一定程度上也有利于探討“智力成果”屬性和“思想的表達(dá)”要件?!爸橇Τ晒睂傩詮?qiáng)調(diào)的是“作品”源于人類,不是純粹的自然產(chǎn)物[4]2526。而獨(dú)創(chuàng)性之“獨(dú)”通常解釋為“獨(dú)立創(chuàng)作、源于本人”,也有作品源于人類之意。對(duì)于“思想的表達(dá)”要件,可以拆分為表達(dá)對(duì)象是思想,以及思想已表達(dá)出來(lái)。而獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)說(shuō)認(rèn)為,獨(dú)創(chuàng)性判斷應(yīng)延及創(chuàng)作過(guò)程中是否體現(xiàn)人格因素,人格因素即思想的表征。
雖然獨(dú)創(chuàng)性在判斷作品資格時(shí)如此重要,然而,在國(guó)際社會(huì)并無(wú)統(tǒng)一的標(biāo)準(zhǔn)。通常認(rèn)為大陸法系的作者權(quán)制度更注重人格因素的參與,而英美法系下的版權(quán)制度獨(dú)創(chuàng)性要求相對(duì)要低。我國(guó)的著作權(quán)制度雖然深受大陸法系的影響,但是現(xiàn)行《著作權(quán)法》和《著作權(quán)法實(shí)施條例》也并未直接規(guī)定獨(dú)創(chuàng)性的法律含義和認(rèn)定標(biāo)準(zhǔn)。2002年出臺(tái)的《最高人民法院關(guān)于審理著作權(quán)民事糾紛案件適用法律若干問(wèn)題的解釋》第15條該條規(guī)定,由不同作者就同一題材創(chuàng)作的作品,作品的表達(dá)系獨(dú)立完成并且有創(chuàng)作性的,應(yīng)當(dāng)認(rèn)定作者各自享有獨(dú)立著作權(quán)。被認(rèn)為可能和獨(dú)創(chuàng)性的含義有關(guān)。實(shí)際上,這一條意在說(shuō)明獨(dú)立創(chuàng)作是侵權(quán)抗辯事由之一,并未試圖展示獨(dú)創(chuàng)性的含義和標(biāo)準(zhǔn)。即使認(rèn)為“獨(dú)立完成并且有創(chuàng)作性”是獨(dú)創(chuàng)性的解釋,但也因“創(chuàng)作”概念直接產(chǎn)生文學(xué)、藝術(shù)和科學(xué)作品的智力活動(dòng)。本身依賴于“作品”和“獨(dú)創(chuàng)性”,陷入循環(huán)解釋[5],未給司法實(shí)踐帶來(lái)太多參考價(jià)值。
(二)人工智能生成物獨(dú)創(chuàng)性標(biāo)準(zhǔn)論爭(zhēng)的焦點(diǎn)
學(xué)界有關(guān)人工智能生成物獨(dú)創(chuàng)性標(biāo)準(zhǔn)論爭(zhēng)的焦點(diǎn),主要集中在以下幾個(gè)方面:一是獨(dú)創(chuàng)性包括何種要素;二是獨(dú)創(chuàng)性之“獨(dú)”應(yīng)如何判斷;三是獨(dú)創(chuàng)性之“創(chuàng)”的程度要求應(yīng)否提高;四是獨(dú)創(chuàng)性應(yīng)采納客觀標(biāo)準(zhǔn)還是主觀標(biāo)準(zhǔn)。
1.關(guān)于獨(dú)創(chuàng)性的構(gòu)成要素
在獨(dú)創(chuàng)性標(biāo)準(zhǔn)中,獨(dú)創(chuàng)性所含要素是研究起點(diǎn)。主流觀點(diǎn)認(rèn)為,獨(dú)創(chuàng)性構(gòu)成要素包含“獨(dú)”和“創(chuàng)”兩方面,“獨(dú)”指“獨(dú)立創(chuàng)作、源于本人”,“創(chuàng)”指“最低限度創(chuàng)造性”。這種觀點(diǎn)的支持理由似渾然天成:一來(lái),獨(dú)創(chuàng)性這一詞匯譯自英語(yǔ)“originality”,其英文本意包含“獨(dú)”和“創(chuàng)”兩層意思[4]2728;二來(lái),這和獨(dú)創(chuàng)性的中文造詞法(含“獨(dú)”“創(chuàng)”)相吻合。
但近年來(lái)也不乏學(xué)者質(zhì)疑。一方面,有學(xué)者認(rèn)為獨(dú)創(chuàng)性僅包含“獨(dú)立創(chuàng)作”。如吳漢東教授援引世界知識(shí)產(chǎn)權(quán)組織解釋作品須具獨(dú)創(chuàng)性,即“作品是作者自己的創(chuàng)作,完全不是或基本上不是從另一作品抄襲來(lái)的”。,指出人工智能生成物“只要由機(jī)器人獨(dú)立完成”,就構(gòu)成作品[2]。另一方面,有學(xué)者認(rèn)為獨(dú)創(chuàng)性僅包含“最低限度創(chuàng)造性”?!蔼?dú)立創(chuàng)作”是獨(dú)創(chuàng)性內(nèi)涵的偽概念,應(yīng)回歸其原來(lái)功能[67]。
2.關(guān)于獨(dú)創(chuàng)性之“獨(dú)”的判斷
假設(shè)同意“獨(dú)”是獨(dú)創(chuàng)性要素之一,就要考慮獨(dú)創(chuàng)性之“獨(dú)”如何判斷。學(xué)界存在以下兩點(diǎn)爭(zhēng)議:一是“獨(dú)”是否排斥基于已有素材整合。有學(xué)者認(rèn)為,人工智能生成物的“創(chuàng)造性”是在已有邏輯和數(shù)據(jù)模式下的排列組合[8],所以,從本質(zhì)上就不算一種獨(dú)立創(chuàng)作的作品。也有學(xué)者認(rèn)為,獨(dú)立創(chuàng)作不排斥攝入、整合已有作品創(chuàng)作,只需要新作、原作間存在可以被客觀識(shí)別的差異[9]24。二是如何認(rèn)定獨(dú)立“創(chuàng)作”行為的觀察主體。有的學(xué)者主張使人工智能成為著作權(quán)法上的新主體,享有人工智能作品的著作權(quán)[10]。有學(xué)者在此基礎(chǔ)上進(jìn)一步論證,人工智能具有自主性、主動(dòng)性,已非純受支配之客體,在法律上應(yīng)設(shè)定為“電子人”[11]。有的學(xué)者認(rèn)為,只有人才是創(chuàng)作主體,獨(dú)創(chuàng)性來(lái)源是人的行為,必須從人的行為出發(fā)判斷人工智能生成物獨(dú)創(chuàng)性[12]。
3.關(guān)于獨(dú)創(chuàng)性之“創(chuàng)”的高低
“創(chuàng)”指“最低限度創(chuàng)造性”。假設(shè)同意它為獨(dú)創(chuàng)性要素之一,亦要考慮如何判斷。最低限度創(chuàng)造性來(lái)源于美國(guó)的Feist案參見Feist Publications,Inc. v. Rural Telephone Company,Inc.111 S.Ct.1282。。該案中法院認(rèn)定,Rural公司雖為電話目錄付出了勞動(dòng),但其遵循戶主姓名字母順序的編排方式是一種古老、傳統(tǒng)的習(xí)慣和做法,僅是機(jī)械性工作,無(wú)創(chuàng)造性可言,故以缺乏“最低限度創(chuàng)造性”為由否決了Rural公司的保護(hù)要求。在人工智能時(shí)代,有學(xué)者主張?zhí)岣呷斯ぶ悄苌晌锏膭?chuàng)造性高度標(biāo)準(zhǔn)。理由是,人工智能具有深度學(xué)習(xí)能力,已非人類活動(dòng)機(jī)械延伸,提高創(chuàng)造性標(biāo)準(zhǔn)利于與其較人類更高的創(chuàng)作能力和創(chuàng)作效率相適應(yīng)等[13]141。也有學(xué)者反對(duì),認(rèn)為提高創(chuàng)造性標(biāo)準(zhǔn)只會(huì)徒增交易、執(zhí)行成本,沒(méi)有良好的法律效果,仍應(yīng)采用傳統(tǒng)標(biāo)準(zhǔn)[14]106107。
4.關(guān)于獨(dú)創(chuàng)性之客觀標(biāo)準(zhǔn)與主觀標(biāo)準(zhǔn)
這是近來(lái)圍繞人工智能生成物獨(dú)創(chuàng)性標(biāo)準(zhǔn)產(chǎn)生的最大爭(zhēng)議,即除去考慮作為創(chuàng)作結(jié)果的表達(dá)本身是否具有獨(dú)創(chuàng)性,是否也應(yīng)考慮創(chuàng)作過(guò)程中有無(wú)體現(xiàn)人格因素[1]197[14]102103。支持只考慮創(chuàng)作結(jié)果是否具有獨(dú)創(chuàng)性的學(xué)說(shuō),被稱為客觀標(biāo)準(zhǔn)說(shuō)[15][13]139[14]102108。認(rèn)為獨(dú)創(chuàng)性判斷延及創(chuàng)作過(guò)程中是否體現(xiàn)人格因素的學(xué)說(shuō),被稱為主觀標(biāo)準(zhǔn)說(shuō)[16]150[17]。也有學(xué)者將人格因素抽出,與獨(dú)創(chuàng)性并列作為作品要件[7][9]2425,因?yàn)榇朔N觀點(diǎn)亦考慮了創(chuàng)作過(guò)程中的人格因素,本文也歸類為主觀標(biāo)準(zhǔn)說(shuō)的一種。
二、人工智能生成物獨(dú)創(chuàng)性構(gòu)成要素的重新闡釋
(一)獨(dú)創(chuàng)性構(gòu)成要素:兼采“獨(dú)”與“創(chuàng)”
本文認(rèn)為,人工智能生成物獨(dú)創(chuàng)性要素包含“獨(dú)立創(chuàng)作”和“最低限度創(chuàng)造性”兩個(gè)方面。
1.證偽“獨(dú)立創(chuàng)作”之反駁
有學(xué)者提出,“獨(dú)立創(chuàng)作”是獨(dú)創(chuàng)性內(nèi)涵的偽概念,將“獨(dú)立創(chuàng)作”作為獨(dú)創(chuàng)性的內(nèi)涵有諸多不妥。具體來(lái)說(shuō),一是形式邏輯上,“獨(dú)立創(chuàng)作”描述的是作品和作者的關(guān)系,不是作品與其他事物的關(guān)系,不適宜用來(lái)定義作品的法定屬性;二是法律邏輯上,“獨(dú)立創(chuàng)作”指向的是作品著作權(quán)的來(lái)源和歸屬,強(qiáng)調(diào)的是著作權(quán)人基于創(chuàng)作行為(或者受讓)對(duì)作品享有著作權(quán),但這一強(qiáng)調(diào)顯得“特殊”“奇怪”,例如,《民法典》物權(quán)編也沒(méi)有將所有者基于原始取得或繼受取得定義為“物”的基本內(nèi)涵;三是價(jià)值論上,“獨(dú)立創(chuàng)作”承擔(dān)了過(guò)多的法律功能負(fù)擔(dān);四是制度實(shí)踐上,剔除“獨(dú)立創(chuàng)作”有利于著作權(quán)法接受新客體[6]。
本文認(rèn)為以上觀點(diǎn)有失偏頗。其一,“獨(dú)立創(chuàng)作”描述作品與作者關(guān)系的結(jié)果,就是描述了作品與其他事物的關(guān)系。正如德國(guó)學(xué)者雷炳德所言,“作品體現(xiàn)了作者的獨(dú)特性格,這種獨(dú)特性格是作品的標(biāo)志,也就是獨(dú)創(chuàng)性”[18]。因?yàn)樽髌吩从谧髡弑救?,不同作者?chuàng)作的作品才帶有不同的個(gè)性特征,每件作品自身的個(gè)性特征構(gòu)成與其他事物的區(qū)別。作品的法定屬性包含“獨(dú)立創(chuàng)作”,正是因?yàn)樽髌分刑N(yùn)含的個(gè)性特征是大陸法系著作權(quán)法保護(hù)的核心內(nèi)容,將其證偽、只留下“最低限度創(chuàng)造性”的觀點(diǎn),忽視了這一重要的立法意圖。
其二,著作權(quán)法的法律邏輯不能直接和物權(quán)法類比。知識(shí)產(chǎn)權(quán)法調(diào)整的客體是無(wú)形的知識(shí)產(chǎn)品,相較于有形物,更難劃分其與公有領(lǐng)域的邊界。將“獨(dú)立創(chuàng)作”設(shè)定為作品獨(dú)創(chuàng)性的內(nèi)涵,有利于避免創(chuàng)作者侵占公有領(lǐng)域資源,對(duì)源于作者自身的智力創(chuàng)造成果進(jìn)行精確保護(hù)。
其三,“獨(dú)立創(chuàng)作”雖然承擔(dān)了“確定作者的權(quán)利主體地位”等使命,但這并不是“過(guò)多的法律功能負(fù)擔(dān)”。時(shí)至今日,我國(guó)著作權(quán)保護(hù)環(huán)境雖有改善,但侵權(quán)盜版的現(xiàn)象尚未形成根本性扭轉(zhuǎn),此時(shí)仍需要“獨(dú)立創(chuàng)作”要件引導(dǎo)著作權(quán)嚴(yán)格保護(hù),激勵(lì)創(chuàng)作者創(chuàng)作更多帶有獨(dú)特個(gè)性的作品,弘揚(yáng)尊重知識(shí)產(chǎn)權(quán)的社會(huì)主義法治文化。
其四,不宜以有利于著作權(quán)法接受新客體為由剔除“獨(dú)立創(chuàng)作”。一方面,人工智能生成物等新事物尚處于發(fā)展之中,著作權(quán)法如何予以回應(yīng)尚未得到充分論證;另一方面,我國(guó)受大陸法系影響,不僅注重作者的主體地位,而且強(qiáng)調(diào)法律內(nèi)部體系完整、嚴(yán)密,為了接受新客體而貿(mào)然修法,有可能造成法律體系的混亂。
2.“最低限度創(chuàng)造性”同樣不可割舍
人工智能生成物獨(dú)創(chuàng)性要素包含“最低限度創(chuàng)造性”,符合司法實(shí)踐需求和著作權(quán)法立法宗旨。最高人民法院曾經(jīng)明確指出,獨(dú)立完成和付出勞動(dòng)本身并不是某項(xiàng)客體獲得著作權(quán)法保護(hù)的充分條件參見最高人民法院民事裁定書(2012)民申字第1392號(hào)。。從法理上看,著作權(quán)法的立法宗旨是鼓勵(lì)作品創(chuàng)作傳播、促進(jìn)文化繁榮。這背后是功利主義激勵(lì)論的邏輯。而按功利主義的“成本收益”計(jì)算方法,并不是所有作品都值得花大力氣保護(hù),只有那些具備最低限度創(chuàng)造性的作品被區(qū)分出來(lái),才能提高激勵(lì)效率。國(guó)際趨勢(shì)也肯定“最低限度創(chuàng)造性”作為獨(dú)創(chuàng)性要件之一。德、法等大陸法系國(guó)家自不必說(shuō),美國(guó)自Feist案后也增加了最低限度創(chuàng)造性的要求。
(二)獨(dú)創(chuàng)性標(biāo)準(zhǔn)中“獨(dú)”之釋義
1.獨(dú)立創(chuàng)作不排斥基于已有素材整合
該問(wèn)題實(shí)質(zhì)上是一個(gè)老問(wèn)題,不應(yīng)因披上人工智能外衣就成為爭(zhēng)議。在我國(guó),“獨(dú)立創(chuàng)作”通常與“源于本人”連用,指勞動(dòng)成果源于勞動(dòng)者本人,也即作品是由作者獨(dú)立完成的,并非抄襲結(jié)果[19]。日本法律中的解讀也具有借鑒意義,在日本法中,一部作品必須是原創(chuàng)的(original),而不僅僅是模仿別人的作品。如果一部人工智能創(chuàng)作的作品不依賴于其他作者的作品,那么,這個(gè)作品可以被認(rèn)為是原創(chuàng)的[20]。本文將其概括為“非模仿、不依賴”標(biāo)準(zhǔn)。由此觀之,“獨(dú)立”主要從反面界定為非抄襲、非模仿、不依賴,比較對(duì)象是一作品與另一作品。某些人工智能生成物確實(shí)是數(shù)據(jù)庫(kù)中已有數(shù)據(jù)通過(guò)算法進(jìn)行重新排列組合的結(jié)果,例如,人工智能生成的新聞系套用系統(tǒng)設(shè)定模板、嵌入扒取后依規(guī)律排列的數(shù)據(jù)形成,但如果最終產(chǎn)物源于人類獨(dú)立的勞動(dòng),并非抄襲或模仿他人作品形成,即可滿足獨(dú)立創(chuàng)作要件。
2.獨(dú)立創(chuàng)作應(yīng)當(dāng)以“人的行為”為研究基礎(chǔ)
一些研究在考察“獨(dú)立創(chuàng)作”要件時(shí)經(jīng)常出現(xiàn)一個(gè)問(wèn)題——以人工智能的“行為”為基礎(chǔ)來(lái)分析創(chuàng)作行為是否獨(dú)立。該做法默認(rèn)人工智能存在“行為”且該“行為”可能產(chǎn)生權(quán)利,將人工智能視作潛在的權(quán)利主體,致使人工智能生成物可版權(quán)性的研究基礎(chǔ)陷入了迷障。
這一觀點(diǎn)忽視了人工智能技術(shù)發(fā)展有從弱到強(qiáng)這一階段性、遞進(jìn)性的客觀情況。在不同的技術(shù)發(fā)展階段,人工智能技術(shù)有著不同的功能定位,其政策和法律的供給需求也不一樣。應(yīng)該以正確的技術(shù)法學(xué)分析方法,客觀評(píng)估技術(shù)變化對(duì)法律制度所產(chǎn)生的影響[21]。從產(chǎn)業(yè)發(fā)展的現(xiàn)狀來(lái)說(shuō),人工智能領(lǐng)域取得的進(jìn)步尚局限于弱人工智能階段。人工智能作為一種輔助創(chuàng)作的工具,“看似具有仿人學(xué)習(xí)、推理和適應(yīng)能力,但是缺乏常識(shí)、智慧以及進(jìn)行自我維護(hù)和復(fù)制的廣泛方法”[22]。目前尚無(wú)迫切需要去研究強(qiáng)人工智能時(shí)代如何賦予人工智能生成物著作權(quán)。因?yàn)槿魪摹叭酢鞭D(zhuǎn)“強(qiáng)”,“人工智能系統(tǒng)會(huì)對(duì)人類的自主性、自由乃至生存造成更為直接的威脅”[23],與之相比,著作權(quán)制度受到的沖擊可以忽略不計(jì)[16]155。一旦權(quán)利客體變?yōu)闄?quán)利主體,倫理學(xué)和民法學(xué)應(yīng)先于知識(shí)產(chǎn)權(quán)法學(xué)做出回應(yīng)[12]。
總之,應(yīng)以人的行為為獨(dú)立創(chuàng)作的研究基礎(chǔ),堅(jiān)持弱人工智能階段人工智能的工具地位,以人為主體視角觀察人工智能生成物的創(chuàng)作過(guò)程[12]。人工智能生成物獨(dú)創(chuàng)性源于人類,體現(xiàn)為人的意志滲透在人工智能生成物生成過(guò)程中的各個(gè)環(huán)節(jié)。比如,算法開發(fā)、訓(xùn)練階段,研發(fā)者的個(gè)性化安排以代碼形式植入人工智能之中;人工智能“創(chuàng)作”階段,數(shù)據(jù)庫(kù)和模型本身無(wú)一不包含人類作者的創(chuàng)造勞動(dòng)[24]。
(三)獨(dú)創(chuàng)性標(biāo)準(zhǔn)中“創(chuàng)”之高度
本文認(rèn)為,人工智能生成物的創(chuàng)造性標(biāo)準(zhǔn)應(yīng)該與傳統(tǒng)作品保持一致,依然采用“最低限度創(chuàng)造性”。雖然人工智能提升了人類的創(chuàng)作能力和效率,提高創(chuàng)造性標(biāo)準(zhǔn)有利于實(shí)現(xiàn)更好的激勵(lì),但在操作層面并不現(xiàn)實(shí)。隨著人工智能技術(shù)越來(lái)越成熟,區(qū)分人工智能生成物和傳統(tǒng)作品的難度將越來(lái)越大。實(shí)踐中,人工智能生成物與傳統(tǒng)作品在形式上幾無(wú)差異,在不告知來(lái)源的情況下,難以辨別二者。而匿名情形下,人工智能生成物憑借其與傳統(tǒng)作品類似的藝術(shù)性外觀,已經(jīng)足以得到司法上“孤兒作品”水平的保護(hù)[9]24。且人工智能使用者可能為了避開較高創(chuàng)造性標(biāo)準(zhǔn),隱瞞產(chǎn)物為人工智能生成的事實(shí)[14]106107。雖然有學(xué)者提出給人工智能使用者施加標(biāo)識(shí)義務(wù),但缺乏監(jiān)督制度恐難實(shí)現(xiàn),而監(jiān)督難度亦極大。此外,創(chuàng)造性提高到何種程度同樣沒(méi)有統(tǒng)一標(biāo)準(zhǔn),把自由裁量空間留給法院只會(huì)帶來(lái)更大的不確定性,從而造成裁判尺度不一,損害司法公信力。
不過(guò),本文雖然不建議從獨(dú)創(chuàng)性之“創(chuàng)”上提高人工智能生成物的版權(quán)保護(hù)標(biāo)準(zhǔn),但是主張從獨(dú)創(chuàng)性之“獨(dú)”入手,采用獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn),強(qiáng)調(diào)只有人類干預(yù)達(dá)到一定程度的人工智能生成物才能滿足獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn),實(shí)際上賦予了人工智能生成物版權(quán)主張更高的證明義務(wù),施以了人工智能生成物更高的保護(hù)門檻。
三、人工智能生成物獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)之選擇與理由
本文認(rèn)為,判斷人工智能生成物獨(dú)創(chuàng)性,應(yīng)采納主觀標(biāo)準(zhǔn),即不僅考慮作為創(chuàng)作結(jié)果的表達(dá)是否具有獨(dú)創(chuàng)性,而且也應(yīng)考慮創(chuàng)作過(guò)程中有無(wú)體現(xiàn)人格因素。
(一)獨(dú)創(chuàng)性客觀標(biāo)準(zhǔn)說(shuō)的缺陷
獨(dú)創(chuàng)性客觀標(biāo)準(zhǔn)說(shuō)主張對(duì)獨(dú)創(chuàng)性標(biāo)準(zhǔn)進(jìn)行改造,宣稱其不考慮生成物生成過(guò)程中是否體現(xiàn)人格因素。然而,這一主張遠(yuǎn)沒(méi)有考慮其可能帶來(lái)的邏輯矛盾與正當(dāng)性隱患。其一,即使按客觀標(biāo)準(zhǔn)說(shuō)的思路,只關(guān)注生成物本身是否具有獨(dú)創(chuàng)性,會(huì)不可避免地延及人格因素,因?yàn)槿烁褚蛩鼐吞N(yùn)含在獨(dú)創(chuàng)性之“獨(dú)”與“創(chuàng)”的要求之中。具言之,獨(dú)創(chuàng)性之“獨(dú)”意為“獨(dú)立創(chuàng)作、源于本人”,源于本人指的就是作品與作者在人格因素上的聯(lián)系;獨(dú)創(chuàng)性之“創(chuàng)”即“最低限度創(chuàng)造性”,但此“創(chuàng)造”指的是智力創(chuàng)造,智力為人所有,智力創(chuàng)造中也有人格因素的體現(xiàn)。其二,為了使客觀標(biāo)準(zhǔn)說(shuō)不陷入考慮人格因素的自相矛盾之中,支持客觀標(biāo)準(zhǔn)說(shuō)的學(xué)者對(duì)獨(dú)創(chuàng)性之“獨(dú)”和“創(chuàng)”的內(nèi)涵進(jìn)行了改造,但改造并不成功。有學(xué)者將“獨(dú)”解釋為生成物在外觀上不能是現(xiàn)有作品的復(fù)制,“創(chuàng)”解釋為生成物比之現(xiàn)有作品有“明顯可見”的變化,并排除顯然、唯一的事實(shí)性表達(dá)[14]104。這樣一來(lái),人工智能生成物的獨(dú)創(chuàng)性判斷完全客觀化,剝離了作品源于作者本人智慧這一重要強(qiáng)調(diào),給予人工智能生成物著作權(quán)保護(hù)也就失去了源于勞動(dòng)財(cái)產(chǎn)論、人格權(quán)論的正當(dāng)性理論根基,勢(shì)必招致外界對(duì)知識(shí)產(chǎn)權(quán)制度正當(dāng)性更猛烈的批判。輕視人類干預(yù),還難免會(huì)帶來(lái)技術(shù)倫理風(fēng)險(xiǎn),長(zhǎng)遠(yuǎn)看來(lái)可能有害于人工智能產(chǎn)業(yè)的健康發(fā)展。
從實(shí)踐層面分析,獨(dú)創(chuàng)性客觀標(biāo)準(zhǔn)說(shuō)在主流法域里并沒(méi)有實(shí)施良好、可以仿效借鑒的先例。客觀標(biāo)準(zhǔn)說(shuō)往往會(huì)借鑒英國(guó)1988年《版權(quán)、外觀設(shè)計(jì)和專利法案》的相關(guān)條款,為保護(hù)沒(méi)有人類干預(yù)的作品提供示例。實(shí)際上,英國(guó)法的上述規(guī)定并沒(méi)有帶來(lái)應(yīng)有的法律效果,英國(guó)內(nèi)部也存在著爭(zhēng)議。其一,現(xiàn)實(shí)中是否存在無(wú)人類干預(yù)的人工智能生成物飽受質(zhì)疑。其二,《版權(quán)、外觀設(shè)計(jì)和專利法案》第178條第b款將計(jì)算機(jī)產(chǎn)生作品定義為“沒(méi)有人類作者的參與而由計(jì)算機(jī)獨(dú)立生產(chǎn)的作品”。無(wú)人類參與的作品,同樣不符合英國(guó)原有獨(dú)創(chuàng)性標(biāo)準(zhǔn)規(guī)定的作品是“勞動(dòng)、技巧或判斷”產(chǎn)物的要求[25]。其三,就人工智能生成物是否需要滿足獨(dú)創(chuàng)性,學(xué)者們的觀點(diǎn)存在明顯分歧。有的學(xué)者認(rèn)為只是在理解人工智能生成物如何符合獨(dú)創(chuàng)性要求方面存在困難,也有學(xué)者根據(jù)立法過(guò)程中的一些意見建議人工智能生成物在獨(dú)創(chuàng)性要求上可獲豁免,還有學(xué)者認(rèn)為人工智能生成物的獨(dú)創(chuàng)性只要求一作品沒(méi)有復(fù)制另一作品[26]。各家觀點(diǎn)都有不妥之處,導(dǎo)致客觀標(biāo)準(zhǔn)說(shuō)內(nèi)部并沒(méi)有統(tǒng)一方案。
(二)獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)說(shuō)的合理性
從理論層面而言,獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)說(shuō)不僅與作者權(quán)體系下的人格權(quán)論一脈相承,而且與版權(quán)制度下的勞動(dòng)財(cái)產(chǎn)論相銜接。黑格爾人格權(quán)論將智力成果蘊(yùn)含的人格價(jià)值作為財(cái)產(chǎn)權(quán)取得依據(jù)[27]。比照黑格爾“人把他的意志體現(xiàn)于物內(nèi),這就是所有權(quán)的概念”[28],人工智能研發(fā)者或使用者將自己的意志注入人工智能生成物的生成過(guò)程,這部分意志包含了他們獨(dú)特的人格、個(gè)性因素,使得最終產(chǎn)物也被打上了人格烙印,人工智能研發(fā)者或使用者基于此對(duì)打上了人格烙印的人工智能生成物主張著作權(quán)。而洛克創(chuàng)作《政府論》意在反駁當(dāng)時(shí)為絕對(duì)君權(quán)辯護(hù)的理論,在論證私有財(cái)產(chǎn)正當(dāng)性的勞動(dòng)財(cái)產(chǎn)論中挑明勞動(dòng)者、勞動(dòng)和物之間的聯(lián)系,即勞動(dòng)者基于自我所有權(quán),擁有勞動(dòng),只要滿足充足限制和浪費(fèi)限制,摻雜勞動(dòng)的共有物就脫離共有狀態(tài)成為勞動(dòng)者的財(cái)產(chǎn)。與之對(duì)應(yīng),人類作者基于自我所有權(quán),擁有自己的勞動(dòng),混雜創(chuàng)作勞動(dòng)的作品應(yīng)成為作者的財(cái)產(chǎn)。雖然有觀點(diǎn)認(rèn)為勞動(dòng)財(cái)產(chǎn)論缺乏人格因素,僅能解釋知識(shí)產(chǎn)權(quán)中的財(cái)產(chǎn)權(quán)部分,但不可否認(rèn)的是,勞動(dòng)財(cái)產(chǎn)論亦以“人類作為智力成果創(chuàng)造主體和財(cái)產(chǎn)權(quán)利享有主體”為理論展開的前提[27],認(rèn)為人類和物之間的聯(lián)系——私人勞動(dòng)是私有財(cái)產(chǎn)正當(dāng)性的源泉。也有學(xué)者直接指出,“人”通過(guò)勞動(dòng)而擁有其勞動(dòng)產(chǎn)品的所有權(quán),是勞動(dòng)者人格權(quán)的表現(xiàn)和擴(kuò)張[29]。 “人”的地位和價(jià)值、人和作品的聯(lián)系,也是獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)說(shuō)所關(guān)注和強(qiáng)調(diào)的。
從實(shí)踐層面分析,采用獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)說(shuō)符合當(dāng)今主流法域的通行做法。在大陸法系國(guó)家,德國(guó)《著作權(quán)法》第2條第2款規(guī)定“作品”只有在滿足是“作者自己的智力創(chuàng)作(the authors own intellectual creation)”的情況下才受到保護(hù)。只有源于人類頭腦的作品才能被認(rèn)為是“智力創(chuàng)作”,這顯然考慮了作品生成過(guò)程中有無(wú)體現(xiàn)人格因素。“作品”這一概念內(nèi)涵已經(jīng)得到了歐盟法律的協(xié)調(diào)。根據(jù)歐盟法院在2018年Levola案中的說(shuō)理,“作品”需要滿足兩個(gè)條件:其一,作品必須是獨(dú)創(chuàng)的,即它是作者自己的智力創(chuàng)作;其二,它必須是作者自己智力創(chuàng)作的表達(dá),無(wú)論它的表達(dá)方式或形式是什么參見CJEU, dec. of 13112018, docketno. C310/17, Levola Hengelo BV/Smilde Foods BV (at no. 36 et seq.)。。歐盟法院在說(shuō)理中將“作者自己的智力創(chuàng)作”和獨(dú)創(chuàng)性等同起來(lái),由此觀之,德國(guó)法“作者自己的智力創(chuàng)作”概念指向的正是德國(guó)版獨(dú)創(chuàng)性內(nèi)涵,其又蘊(yùn)含作品源于人類頭腦之意,可見德國(guó)采用的就是獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)[30]5。日本《著作權(quán)法》中“作品”定義“作品”,是指用創(chuàng)作方法表現(xiàn)思想或者感情的屬于文藝、學(xué)術(shù)、美術(shù)或者音樂(lè)范圍的東西。要求作品“表現(xiàn)思想或者感情”,證明日本采用的也是獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)。
即使在獨(dú)創(chuàng)性要求較低的英美法系國(guó)家,同樣認(rèn)可獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)。根據(jù)美國(guó)法律,滿足獨(dú)創(chuàng)性需要作品為“獨(dú)立創(chuàng)作”(independent authorship),“獨(dú)立創(chuàng)作”意味著一方面不得復(fù)制先前存在的作品,另一方面“創(chuàng)作”必須包含來(lái)自自然人的投入[31]。在Bleistein案中參見Bleistein v. Donaldson Lithographing Co.188 U.S.239。,美國(guó)最高法院指出,“一定程度的藝術(shù)總具有由人獨(dú)立完成的不可約減的內(nèi)容,其可以對(duì)這些內(nèi)容享有版權(quán)”,在司法實(shí)踐中體現(xiàn)了對(duì)自然人投入的嚴(yán)格要求。
值得關(guān)注的是,2019年9月,國(guó)際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)(AIPPI)就“人工智能生成物的著作權(quán)”問(wèn)題通過(guò)了一項(xiàng)決議(以下簡(jiǎn)稱“AIPPI決議”)[32]14。AIPPI決議第3條意即,人類干預(yù)是人工智能生成物獨(dú)創(chuàng)性的來(lái)源;第2條第1款意即,只有生成過(guò)程包含人類干預(yù),且滿足其他條件的人工智能生成物才能受著作權(quán)法保護(hù)。這兩條強(qiáng)調(diào)了人類干預(yù)對(duì)獨(dú)創(chuàng)性和著作權(quán)法保護(hù)的必要性,顯見AIPPI所持的也是獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)。查閱AIPPI就同一議題披露的調(diào)查報(bào)告,接受調(diào)查的協(xié)會(huì)成員里有85%都贊成人類干預(yù)應(yīng)該成為一項(xiàng)人工智能生成物受到著作權(quán)保護(hù)的條件[33]。AIPPI決議的立場(chǎng)反映了最新的國(guó)際趨勢(shì),具有重要借鑒意義。
(三)獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)說(shuō)的政策意義和可行性
1.政策意義:智能技術(shù)中的人類干預(yù)是引領(lǐng)科技向善的關(guān)鍵因素
近年來(lái),告別技術(shù)中立主義、技術(shù)無(wú)罪論,加強(qiáng)人工智能倫理建設(shè)、促進(jìn)科技向善的風(fēng)潮席卷全球。例如,聯(lián)合國(guó)舉辦了“AI向善國(guó)際峰會(huì)”,推動(dòng)建立“AI倫理國(guó)際對(duì)話”;OECD和G20一起推出了人工智能指導(dǎo)原則2019年5月,OECD成員國(guó)批準(zhǔn)了全球首個(gè)由各國(guó)政府簽署的AI原則——“負(fù)責(zé)任地管理可信AI的原則”,包括包容性增長(zhǎng)、可持續(xù)發(fā)展和福祉原則,以人為本的價(jià)值觀和公平原則,透明性和可解釋性原則,穩(wěn)健性和安全可靠原則,以及責(zé)任原則。這些原則已被G20采納,今后有望成為AI領(lǐng)域的國(guó)際準(zhǔn)則。;2019年,歐盟提出了人工智能領(lǐng)域系統(tǒng)的倫理框架;2019年2月,美國(guó)正式出臺(tái)了AI戰(zhàn)略,提出制定AI監(jiān)管指南并設(shè)定AI治理標(biāo)準(zhǔn),2020年1月,又發(fā)布了《人工智能應(yīng)用的監(jiān)管指南》,提出管理人工智能應(yīng)用的十大原則等;中國(guó)也先后推出關(guān)于人工智能發(fā)展、自律、治理的系列政策文件政策文件如《新一代人工智能發(fā)展規(guī)劃》《人工智能行業(yè)自律公約(征求意見稿)》《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。[3435]。以上政策文件多次提到“以人為本”,這揭示了科技向善(tech for good)的根本追求??萍枷蛏频暮x可以從三個(gè)層面思考:一是哲學(xué)層面上,人應(yīng)該是唯一的主體和目的;二是道德和倫理層面上,必須謹(jǐn)防新技術(shù)割裂人類社會(huì),致使人類建立的基本價(jià)值觀和倫理體系崩塌,技術(shù)必須有利于提升人類福祉;三是實(shí)踐層面上,應(yīng)當(dāng)遵循兩個(gè)認(rèn)知,即“人類共同體”和“人是文明最高、唯一的尺度”[36]。換言之,我們需要的不是“中立的科技”,而是“向善的科技”,且“向善”應(yīng)該表現(xiàn)為增進(jìn)人類福祉。
而實(shí)現(xiàn)科技向善,顯然不能期待技術(shù)未來(lái)“自發(fā)”產(chǎn)生保護(hù)人類的效果(例如,技術(shù)中立主義下算法放大了人類歧視,產(chǎn)生了更精準(zhǔn)、隱蔽的算法歧視),而唯有靠人類在設(shè)計(jì)、使用時(shí)“自覺(jué)”限定技術(shù)目的、運(yùn)行方式,將技術(shù)受保護(hù)的標(biāo)尺定在促進(jìn)人類福祉上——實(shí)質(zhì)上是以人類干預(yù)引領(lǐng)和保障科技向善。“我們應(yīng)當(dāng)意識(shí)到,Artificial Intelligence一詞,關(guān)鍵的不是Intelligence,而是Artificial,是人類的自我反省意識(shí)和對(duì)科技的主動(dòng)干預(yù)?!盵37]
智能技術(shù)中的人類干預(yù)是引領(lǐng)科技向善的關(guān)鍵因素。采用獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)有利于倒逼產(chǎn)業(yè)界重視、解釋、合理化人工智能技術(shù)中的人類干預(yù)(生成物中有人格因素正是人類干預(yù)的結(jié)果),防范技術(shù)風(fēng)險(xiǎn),引領(lǐng)科技向善。未來(lái),“‘善意應(yīng)成為技術(shù)產(chǎn)品的商業(yè)競(jìng)爭(zhēng)力”[38]。
2.可行性:算法黑箱不妨礙解釋外觀上的人類干預(yù)
有學(xué)者擔(dān)心采用獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)會(huì)陷入人格因素解釋不清的困境。事實(shí)上,這是被人工智能的算法黑箱誤導(dǎo)了。算法黑箱指的是某些人工智能算法的技術(shù)原理存在黑箱。例如,典型的黑箱算法——神經(jīng)網(wǎng)絡(luò)算法的原理是“給定一個(gè)帶有正確答案的訓(xùn)練數(shù)據(jù)集,它們可以通過(guò)調(diào)整每個(gè)連接的強(qiáng)度而逐漸優(yōu)化它們的行為,直到它們的頂層輸出是正確的”[39]。限于神經(jīng)網(wǎng)絡(luò)算法中數(shù)據(jù)排布和數(shù)學(xué)表達(dá)都十分復(fù)雜,人類在利用算法輸出結(jié)果時(shí)難以理解算法內(nèi)部結(jié)果如何產(chǎn)生。
然而,對(duì)內(nèi)部技術(shù)原理的不解并不妨礙釋明外觀上的人類干預(yù),外觀上的人類干預(yù)是可以被觀察、記錄、講述和監(jiān)管的,也是獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)的關(guān)注對(duì)象。今日頭條資深算法架構(gòu)師曹歡歡博士曾在交流會(huì)上公開今日頭條的算法原理,直言“算法分發(fā)并非是把所有決策都交給機(jī)器,我們會(huì)不斷糾偏,設(shè)計(jì)、監(jiān)督并管理算法模型”[40]。在本文隨后討論的兩起案件“菲林訴百度案”和“騰訊訴盈訊案”中,技術(shù)上的算法黑箱并未影響法官?gòu)闹刑崛∷痉ú门兴枰娜祟惛深A(yù);判決書概括性地公開了人類干預(yù),也不同于算法本身的透明化,沒(méi)有導(dǎo)致源代碼泄露等算法透明化的爭(zhēng)議后果。這是對(duì)人工智能工作原理可行、必要和適當(dāng)?shù)墓_。
人工智能生成過(guò)程中的人類干預(yù)并非不能被解釋,更多情況下是因?yàn)槿狈ΡO(jiān)管文件、保護(hù)商業(yè)秘密等原因不愿被公開,或即使公開了,普通公眾缺乏算法素養(yǎng)也難以讀懂。隨著機(jī)器倫理學(xué)的發(fā)展,產(chǎn)業(yè)界漸起算法公開呼聲,未來(lái)以“可知”人工智能換取人類對(duì)人工智能的信任會(huì)慢慢成為潮流。我國(guó)2017年《新一代人工智能發(fā)展規(guī)劃》明確提出要“實(shí)現(xiàn)對(duì)人工智能算法設(shè)計(jì)等程序的全流程監(jiān)管”,在監(jiān)管倒逼下,算法公開也會(huì)明朗化。獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)建立在此基礎(chǔ)上,具備可行性。
四、主觀標(biāo)準(zhǔn)下人類干預(yù)之司法判斷模型的構(gòu)建
相比于傳統(tǒng)作品,人工智能生成物的人格因素被機(jī)器智能大大沖淡,即使法院認(rèn)同主觀標(biāo)準(zhǔn)而要求生成過(guò)程中體現(xiàn)人格因素,分辨人工智能生成物的生成過(guò)程體現(xiàn)了哪些人格因素(客觀化問(wèn)題)、認(rèn)定人工智能生成物受著作權(quán)保護(hù)時(shí)人格因素應(yīng)達(dá)到何種程度(門檻問(wèn)題)亦成為困擾法院的難題。盡管我國(guó)兩起涉人工智能生成物著作權(quán)保護(hù)的案例“菲林訴百度案”參見北京菲林律師事務(wù)所訴北京百度網(wǎng)訊科技有限公司著作權(quán)侵權(quán)糾紛案,北京知識(shí)產(chǎn)權(quán)法院(2019)京73民終2030號(hào)民事判決書。和“騰訊訴盈訊案”參見深圳市騰訊計(jì)算機(jī)系統(tǒng)有限公司訴上海盈訊科技有限公司侵害著作權(quán)及不正當(dāng)競(jìng)爭(zhēng)糾紛案,廣東省深圳市南山區(qū)人民法院(2019)粵0305民初14010號(hào)民事判決書。的判決書均長(zhǎng)篇分析了涉案材料的獨(dú)創(chuàng)性問(wèn)題,然而,目前在司法實(shí)踐中主觀標(biāo)準(zhǔn)的適用仍較為模糊,容易導(dǎo)致類案異判。在產(chǎn)業(yè)界推進(jìn)算法黑箱透明化的同時(shí),法學(xué)界有必要就主觀標(biāo)準(zhǔn)的細(xì)化做出努力,促進(jìn)司法統(tǒng)一化。本文就此提出人工智能生成物中人類干預(yù)之司法判斷模型,從個(gè)案評(píng)價(jià)和類案保護(hù)門檻兩方面切入,分別構(gòu)建了針對(duì)客觀化問(wèn)題的人類干預(yù)評(píng)價(jià)模型和針對(duì)門檻問(wèn)題的人類干預(yù)條件模型。
(一)客觀化基準(zhǔn):構(gòu)建人工智能生成物人類干預(yù)評(píng)價(jià)模型
“人類干預(yù)”指人類在人工智能研發(fā)、使用全過(guò)程中實(shí)質(zhì)性參與、介入的行為總稱。實(shí)際上,生成物中有人格因素是人類干預(yù)的結(jié)果,而人類干預(yù)是具象的行為,將度量人格因素轉(zhuǎn)化為分析人類干預(yù)所涉環(huán)節(jié)、情形,構(gòu)建人類干預(yù)評(píng)價(jià)模型,即可化抽象為具象,解決人工智能生成物人格因素之客觀化問(wèn)題。通過(guò)該模型,實(shí)踐中個(gè)案均能找到其人類干預(yù)在模型給定環(huán)節(jié)和情形上的定位,不同案件會(huì)有不同定位,即完成各個(gè)案件在同一標(biāo)準(zhǔn)下的客觀化區(qū)別評(píng)價(jià)。因?yàn)樵撃P椭荚诮鉀Q個(gè)案人類干預(yù)的客觀化評(píng)價(jià),故名為人類干預(yù)評(píng)價(jià)模型。以下詳細(xì)闡述了該模型的構(gòu)建過(guò)程。
參考AIPPI決議使用的人工智能工作步驟示例(以下簡(jiǎn)稱“決議示例”)[32]2,人工智能生成物的生成過(guò)程可以簡(jiǎn)化為三個(gè)環(huán)節(jié):其一,創(chuàng)建人工智能系統(tǒng),該系統(tǒng)能接收、分析、學(xué)習(xí)自外界輸入的內(nèi)容,以及靈活采取相應(yīng)行動(dòng),以便在一段時(shí)間內(nèi)實(shí)現(xiàn)特定目標(biāo)(簡(jiǎn)稱“環(huán)節(jié)一:系統(tǒng)創(chuàng)建環(huán)節(jié)”);其二,選擇輸入人工智能系統(tǒng)的數(shù)據(jù),該數(shù)據(jù)可以是已有作品,也可以是基于特定篩選標(biāo)準(zhǔn)而獲得的來(lái)自傳感器、攝像機(jī)或其他渠道的內(nèi)容(簡(jiǎn)稱“環(huán)節(jié)二:數(shù)據(jù)選擇環(huán)節(jié)”);其三,將所選數(shù)據(jù)輸入系統(tǒng),系統(tǒng)通過(guò)生成區(qū)別于任何先前作品的“新生成物”以達(dá)成目標(biāo)(簡(jiǎn)稱“環(huán)節(jié)三:制造生成物環(huán)節(jié)”)。
人類干預(yù)滲透于以上環(huán)節(jié)之中。本文在參考決議示例AIPPI在決議示例中根據(jù)環(huán)節(jié)二、環(huán)節(jié)三人類干預(yù)的有無(wú)分別設(shè)定了情形2a(環(huán)節(jié)二中數(shù)據(jù)或數(shù)據(jù)的篩選標(biāo)準(zhǔn)由人類確定)、2b(環(huán)節(jié)二中數(shù)據(jù)或數(shù)據(jù)的篩選標(biāo)準(zhǔn)不由人類確定)和3a(環(huán)節(jié)三中人類基于質(zhì)量或?qū)徝酪髲娜舾伞靶律晌铩敝羞x出一件“最終生成物”)、3b(環(huán)節(jié)三從若干“新生成物”中選出“最終生成物”的過(guò)程不涉及人類干預(yù))。(參見:AIPPI,Resolution—Copyright in artificially generated works,AIPPI,2019p2)和AIPPI流程圖AIPPI決議與AIPPI就同一決議的學(xué)習(xí)指南有些許差異。指南提供了一張總結(jié)人工智能生成過(guò)程中人類干預(yù)的流程圖(簡(jiǎn)稱“AIPPI流程圖”),該圖里,情形2a、2b、3a、3b都有對(duì)應(yīng)的、相同或?qū)嵸|(zhì)相同的情形,但AIPPI流程圖較決議示例還多出一種特殊情形——決議示例的環(huán)節(jié)三被一分為二,當(dāng)“人工智能制造生成物”步驟沒(méi)有任何人類干預(yù)時(shí),才進(jìn)入“生成物選擇/公布”步驟,出現(xiàn)情形3a和3b;當(dāng)“人工智能制造生成物”步驟有人類干預(yù)時(shí),直接生成最終生成物,本文將該種特殊情形命名為情形3c。(參見:AIPPI,Study Guidelines—Copyright in artificially generated works,AIPPI,2019p89)的基礎(chǔ)上,嘗試歸納出人工智能生成物的生成環(huán)節(jié)及人類干預(yù)情形流程圖(見圖1)本文除了創(chuàng)造性地綜合決議示例中的情形2a、2b、3a、3b和AIPPI流程圖中的情形3c外,為了研究的全面,還根據(jù)環(huán)節(jié)一人類干預(yù)的有無(wú)增加了情形1a(環(huán)節(jié)一里要實(shí)現(xiàn)的特定目標(biāo)由人類選擇)和1b(環(huán)節(jié)一里要實(shí)現(xiàn)的特定目標(biāo)不由人類選擇),并最終得到圖1。。
人工智能生成物生成環(huán)節(jié)中人類干預(yù)的情形闡釋如下。
(1)系統(tǒng)創(chuàng)建環(huán)節(jié),根據(jù)人類干預(yù)有無(wú)分為:情形1a(人工智能要實(shí)現(xiàn)的特定目標(biāo)由人類選擇);情形1b(人工智能要實(shí)現(xiàn)的特定目標(biāo)不由人類選擇)。
(2)數(shù)據(jù)選擇環(huán)節(jié),根據(jù)人類干預(yù)有無(wú)分為:情形2a(數(shù)據(jù)或數(shù)據(jù)的篩選標(biāo)準(zhǔn)由人類確定);情形2b(數(shù)據(jù)或數(shù)據(jù)的篩選標(biāo)準(zhǔn)不由人類確定)。
(3)制造生成物環(huán)節(jié),有兩種運(yùn)行路徑:其一,如果“環(huán)節(jié)三之一”沒(méi)有人類干預(yù),則進(jìn)入“環(huán)節(jié)三之二”,根據(jù)人類干預(yù)的有無(wú)分為情形3a(人類選擇和公布最終生成物)和情形3b(人工智能在沒(méi)有任何人類干預(yù)的情況下選擇最終生成物),此后產(chǎn)出最終生成物,宣告全流程結(jié)束;其二,如果“環(huán)節(jié)三之一”有人類干預(yù),指向情形3c(人類通過(guò)向人工智能發(fā)出指令以修改生成物方式或徑直修改生成物方式直接參與生成物的創(chuàng)建),此后亦產(chǎn)出最終生成物,宣告全流程結(jié)束。
司法實(shí)踐中,單個(gè)案例均可被抽象為上述情形的組合,由此完成人工智能生成物人格因素的客觀化評(píng)價(jià)和統(tǒng)一度量。
(二)門檻問(wèn)題:構(gòu)建人工智能生成物人類干預(yù)條件模型
1.人工智能生成物“源于本人”的重新解讀
“源于本人”指勞動(dòng)成果源于勞動(dòng)者本人、作品人格因素源于作者本人人格,它與“獨(dú)立創(chuàng)作”共同構(gòu)成獨(dú)創(chuàng)性之“獨(dú)”的內(nèi)涵。人工智能生成物欲受著作權(quán)保護(hù),同樣應(yīng)符合“源于本人”的要求。重新審視“源于本人”的含義,有利于更好地解決主觀標(biāo)準(zhǔn)中人格因素的門檻問(wèn)題。
其一,是否“源于人”是人工智能生成物受版權(quán)保護(hù)的邊界。傳統(tǒng)作品完全來(lái)自于人類貢獻(xiàn),獨(dú)創(chuàng)性之“獨(dú)”的使命是認(rèn)定作品源于作者本人而非其他人,“源于本人”的重點(diǎn)在于“本”字。在人工智能時(shí)代,作品產(chǎn)生還有人工智能的貢獻(xiàn),這些貢獻(xiàn)人類難以預(yù)測(cè)、難以操縱。獨(dú)創(chuàng)性之“獨(dú)”的使命還在于認(rèn)定作品源于人類而非人工智能,“源于本人”的重點(diǎn)轉(zhuǎn)移到“人”字。
換言之,原先已“預(yù)設(shè)了該創(chuàng)作行為由人類完成”,所以獨(dú)創(chuàng)性之獨(dú)的判斷更關(guān)注創(chuàng)作是否獨(dú)立;現(xiàn)在作品不再單純?cè)从谌祟?,“?qiáng)調(diào)人類作者身份以指明創(chuàng)作行為由人類完成,這對(duì)界分人類作品與人工智能生成物尤為必要”[17]。
從邏輯上說(shuō),生成物是否有不“源于人”的可能,構(gòu)成了傳統(tǒng)作品到人工智能生成物的本質(zhì)跨越。是否“源于人”也是能否依據(jù)傳統(tǒng)作品的邏輯去保護(hù)人工智能生成物的邊界。邊界以外的人工智能生成物與傳統(tǒng)作品有本質(zhì)差異,拒絕對(duì)其予以保護(hù)具有著作權(quán)法上的正當(dāng)性。邊界以內(nèi)的人工智能生成物“源于人”是出于何種條件,則需要進(jìn)一步判斷。
其二,“源于本人”的程度即人工智能生成物人類干預(yù)程度的高低。在傳統(tǒng)理論中,“獨(dú)”是一種“有和無(wú)”的判斷,“創(chuàng)”是一種“高和低”的判斷[4]34。在人工智能時(shí)代,這種認(rèn)識(shí)應(yīng)該被更新,“獨(dú)”同樣具有“高和低”的判斷標(biāo)準(zhǔn)。人類干預(yù)程度越高的生成物,在獨(dú)創(chuàng)性之“獨(dú)”中“源于人”的程度越高,受著作權(quán)法保護(hù)的理由也就越堅(jiān)實(shí)。人類干預(yù)的程度并不抽象,可以根據(jù)人類干預(yù)情形的組合情況進(jìn)行度量。
2.人類干預(yù)所涉環(huán)節(jié)、情形與著作權(quán)保護(hù)可能的關(guān)聯(lián)性分析
解決人格因素門檻問(wèn)題,可以轉(zhuǎn)化為分析人工智能生成物生成過(guò)程中人類干預(yù)應(yīng)達(dá)到的程度。就此,有必要分析人類干預(yù)所涉環(huán)節(jié)、情形與著作權(quán)法保護(hù)可能之間的關(guān)系。針對(duì)上述關(guān)聯(lián)性AIPPI已經(jīng)達(dá)成了部分共識(shí)參見AIPPI決議第2條:“AI生成物只有在其生成過(guò)程有人類干預(yù)的情況下,且在該生成物符合受保護(hù)作品應(yīng)滿足的其他條件的情況下,才能獲得版權(quán)保護(hù)。對(duì)于生成過(guò)程無(wú)人類干預(yù)的AI生成物,其無(wú)法獲得版權(quán)保護(hù)。上述原則也適用于研究示例中各個(gè)步驟所描述的情形,具體結(jié)論如下。
針對(duì)步驟1,AI生成物不應(yīng)僅僅因?yàn)槠涫侨祟悇?chuàng)建的AI系統(tǒng)的輸出內(nèi)容而獲得版權(quán)保護(hù);
針對(duì)步驟2的情況2a,若用以輸入AI的數(shù)據(jù)篩選標(biāo)準(zhǔn)系人類選擇確定的,則AI生成物可獲得版權(quán)保護(hù);
針對(duì)步驟2的情況2b,若用以輸入AI的數(shù)據(jù)或該數(shù)據(jù)的篩選標(biāo)準(zhǔn)完全不由人類選擇確定(或僅僅由非人類選擇確定),則AI生成物不能獲得版權(quán)保護(hù);
針對(duì)步驟3的情況3a,AI生成物不能僅因?yàn)槿祟悘摹靶律晌铩敝羞x出最終生成物而獲得版權(quán)保護(hù);
針對(duì)步驟3的情況3b,AI生成物不能僅因?yàn)閺摹靶律晌铩敝羞x出最終生成物的過(guò)程不涉及人類干預(yù)而獲得版權(quán)保護(hù)。,本文嘗試在其基礎(chǔ)上更進(jìn)一步構(gòu)建完整的司法判斷模型,以期為主觀標(biāo)準(zhǔn)的適用提供司法裁判指引。因?yàn)楸静糠钟懻撝荚谕ㄟ^(guò)梳理人類干預(yù)所涉環(huán)節(jié)、情形與著作權(quán)法保護(hù)可能性之間的關(guān)系,篩選出人工智能生成物在滿足獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)時(shí)人類干預(yù)應(yīng)當(dāng)達(dá)到的條件,故命名為人類干預(yù)條件模型。下面將詳細(xì)闡述模型構(gòu)建過(guò)程。
(1)針對(duì)系統(tǒng)創(chuàng)建環(huán)節(jié),情形1a應(yīng)為人工智能生成物受著作權(quán)保護(hù)的必要條件之一。這是科技向善、加強(qiáng)人工智能風(fēng)險(xiǎn)管控的必然要求。智能技術(shù)中的人類干預(yù)是引領(lǐng)科技向善的關(guān)鍵因素,而科技向善的重要目標(biāo)之一即限制人工智能運(yùn)用目的、增強(qiáng)人類福祉導(dǎo)向。在機(jī)器人倫理學(xué)領(lǐng)域,廣泛運(yùn)用的“機(jī)器人三定律”由美國(guó)科幻小說(shuō)家阿西莫夫于1950年在其科幻小說(shuō)《我,機(jī)器人》中首倡,在科技哲學(xué)領(lǐng)域被普遍承認(rèn)。包括:“規(guī)律一:一個(gè)機(jī)器人不能傷害人類,也不能夠在人類面臨受傷害風(fēng)險(xiǎn)時(shí)袖手旁觀;規(guī)律二:一個(gè)機(jī)器人必須服從人類的命令,除非這種服從會(huì)導(dǎo)致機(jī)器人違背定律一;規(guī)律三:一個(gè)機(jī)器人必須盡力自我保護(hù),除非這種自我保護(hù)會(huì)導(dǎo)致它違背前兩條定律?!卑岛祟惛l聿攀菣C(jī)器工作的最終目的之意。由人類確定人工智能系統(tǒng)實(shí)現(xiàn)目標(biāo)與人類發(fā)明機(jī)器人的初衷相吻合,有利于將技術(shù)發(fā)展方向限制在增進(jìn)人類福祉上。倘使一件生成物的目標(biāo)脫離人類掌控,考慮到倫理風(fēng)險(xiǎn),著作權(quán)法不宜予以保護(hù)。但必要條件不意味著唯一條件,好比AIPPI決議第2條第2款指出,人工智能生成物不應(yīng)僅因?yàn)槭侨祟悇?chuàng)建的人工智能系統(tǒng)之輸出內(nèi)容而獲得著作權(quán)保護(hù)[32]3。
(2)針對(duì)數(shù)據(jù)選擇環(huán)節(jié),人工智能生成物若想獲得著作權(quán)保護(hù),情形應(yīng)為2a,且此時(shí)人類干預(yù)應(yīng)構(gòu)成關(guān)鍵的數(shù)據(jù)處理,而非創(chuàng)作的準(zhǔn)備活動(dòng)(preparatory action)。
其一,人工智能生成物若想獲得著作權(quán)保護(hù),在環(huán)節(jié)二上情形應(yīng)表現(xiàn)為2a。根據(jù)AIPPI決議第2條第2款[32]3的規(guī)定,環(huán)節(jié)二人類干預(yù)之存在與否和著作權(quán)保護(hù)之可能與否完全一致。AIPPI“人工智能生成物版權(quán)問(wèn)題”德國(guó)工作組分析了德國(guó)在決議示例下的各種情況該段中文翻譯如下:將德國(guó)著作權(quán)法下的獨(dú)創(chuàng)性要求應(yīng)用于工作實(shí)例:(1)累計(jì)包含步驟1(筆者注:此處步驟1在本文中指情形1a,參見本文第9頁(yè)腳注①)、2a和3a的人工智能生成物可以被稱為獨(dú)創(chuàng)作品,因?yàn)槿祟悓?duì)結(jié)果作品的指導(dǎo)和控制影響很大,并且在使用人工智能創(chuàng)作作品的所有決定性階段都存在;(2)累計(jì)包含步驟1、2b和3b的人工智能生成物不符合獨(dú)創(chuàng)作品的資格,因?yàn)樵撟髌肥撬惴ǖ漠a(chǎn)物,并且人類作者對(duì)結(jié)果作品的指導(dǎo)影響太小;(3)累計(jì)包含步驟1、2b和3a的人工智能生成物將不符合獨(dú)創(chuàng)作品的資格,因?yàn)槿祟愖髡吒鶕?jù)步驟3對(duì)作品的最終選擇不能補(bǔ)償人類作者在創(chuàng)建所選作品時(shí)缺乏指導(dǎo)影響;(4)累計(jì)包含步驟1、2a和3b的人工智能生成物可以由于數(shù)據(jù)選擇而符合獨(dú)創(chuàng)作品的資格:人類作者通過(guò)選擇輸入數(shù)據(jù)對(duì)作品的指導(dǎo)影響越大,結(jié)果被限定為獨(dú)創(chuàng)作品的機(jī)會(huì)就越大。。由觀察可知,德國(guó)工作組列舉的第一種情形組合“1a+2a+3a”和第四種情形組合“1a+2a+3b”中人工智能生成物能獲得著作權(quán)保護(hù),而第二種情形組合“1a+2b+3b”和第三種情形組合“1a+2b+3a”中人工智能生成物不能獲得著作權(quán)保護(hù)。能獲得著作權(quán)保護(hù)的情形組合在環(huán)節(jié)二上均表現(xiàn)為2a,不能獲得著作權(quán)保護(hù)的情形組合在環(huán)節(jié)二上均表現(xiàn)為2b,證明了情形2a對(duì)著作權(quán)保護(hù)有關(guān)鍵影響。與此呼應(yīng),德國(guó)工作組解釋道,“1a+2a+3b”情形組合下人工智能生成物可以由于(人類的)數(shù)據(jù)選擇而符合獨(dú)創(chuàng)作品資格[30]6,證明該情形組合受保護(hù)的關(guān)鍵原因就是情形1a和2a中情形2a的存在。
其二,單獨(dú)就情形2a而言,人類的數(shù)據(jù)選擇行為還需要根據(jù)干預(yù)深度進(jìn)一步細(xì)分。一種是人類干預(yù)僅構(gòu)成創(chuàng)作的準(zhǔn)備活動(dòng),對(duì)最終生成物沒(méi)有顯著貢獻(xiàn)(significant contribution);另一種是人類干預(yù)構(gòu)成關(guān)鍵的數(shù)據(jù)處理,對(duì)最終生成物有顯著貢獻(xiàn),以至于人工智能只能被當(dāng)作工具看待[30]4。恰如德國(guó)工作組對(duì)情形組合“1a+2a+3b”的解釋,人類作者通過(guò)選擇輸入數(shù)據(jù)實(shí)現(xiàn)的指導(dǎo)影響越大,生成物獲得作品資格的機(jī)會(huì)就越大[30]6。之所以情形2a如此重要,是因?yàn)槿祟惛深A(yù)構(gòu)成關(guān)鍵數(shù)據(jù)處理時(shí),人類對(duì)生成物的指導(dǎo)影響足夠大,能強(qiáng)力證明生成物“源于本人”。例如,研發(fā)者將畢加索在19151920年的畫作作為人工智能系統(tǒng)的輸入內(nèi)容,指令人工智能生成類似風(fēng)格的畫作,該選擇個(gè)性色彩鮮明,帶有一定的創(chuàng)作意圖,對(duì)最終生成物的風(fēng)格影響巨大,就構(gòu)成關(guān)鍵的數(shù)據(jù)處理,能支持生成畫作源于研發(fā)者本人。
值得注意的是,情形組合“1a+2a+3b”受著作權(quán)保護(hù),還證明了僅憑“1a+2a”即足以構(gòu)成人工智能生成物通過(guò)獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)考驗(yàn)的充分條件,不需要情形3a來(lái)補(bǔ)強(qiáng)人類在結(jié)果作品上的指導(dǎo)影響。
(3)針對(duì)制造生成物環(huán)節(jié),情形3a或3b不構(gòu)成人工智能生成物受著作權(quán)保護(hù)的條件之一,但情形3c可以替代情形2a,使情形組合“1a+3c”也構(gòu)成人工智能生成物通過(guò)獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)考驗(yàn)的充分條件。
其一,情形組合“1a+2b+3b”的人工智能生成物不符合獨(dú)創(chuàng)作品的資格,因?yàn)樵撟髌肥撬惴ǖ漠a(chǎn)物,并且人類作者對(duì)結(jié)果作品的指導(dǎo)性影響太小。情形組合“1a+2b+3a”的人工智能生成物也不符合獨(dú)創(chuàng)作品的資格,因?yàn)槿祟愖髡邔?duì)作品的最終選擇不能補(bǔ)償人類作者在創(chuàng)建所選作品時(shí)所缺乏的指導(dǎo)性影響[30]6。所謂人類作者對(duì)作品的最終“選擇”不能補(bǔ)償人類作者在“創(chuàng)建”所選作品時(shí)所缺乏的指導(dǎo)性影響,指的就是情形3a不能補(bǔ)償情形2a的缺失。
其二,與情形3a、3b只涉及人類對(duì)生成物的“選擇”或“公布”不同,情形3c中人類直接參與了生成物的“創(chuàng)建”。本文認(rèn)為,情形3c于一定程度上近似2a,情形組合“1a+3c”亦可構(gòu)成人工智能生成物通過(guò)獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)考驗(yàn)的充分條件。情形3c、2a和情形3a、3b的區(qū)別,在于人類干預(yù)是否導(dǎo)致最終生成物“本身”的變動(dòng)。獨(dú)創(chuàng)性的判斷對(duì)象也應(yīng)該是最終生成物本身,因?yàn)橹挥凶罱K生成物本身的變化才能反映出人類的“直接”貢獻(xiàn)。
綜上,人工智能生成物通過(guò)獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)考驗(yàn)的充分條件包括以下兩種情況:其一,符合情形組合“1a+2a”,即在系統(tǒng)創(chuàng)建環(huán)節(jié)由人類確定人工智能要實(shí)現(xiàn)的特定目標(biāo),以及在數(shù)據(jù)選擇環(huán)節(jié)由人類確定數(shù)據(jù)或數(shù)據(jù)篩選標(biāo)準(zhǔn),且此時(shí)人類干預(yù)應(yīng)構(gòu)成關(guān)鍵數(shù)據(jù)處理,而非創(chuàng)作的準(zhǔn)備活動(dòng)。其二,符合情形組合“1a+3c”,即在系統(tǒng)創(chuàng)建環(huán)節(jié)由人類確定人工智能要實(shí)現(xiàn)的特定目標(biāo),在制造生成物環(huán)節(jié),人類通過(guò)向人工智能發(fā)出指令以修改生成物方式或徑直修改生成物方式直接參與生成物的創(chuàng)建。
(三)人工智能生成物人類干預(yù)之司法判斷模型的實(shí)例檢驗(yàn)
目前,我國(guó)法院判決的“菲林訴百度案”和“騰訊訴盈訊案”,均涉及了人工智能生成物著作權(quán)保護(hù)問(wèn)題的判斷。本文嘗試根據(jù)前述人類干預(yù)評(píng)價(jià)模型和人類干預(yù)條件模型(合稱人工智能生成物人類干預(yù)之司法判斷模型)對(duì)涉案內(nèi)容進(jìn)行分析。
在“騰訊訴盈訊案”中,騰訊公司組織包含編輯團(tuán)隊(duì)、產(chǎn)品團(tuán)隊(duì)和技術(shù)開發(fā)團(tuán)隊(duì)在內(nèi)的主創(chuàng)團(tuán)隊(duì)運(yùn)行Dreamwriter軟件生成包含涉案文章在內(nèi)的財(cái)經(jīng)新聞?lì)愇恼?。騰訊主創(chuàng)團(tuán)隊(duì)設(shè)定了Dreamwriter軟件工作的特定目標(biāo)——生成財(cái)經(jīng)新聞?lì)愇恼?,符合情?a;選擇、安排了數(shù)據(jù)類型、數(shù)據(jù)格式、觸發(fā)條件、文章框架模板、語(yǔ)料等,符合情形2a,且行為屬于關(guān)鍵數(shù)據(jù)處理。由此,涉案文章屬于情形組合“1a+2a”,且在情形2a上行為構(gòu)成關(guān)鍵數(shù)據(jù)處理,符合模型條件,能達(dá)到獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)。實(shí)踐中,法院亦認(rèn)定文章的表現(xiàn)形式源于創(chuàng)作者個(gè)性化的選擇與安排,具有獨(dú)創(chuàng)性,屬于著作權(quán)法保護(hù)的文字作品。
在“菲林訴百度案”中,菲林律所根據(jù)法律統(tǒng)計(jì)數(shù)據(jù)分析軟件“威科先行法律信息庫(kù)”(以下簡(jiǎn)稱“威科先行庫(kù)”)自動(dòng)生成了《影視娛樂(lè)行業(yè)司法大數(shù)據(jù)分析報(bào)告——電影卷·北京篇》(以下簡(jiǎn)稱“分析報(bào)告”)。從研發(fā)者角度分析,研發(fā)者設(shè)定了威科先行庫(kù)的工作目標(biāo)——生成法律數(shù)據(jù)分析報(bào)告,符合情形1a。但研發(fā)者沒(méi)有參與確定分析報(bào)告的數(shù)據(jù)或數(shù)據(jù)篩選標(biāo)準(zhǔn),也沒(méi)有就分析報(bào)告進(jìn)行任何修改,不符合情形2a或3c,研發(fā)者的干預(yù)不符合模型條件,人格因素沒(méi)有達(dá)到獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)門檻,這與實(shí)踐中法院認(rèn)定分析報(bào)告“并未傳遞研發(fā)者思想、感情的獨(dú)創(chuàng)性表達(dá)”一致。從使用者角度分析,其采用了研發(fā)者設(shè)定的威科先行庫(kù)工作目標(biāo)——生成法律數(shù)據(jù)分析報(bào)告,符合情形1a。使用者提交了檢索關(guān)鍵詞,符合情形2a,然而,僅僅幾個(gè)關(guān)鍵詞的貢獻(xiàn)不能構(gòu)成關(guān)鍵數(shù)據(jù)處理,而僅屬創(chuàng)作準(zhǔn)備活動(dòng)。因?yàn)槭褂谜咻斎氲年P(guān)鍵詞僅僅限定了案件范圍,而案由分布、行業(yè)分布、程序分類、裁判結(jié)果、標(biāo)的額等分析報(bào)告的主要數(shù)據(jù)還需要威科先行庫(kù)自行提取法院勘驗(yàn)筆錄顯示,在輸入關(guān)鍵詞“電影”,限定審理法院為北京市法院,審判日期為1995年1月1日至2017年12月31日后,威科先行庫(kù)生成的大數(shù)據(jù)報(bào)告1內(nèi)容包括了數(shù)據(jù)來(lái)源、檢索結(jié)果可視化(整體情況分析、案由分布、行業(yè)分布、程序分類、裁判結(jié)果、標(biāo)的額可視化、審理期限可視化、法院、法官、律師律所、高頻法條)和附錄。。使用者也沒(méi)有證據(jù)證明自己修改了分析報(bào)告,故不符合情形3c。使用者的干預(yù)不符合模型條件,其人格因素沒(méi)有達(dá)到獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)門檻,這與法院認(rèn)定分析報(bào)告“并非傳遞軟件用戶思想、感情的獨(dú)創(chuàng)性表達(dá)”一致。綜上,分析報(bào)告既不源于研發(fā)者的干預(yù),也不源于使用者的干預(yù),也就如判決所言不能構(gòu)成著作權(quán)法上的作品。
對(duì)比兩起案件,顯然異曲同工,法院均采用了獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)。前者因人工智能生成物體現(xiàn)了主創(chuàng)團(tuán)隊(duì)個(gè)性化的安排與選擇,人格因素達(dá)標(biāo),肯定了生成物的作品資格;后者因分析報(bào)告并未傳遞研發(fā)者或使用者思想、感情的獨(dú)創(chuàng)性表達(dá),人格因素不達(dá)標(biāo),否定了生成物的作品資格??梢?,我國(guó)法院對(duì)獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)的應(yīng)用并不存在本質(zhì)上的分歧。
五、結(jié)論
一切新技術(shù)的發(fā)展,終將服務(wù)于人類對(duì)美好世界的追求?!蔼?dú)立創(chuàng)作、源于本人”和“最低限度創(chuàng)造性”仍然是人工智能生成物獨(dú)創(chuàng)性的基本構(gòu)成要素。
在獨(dú)創(chuàng)性之“獨(dú)”上,我們不應(yīng)排斥人工智能生成物基于已有素材整合,且應(yīng)強(qiáng)調(diào)以“人的行為”為研究基礎(chǔ)。在獨(dú)創(chuàng)性之“創(chuàng)”上,建議維持原有的創(chuàng)造性高度標(biāo)準(zhǔn),但可以通過(guò)賦予人工智能生成物著作權(quán)主張更高的人類干預(yù)證明義務(wù),施以其更高的保護(hù)門檻。
通過(guò)建立人工智能生成物人類干預(yù)之司法判斷模型,可以實(shí)現(xiàn)人工智能生成物獨(dú)創(chuàng)性標(biāo)準(zhǔn)的科學(xué)化、客觀化。其中,人類干預(yù)評(píng)價(jià)模型將單個(gè)案例抽象為人類干預(yù)情形組合,解決的是獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)之客觀化問(wèn)題;人類干預(yù)條件模型歸納人類干預(yù)情形組合與著作權(quán)保護(hù)之間的關(guān)系,解決的是獨(dú)創(chuàng)性主觀標(biāo)準(zhǔn)之門檻問(wèn)題。在此基礎(chǔ)上,凝聚共識(shí),推進(jìn)裁判尺度統(tǒng)一,必將對(duì)司法實(shí)踐起到更好的指導(dǎo)作用。
參考文獻(xiàn):
[1]孫正樑.人工智能生成內(nèi)容的著作權(quán)問(wèn)題探析[J].清華法學(xué),2019(6).
[2]吳漢東.論人工智能時(shí)代的制度安排與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017(5):131.
[3]何煉紅.人工智能自主生成成果“作品觀”質(zhì)疑與反思[J].貴州省黨校學(xué)報(bào),2018(5):1523.
[4]王遷.知識(shí)產(chǎn)權(quán)法教程[M].北京:中國(guó)人民大學(xué)出版社,2019.
[5]金渝林.論作品的獨(dú)創(chuàng)性[J].法學(xué)研究,1995(4):59.
[6]喬立春.“獨(dú)立創(chuàng)作”作為“獨(dú)創(chuàng)性”內(nèi)涵的證偽[J].知識(shí)產(chǎn)權(quán),2011(7):3738.
[7]劉影.人工智能生成物的著作權(quán)法保護(hù)初探[J].知識(shí)產(chǎn)權(quán),2017(9):4647.
[8]王小夏,付強(qiáng).人工智能創(chuàng)作物著作權(quán)問(wèn)題探析[J].中國(guó)出版,2017(17):3336.
[9]黃玉燁,司馬航.孳息視角下人工智能生成作品的權(quán)利歸屬[J].河南師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(4).
[10]袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):5057.
[11]郭少飛.“電子人”法律主體論[J].東方法學(xué),2018(3):3849.
[12]熊琦.人工智能生成內(nèi)容的著作權(quán)認(rèn)定[J].知識(shí)產(chǎn)權(quán),2017(3):7.
[13]易繼明.人工智能創(chuàng)作物是作品嗎?[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017(5).
[14]盧炳宏.論人工智能創(chuàng)作物獨(dú)創(chuàng)性判斷標(biāo)準(zhǔn)之選擇[J].內(nèi)蒙古社會(huì)科學(xué), 2020(4).
[15]孫山.人工智能生成內(nèi)容著作權(quán)法保護(hù)的困境與出路[J].知識(shí)產(chǎn)權(quán),2018(11):6063.
[16]王遷.論人工智能生成的內(nèi)容在著作權(quán)法中的定性[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017(5).
[17]何培育,蔣啟蒙.人工智能生成物的著作權(quán)保護(hù)路徑探析——兼評(píng)人工智能生成物著作權(quán)第一案[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020(4):30.
[18]M.雷炳德.著作權(quán)法[M].張恩民,譯.13版.北京:法律出版社,2004:53.
[19]王遷.著作權(quán)法[M]. 北京:中國(guó)人民大學(xué)出版社,2015:20.
[20]HENRY G. Japan Report—Copyright in artificially generated works[C].London:AIPPI,2019:4
[21]何煉紅,王志雄.人工智能醫(yī)療影像診斷侵權(quán)損害賠償法律問(wèn)題[J].政治與法律,2020(3):32.
[22]中國(guó)信息通信研究院,Gartner Group.2018世界人工智能產(chǎn)業(yè)發(fā)展藍(lán)皮書[R].上海:世界人工智能大會(huì)組委會(huì),2018:44.
[23]RUSSELL S J, NORVIG P.人工智能:一種現(xiàn)代的方法[M]. 殷建平,祝恩,劉越,譯. 北京:清華大學(xué)出版社,2013:878.
[24]吳漢東.人工智能對(duì)知識(shí)產(chǎn)權(quán)法律保護(hù)的挑戰(zhàn)[J].中國(guó)法律評(píng)論,2018(2):14.
[25]GRIFFITHS J, BENTLY L, CORNISH W R. UK, §2〔b〕〔i〕[M]//GELLE RP E. International Copyright Law and Practice.? Miamisburg: Matthew Bender & Company,Inc,2015.
[26]HENRY G. UK Report—Copyright in artificially generated works[C]. London: AIPPI,2019:7.
[27]MERGES R P, MENELL P S, LEMLEY M A. Intellectual Property in the New Technological Age[M]. 6th ed. Alphon annden Rijn: Wolters Kluwer Law and Business,2012:6.
[28]黑格爾.法哲學(xué)原理[M].范揚(yáng),張企泰,譯.北京:商務(wù)印書館,1961:59.
[29]彭立靜.倫理視野中的知識(shí)產(chǎn)權(quán)[M].北京:知識(shí)產(chǎn)權(quán)出版社,2010:58.
[30]HENRY G. Germany Report—Copyright in artificially generated works[C].London: AIPPI,2019.
[31]Henry G. USA Report—Copyright in artificially generated works[C]. London: AIPPI,2019:4.
[32]AIPPI. Resolution—Copyright in artificially generated works[C].London: AIPPI,2019.
[33]JONATHAN P. OSHA Summary Report—Copyright in artificially generated works[C].London: AIPPI,2019:89.
[34]曹建峰. 2019年全球人工智能治理報(bào)告:從科技中心主義到科技人文協(xié)作[EB/OL].(20200206) [20210308] https://www.sohu.com/a/371067151_455313.
[35]中國(guó)信息通信研究院.全球人工智能戰(zhàn)略與政策觀察(2019)[R].北京:中國(guó)信息通信研究院,中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟,2019:153.
[36]馬旗戟. 人類為什么思考技術(shù)善惡的問(wèn)題&怎樣做? [EB/OL].(20190529)[20210330].https://mp.weixin.qq.com/s/3BtgKfFNcW6FRWWWdyqoqQ.
[37]賈平凡. 用“科技向善”理念引領(lǐng)人工智能發(fā)展[N].人民日?qǐng)?bào)(海外版),20190506.
[38]騰訊研究院. 曼紐爾·卡斯特:“善意”應(yīng)成為技術(shù)產(chǎn)品的商業(yè)競(jìng)爭(zhēng)力[EB/OL].(20191015)[20210530].https://baijiahao.baidu.com/s?id=1647456602680452756&wfr=spider&for=pc.
[39]CASTELVECCHI D. Can we open the black box of AI?[EB/OL].[20210530].https://www.nature.com/news/canweopentheblackboxofai1.20731?from=singlemessage&isappinstalled=0.
[40]曹歡歡.今日頭條推薦算法原理全文詳解[EB/OL].(20180116)[20210530].https://36kr.com/p/1722189037569.
The Originality Standard of Artificial Intelligence? Products and the
Construction of Human Intervention Judicial Judgment Model
HE Lianhong1, DENG Tao2
(1. School of Law, Central South University, Changsha 410083, China;
2. Intellectual Property Research Center, Zhongnan University of Economics and Law, Wuhan 430073, China)
Abstract:
It is of great significance that the originality standard of artificial intelligence products directly affects the identification of their work qualification. We should take “independent creation, selforigin” and “minimum creativity” as the constituent elements of originality, adopt the subjective standard of originality, and guide and ensure the good of science and technology with human intervention. In judicial practice, constructing the evaluation model of human intervention and abstracting the case into the combination of human intervention situations can solve the objective problem of the original subjective standard. Constructing the human intervention condition model and summarizing the relationship between the combination of human intervention and copyright protection can solve the threshold problem of originality subjective standard.
Keywords:
artificial intelligence products; subjective criterion of originality; human intervention; judicial judgment model
(編輯:劉仲秋)
收稿日期:20210412修訂日期:20210531
基金項(xiàng)目:國(guó)家社會(huì)科學(xué)基金項(xiàng)目:人工智能知識(shí)產(chǎn)權(quán)法律問(wèn)題研究(17BFX012);湖南省教育廳創(chuàng)新平臺(tái)開放基金項(xiàng)目:網(wǎng)絡(luò)服務(wù)平臺(tái)知識(shí)產(chǎn)權(quán)保護(hù)義務(wù)體系研究(18K002);中南財(cái)經(jīng)政法大學(xué)中央高校基本科研業(yè)務(wù)費(fèi)專項(xiàng)資金:閑置商標(biāo)清理問(wèn)題研究(202111516)
作者簡(jiǎn)介:
何煉紅(1970),女,湖南韶山人,教授,博士生導(dǎo)師,主要從事知識(shí)產(chǎn)權(quán)法學(xué)研究;鄧韜(1998),女,湖南郴州人,碩士研究生,主要從事知識(shí)產(chǎn)權(quán)法學(xué)研究。
重慶郵電大學(xué)學(xué)報(bào)·社會(huì)科學(xué)版2021年5期