郭歡歡
【摘要】? 人工智能時代的到來、人工智能在版權(quán)領(lǐng)域的運(yùn)用、人工智能創(chuàng)作物的產(chǎn)生以及在實(shí)踐中引發(fā)的一系列版權(quán)糾紛,使得人工智能創(chuàng)作物版權(quán)歸屬成為一個不可回避的問題。著作權(quán)法修改熱潮之下,應(yīng)對人工智能創(chuàng)作物的著作權(quán)等歸屬和適當(dāng)?shù)姆杀Wo(hù)當(dāng)予以明確。關(guān)于人工智能創(chuàng)作物的版權(quán)問題,須從是否構(gòu)成作品,版權(quán)歸屬如何確定,版權(quán)侵權(quán)責(zé)任如何承擔(dān)三個方面予以考量。
【關(guān)? 鍵? 詞】人工智能;創(chuàng)作物;版權(quán)
人工智能(AI)是新一輪產(chǎn)業(yè)變革的核心驅(qū)動力,社會生活各領(lǐng)域都逐步形成智能化新需求,版權(quán)領(lǐng)域亦是如此。2017年,人類歷史上第一部AI創(chuàng)造的詩集《陽光失了玻璃窗》問世,隨之而來的還有人工智能創(chuàng)作的繪畫、音樂作品等,由此引發(fā)了學(xué)者對此類作品的一系列思考:人工智能能否賦予法律主體資格?其創(chuàng)作物是否屬于著作權(quán)保護(hù)范圍?作品版權(quán)歸屬又當(dāng)為何?等等。
一、人工智能創(chuàng)作物是否構(gòu)成作品
我國當(dāng)下關(guān)于“作品”的定義在《中華人民共和國著作權(quán)法實(shí)施條例》第二條:著作權(quán)法所稱作品,是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性并能以某種有形形式復(fù)制的智力成果。而最新的著作權(quán)法修正草案第三條對“作品”做了明確規(guī)定:“本法所稱的作品,是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性并能以某種形式固定的智力表達(dá)”。透過法條修訂可見,構(gòu)成著作權(quán)法中的“作品”必須滿足以下條件。
1.獨(dú)創(chuàng)性
無論是著作權(quán)法實(shí)施條例還是著作權(quán)法修正案草案,對“作品”的定義共同點(diǎn)都是對其獨(dú)創(chuàng)性的肯定,獨(dú)創(chuàng)性是創(chuàng)作物構(gòu)成作品的實(shí)質(zhì)性要件。因此,人工智能創(chuàng)作物構(gòu)成作品也必須具有一定的獨(dú)創(chuàng)性。獨(dú)創(chuàng)性是就作品表現(xiàn)形式而言的,指獨(dú)立創(chuàng)作產(chǎn)生作品,在表現(xiàn)形式上與已有作品存在差異,否則就會構(gòu)成抄襲、剽竊。這種獨(dú)創(chuàng)性一定意義上就是作者主觀特性的體現(xiàn)。
當(dāng)前階段的人工智能為弱人工智能,并不是真正意義上的人工智能。其在大數(shù)據(jù)整合之下形成的所謂文學(xué)、藝術(shù)創(chuàng)作雖然具有區(qū)別于其他作品的特征,但并非人工智能的主觀表達(dá)。
2.“可以某種有形形式復(fù)制”與“能以某種形式固定”
“有形形式復(fù)制”與“某種形式固定”最大的區(qū)別就是復(fù)制與固定的差別?!坝行涡问綇?fù)制”主要是指作品的無形性,“有形形式復(fù)制”使得作品可以通過一定方式被外界所感知,且這種“有形形式復(fù)制”往往也是作品遭受侵權(quán)的一種表現(xiàn)形式。以“某種形式固定”則是直接將作品的載體固化。這種用詞上的差異主要是為了提高版權(quán)的保護(hù)水平,但卻忽視了那些現(xiàn)實(shí)中無法實(shí)現(xiàn)固化的作品的版權(quán)保護(hù)。無論是“有形形式復(fù)制”,還是“某種形式固定”,二者對人工智能創(chuàng)作物作品的構(gòu)成都沒有實(shí)質(zhì)性影響。
3.“智力成果”與“智力表達(dá)”
“智力表達(dá)”的范圍要比“智力成果”的范圍更加寬泛?!爸橇Τ晒敝溉藗兺ㄟ^智力勞動創(chuàng)造的精神財(cái)富或精神產(chǎn)品,“智力成果”的內(nèi)涵是指主體只能是“人”,“智力成果”是人所特有的獨(dú)創(chuàng)性產(chǎn)物。當(dāng)前,人工智能的智力仍是存疑的,大多數(shù)學(xué)者認(rèn)為弱人工智能非真正意義的人工智能,那么其創(chuàng)作物就不能稱為“智力成果”?!爸橇Ρ磉_(dá)”除卻“智力成果”的內(nèi)涵,還包括一定思想的表達(dá),這一修訂是擴(kuò)大版權(quán)保護(hù)范圍、提高版權(quán)保護(hù)水平之舉。
在我國對著作權(quán)法修正案草案的審議中,委員雖然各抒己見,多次指出應(yīng)當(dāng)對人工智能創(chuàng)作物著作權(quán)進(jìn)行肯定與保護(hù),但是草案中體現(xiàn)得并不明顯,反而草案中的個別條款甚至排除了對人工智能創(chuàng)作物的認(rèn)定。筆者認(rèn)為,草案可以參照日本的做法:日本在《專利法》中增加了針對人工智能創(chuàng)作物的司法解釋,即除了人類勞動產(chǎn)生的知識產(chǎn)權(quán),由計(jì)算機(jī)自主創(chuàng)作的、能夠與其他創(chuàng)作作品進(jìn)行區(qū)分的文學(xué)創(chuàng)作物,同樣受到知識產(chǎn)權(quán)保護(hù)。
二、人工智能創(chuàng)作物版權(quán)歸屬如何確定
當(dāng)人工智能利用深度學(xué)習(xí)技術(shù)自主生成作品時,其創(chuàng)作物版權(quán)歸屬問題換個角度即是人工智能的法律主體資格問題。如果賦予人工智能法律主體資格,那么其創(chuàng)作物版權(quán)理應(yīng)歸屬人工智能本身;如果否認(rèn)其法律主體資格,那么人工智能就不具備版權(quán)人資格。如果人工智能不具有法律主體資格,那么其版權(quán)的歸屬主要考慮人工智能研發(fā)人、所有人、使用人,并由三者適當(dāng)分配版權(quán)的多項(xiàng)具體權(quán)利,或者像有些學(xué)者提倡的讓人工智能作品進(jìn)入公共領(lǐng)域。也有學(xué)者綜合多種觀點(diǎn)后提出,人工智能應(yīng)享有署名權(quán),但由其研發(fā)人、使用人、所有人適當(dāng)分配其他財(cái)產(chǎn)類權(quán)利,等等。
我國著作權(quán)法以及著作權(quán)法修正案草案中關(guān)于版權(quán)人的規(guī)定,主要變化為將第二條、第九條中的“公民”改為“自然人”,“其他組織”改為“非法人組織”。有學(xué)者指出法律中有擬制的版權(quán)人——法人或其他組織(非法人組織),因此也可以從法律擬制角度賦予人工智能作者身份地位。但無論是修正案草案還是現(xiàn)行著作權(quán)法,都未將人工智能這一特殊主體列入版權(quán)人范疇。因?yàn)闊o論是法人、其他組織還是非法人組織,人工智能都不歸屬其中。賦予人工智能主體地位,一定意義上就是肯定其智能,使其具有作為法律主體資格的可能性。但當(dāng)前人工智能的智能源于研發(fā)人的程序設(shè)計(jì),這種由研發(fā)人賦予的智能使得人工智能本身缺乏作為法律主體的主觀能動性,因此在權(quán)利義務(wù)一致性方面存有先天缺陷。
由于權(quán)利與義務(wù)是相對的,享有權(quán)利就要承擔(dān)相應(yīng)的義務(wù),法人正是因?yàn)榫哂邢鄳?yīng)的承擔(dān)責(zé)任的能力,才能作為法律主體和法律擬制人格而存在。如果賦予人工智能一定的權(quán)利,那么其就應(yīng)當(dāng)承擔(dān)相應(yīng)的義務(wù)。如果人工智能具有署名權(quán),那么其作品對他人作品構(gòu)成侵權(quán)時,人工智能如何承擔(dān)相應(yīng)侵權(quán)責(zé)任?如果權(quán)利與義務(wù)無法達(dá)到平衡,那么人工智能作為權(quán)利主體就是存疑的。而且當(dāng)下人工智能以弱人工智能為主,人才是人工智能的控制者,對人工智能的規(guī)制主要是通過對人的規(guī)制實(shí)現(xiàn)的。即人工智能的社會倫理道德也是研發(fā)者在程序設(shè)計(jì)中賦予的,因此使用者在人工智能使用過程中承擔(dān)了一定的道德約束之責(zé)。由研發(fā)者、所有者、使用者作為法律主體,享有權(quán)利并承擔(dān)責(zé)任是可行的,而適當(dāng)分擔(dān)首要考慮的就是權(quán)責(zé)一致性,即賦予權(quán)利的同時也要考慮相應(yīng)責(zé)任的負(fù)擔(dān)。
三、人工智能版權(quán)侵權(quán)責(zé)任如何承擔(dān)
法人之所以成為法律上的“人”,作為一種法律主體存在,是因?yàn)榉ㄈ擞谐袚?dān)相應(yīng)法律責(zé)任的能力,權(quán)利與義務(wù)相伴而生。作為一種組織,法人享有的權(quán)利與義務(wù)也使其具有作為法律“人”的資格。但是人工智能不同,人工智能不是法人、組織,而是一種技術(shù),是人類為了一定的目的而開發(fā)的一種科學(xué)技術(shù),應(yīng)用于各大領(lǐng)域、為各大領(lǐng)域科技化進(jìn)程的提升所服務(wù)的一種技術(shù),依附于自然人的智慧而存在。
人工智能不能作為法律主體的主要原因在于其不具備承擔(dān)相應(yīng)法律責(zé)任的能力,如民事侵權(quán)、刑事犯罪、意外事故等。人類的生命只有一次,具有不可逆轉(zhuǎn)性,正是因?yàn)槿绱耍藗優(yōu)樽约旱男袨槌袚?dān)責(zé)任,尤其是侵犯他人生命或有重大犯罪行為時,須付出生命為代價(jià)。這種以生命承擔(dān)責(zé)任的做法,一是為了震懾他人,使社會秩序得以保障,二是為了公平正義的實(shí)現(xiàn)。而人工智能是通過計(jì)算機(jī)程序存在的,其生命的核心就是程序,程序具有可復(fù)制性、可再生性,因此要求人工智能作為法律主體承擔(dān)相應(yīng)的法律責(zé)任并不能夠保證法律價(jià)值——公平正義的實(shí)現(xiàn)。例如,當(dāng)版權(quán)侵權(quán)嚴(yán)重構(gòu)成刑事犯罪時,除金錢處罰外,還處以一定的自由刑。無論是一定的刑期還是一定的金錢賠償,人工智能這種非生命體都無法同人一樣在生命意義上付出代價(jià),無法成為責(zé)任的主體,因?yàn)槿斯ぶ悄懿痪哂猩鋲勖拈L短會因程序的可復(fù)制性而具有不確定性。
人工智能技術(shù)的可復(fù)制性、可再生性決定了人工智能作為主體承擔(dān)責(zé)任的低成本性,可能會助長所有者、研發(fā)者、使用者利用人工智能侵權(quán)的勢頭。所以,將人工智能作為客體,將人工智能的所有者、研發(fā)者、使用者作為自然人或者法人,這樣權(quán)利與義務(wù)的主體才能回歸現(xiàn)有的法律體系。由所有者、使用者與研發(fā)者享有人工智能創(chuàng)作物的版權(quán),同時承擔(dān)人工智能版權(quán)侵權(quán)責(zé)任,是實(shí)現(xiàn)權(quán)利與義務(wù)平衡的可行之舉。這種責(zé)任劃分,一定意義上也是對所有者、使用者、研發(fā)者進(jìn)行嚴(yán)格要求,使其更為嚴(yán)謹(jǐn)?shù)貙Υ茖W(xué)知識,對自己行為負(fù)責(zé)。反之,如果由人工智能本身承擔(dān)侵權(quán)責(zé)任,那么程序的可復(fù)制性無疑成為侵權(quán)低成本化的一大動因,可能導(dǎo)致所有者、使用者、研發(fā)者利用人工智能進(jìn)行侵權(quán)甚至進(jìn)行違法犯罪活動。
筆者認(rèn)為,由于所有者對人工智能程序的熟知度、掌握度往往遠(yuǎn)不及研發(fā)者,所以程序錯誤導(dǎo)致的侵權(quán)應(yīng)當(dāng)主要由研發(fā)者承擔(dān)。鑒于被侵權(quán)人處于弱勢地位,為了保障被侵權(quán)人的權(quán)益,應(yīng)將所有者與研發(fā)者作為共同侵權(quán)人對外承擔(dān)連帶責(zé)任。若是所有者主觀過錯導(dǎo)致侵權(quán)的,則由使用者承擔(dān)責(zé)任。連帶責(zé)任中,內(nèi)部責(zé)任的分擔(dān)也應(yīng)當(dāng)予以明確:(1)研發(fā)者存在過錯或程序自身存在瑕疵,且交付時研發(fā)者已經(jīng)予以情況說明的,可以適當(dāng)減輕研發(fā)者的責(zé)任;(2)研發(fā)者存在過錯或程序自身存在瑕疵,且研發(fā)者未對實(shí)際情況予以說明導(dǎo)致侵權(quán)的,所有者承擔(dān)責(zé)任后可向研發(fā)者追償。
四、結(jié)語
除卻自然人、法人、國家作為法律主體,2017年新西蘭通過的《旺格努伊河理賠法案》還賦予河流法律人的資格,創(chuàng)設(shè)出自然人、法人之外的新型法律人格,但這并不意味著這種新型法律人格的創(chuàng)設(shè)適用于我國或者其他國家。新西蘭賦予河流法律人格的做法,源于其本土特殊的社會價(jià)值觀念:當(dāng)?shù)孛柯鋵⑼衽梁右暈闊o形的生命體,認(rèn)為其具有自身的內(nèi)在價(jià)值與靈魂,所以產(chǎn)生了河流這一法律人主體資格。新興法律人格的確立必將對現(xiàn)行的法律體系形成猛烈沖擊,因此對新型法律人格的確定應(yīng)慎重。
雖然現(xiàn)代民法體系中,法律上的“人”不一定是生物上的“人”,有法人、國家這種立法先例,但這并不意味著人工智能同樣可以作為法律主體而存在。人工智能不是法人,也不是組織,而是一種技術(shù)工具,為“人”所支配,作為被支配的工具自然不享有法律主體資格。雖然人工智能有弱人工智能、強(qiáng)人工智能、超人工智能之分,但當(dāng)前社會主要研究的是弱人工智能。不可否認(rèn)的是,人工智能的初始即為程序,程序是人工智能的“生命”且具有可復(fù)制性、可再生性,這種特性使得人工智能作為法律人時,其權(quán)利與義務(wù)不具有平衡性,所以人工智能不能成為新型法律人格。
在版權(quán)領(lǐng)域亦是如此,人工智能這種法律主體資格的先天性缺陷,使其創(chuàng)作物的版權(quán)問題必須慮及相關(guān)人員。但人工智能創(chuàng)作物已經(jīng)對現(xiàn)實(shí)產(chǎn)生重大的影響,忽視對人工智能創(chuàng)作物的保護(hù),則意味著人工智能創(chuàng)作物會進(jìn)入公共領(lǐng)域可以被任意復(fù)制、抄襲,這必然導(dǎo)致學(xué)術(shù)的混亂、文化發(fā)展的阻滯以及科技發(fā)展的懈怠,所以對人工智能創(chuàng)作物進(jìn)行著作權(quán)保護(hù)勢在必行。但是,若嚴(yán)格按照當(dāng)前法律規(guī)定對人工智能創(chuàng)作物進(jìn)行作品認(rèn)定又存在很大不足,無法對其進(jìn)行法律上的保護(hù)。因此,為響應(yīng)著作權(quán)法修正案草案,以及切合當(dāng)前發(fā)展實(shí)際,人工智能創(chuàng)作物的著作權(quán)應(yīng)當(dāng)在立法中得以體現(xiàn)。但鑒于人工智能創(chuàng)作物自身的特殊性,對其提供的法律保護(hù)可以另行規(guī)定,如各項(xiàng)權(quán)利在研發(fā)人、使用人、所有人之間的合理分配等。當(dāng)前,人工智能的發(fā)展主要是弱人工智能技術(shù)的運(yùn)用,至于一些學(xué)者所提出的如強(qiáng)人工智能、超人工智能具有主觀能動性,應(yīng)當(dāng)賦予其法律主體資格等,并不在當(dāng)前立法的考量范圍之內(nèi)。程序作為人工智能“生命之所在”,主觀能動性的欠缺、程序的可復(fù)制性和可再生性等都決定了人工智能作為法律主體尚有所缺。
|參考文獻(xiàn)|
[1]徐慧麗. 人工智能法律人格探析[J]. 西北大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2020(1):107-119.
[2]王濤. 人工智能生成內(nèi)容的著作權(quán)歸屬探討——以“菲林案”為例[J]. 出版廣角,2020(7):71-73.
[3]黃俏娟,羅旭東. 人工智能與法律結(jié)合的現(xiàn)狀及發(fā)展趨勢[J]. 計(jì)算機(jī)科學(xué),2018(12):1-11.
[4] 龍衛(wèi)球. 科技法迭代視角下的人工智能立法[J]. 法商研究,2020(1):57-72.
[5] 王利明. 人工智能時代提出的法律問題[EB/OL]. (2018-07-30)[2020-02-25]. http://sky. cssn. cn/dzyx/dzyx_
llsj/201807/t20180730_4513220_1. shtml?COLLCC=1742177876&.
[6] 姚萬勤. 大數(shù)據(jù)時代人工智能的法律風(fēng)險(xiǎn)及其防范[J]. 內(nèi)蒙古社會科學(xué)(漢文版),2019(3):84-90.
[7]鄭婷嬌. 人工智能發(fā)展過程中的法律問題研究[J]. 科技經(jīng)濟(jì)導(dǎo)刊,2020(4):7-8.
[8]孫宏濤,郭瑩瑩. 人工智能機(jī)器人民事法律責(zé)任制度的反思與重構(gòu)[J]. 廣西社會科學(xué),2020(1):105-111.
[9]高鵬友. 網(wǎng)頁構(gòu)成著作權(quán)法上作品的認(rèn)定標(biāo)準(zhǔn)研究——兼論《著作權(quán)法》送審稿第五條[J]. 中國版權(quán),2016(2):27-30.