張婷婷
青島科技大學(xué),山東 青島 266061
人工智能的飛速發(fā)展,給人們的生活帶來(lái)了極大的便利,在這一領(lǐng)域最重要的進(jìn)步之一是聊天機(jī)器人ChatGPT(Chat Generative Pre-trained Transformer,簡(jiǎn)稱“ChatGPT”)的興起,它是由美國(guó)OpenAI 公司開(kāi)發(fā)的一個(gè)大型語(yǔ)言模型,不僅能對(duì)用戶輸入的問(wèn)題進(jìn)行快速精準(zhǔn)回答,還能生成編程代碼、電子郵件、論文、小說(shuō)等各類文本,其上線不到一周的時(shí)間便突破了100 萬(wàn)用戶的大關(guān),成為繼戰(zhàn)勝世界圍棋冠軍的AlphaGo 后又一個(gè)具有劃時(shí)代意義的AI 產(chǎn)品。
1.生成內(nèi)容的著作權(quán)問(wèn)題
人工智能本身并沒(méi)有創(chuàng)造能力,而是通過(guò)大量資料的學(xué)習(xí)拼湊內(nèi)容。用戶通過(guò)ChatGPT 平臺(tái)生成的文章或者圖片的版權(quán)到底屬于誰(shuí),目前這個(gè)歸屬定位是模糊的。筆者在閱讀了OpenAI 公司官網(wǎng)的“使用條款”后發(fā)現(xiàn),該條款明確說(shuō)明只要用戶在遵守法律規(guī)定、使用條款限制,并且對(duì)輸入內(nèi)容具備所有權(quán)的情況下,OpenAI 就會(huì)將其在輸出內(nèi)容中的所有權(quán)利、所有權(quán)和利益轉(zhuǎn)讓給用戶??梢?jiàn),OpenAI 公司是將ChatGPT 平臺(tái)所形成的內(nèi)容的所有權(quán)讓渡給了用戶。2022 年12 月21 日,英矽智能創(chuàng)始人兼CEO Alex Zhavoronkov博士撰寫(xiě)的探討雷帕霉素抗衰老應(yīng)用的論文,發(fā)表于《Oncoscience》(腫瘤科學(xué))期刊上,值得注意的是,ChatGPT 以共同作者的身份出現(xiàn)在了這篇論文上,這無(wú)疑是對(duì)ChatGPT 享有著作權(quán)的肯定。有關(guān)ChatGPT 是否享有著作權(quán)的問(wèn)題也成為大家爭(zhēng)議的焦點(diǎn)。
在我國(guó),關(guān)于著作權(quán)的所有規(guī)定中,并沒(méi)有將AI 機(jī)器人列入其中,但使用ChatGPT 最終形成的文本確實(shí)是由其生成的,并沒(méi)有用戶自我創(chuàng)造的過(guò)程,因此,如何界定著作權(quán)的問(wèn)題亟待通過(guò)法律途徑解決。
2.生成內(nèi)容侵犯他人知識(shí)產(chǎn)權(quán)的問(wèn)題
ChatGPT 的回答來(lái)源于海量的信息庫(kù),其生成的文本或者圖片很有可能是他人發(fā)表的經(jīng)知識(shí)產(chǎn)權(quán)所保護(hù)的作品,如果直接被搜索到該文本或圖片的用戶拿來(lái)使用,這必然會(huì)侵犯他人合法的知識(shí)產(chǎn)權(quán)。根據(jù)《中華人民共和國(guó)著作權(quán)法》(以下簡(jiǎn)稱《著作權(quán)法》)第二十四條,在合理使用他人作品而不構(gòu)成侵權(quán)的十三種情形中,如果僅出于研究目的進(jìn)行研發(fā)、訓(xùn)練,則可以適用該合理使用情形,而基于商用目的或者為研發(fā)者帶來(lái)了直接的商業(yè)效益,則無(wú)法適用該合理使用情形。因此,ChatGPT 對(duì)海量信息挖掘處理在我國(guó)法律中并不屬于“合理使用”的范疇,并且很可能引發(fā)知識(shí)產(chǎn)權(quán)糾紛。但也有很多人主張ChatGPT的數(shù)據(jù)挖掘?qū)儆趯?duì)資源的合理利用,不涉及侵權(quán)問(wèn)題。日本是最早對(duì)數(shù)據(jù)挖掘作出例外規(guī)定的國(guó)家。根據(jù)《日本著作權(quán)法》規(guī)定,允許為了計(jì)算機(jī)信息分析的目的(即從眾多作品或者其他大量信息中篩選出構(gòu)成該信息的語(yǔ)言、聲音、影像或者其他要素,并進(jìn)行比較、分類或者其他統(tǒng)計(jì)分析)在必要限度內(nèi)將作品存儲(chǔ)在媒介上或者進(jìn)行改編。根據(jù)該例外情形,企業(yè)為了商業(yè)目的復(fù)制他人作品并用于計(jì)算機(jī)信息分析可能構(gòu)成合理使用的情形,而ChatGPT 對(duì)文本數(shù)據(jù)的商業(yè)使用恰好符合這一情形。[1]
作為一種語(yǔ)言模型,ChatGPT 需要訪問(wèn)大量數(shù)據(jù)才能有效運(yùn)行。這些數(shù)據(jù)不僅包括用戶進(jìn)行的輸入,還包括關(guān)于他們的行為、偏好和其他個(gè)人細(xì)節(jié)的信息。而這些數(shù)據(jù)一旦泄露,不僅是對(duì)個(gè)人隱私的侵犯,還可能被有心之人非法利用,對(duì)社會(huì)乃至國(guó)家造成巨大損失。近日,有用戶分享了在聊天機(jī)器人ChatGPT 上看到了不屬于自己的聊天記錄。ChatGPT 的企業(yè)負(fù)責(zé)人表示,ChatGPT 近日被發(fā)現(xiàn)存在漏洞,用戶可以看到其他用戶與ChatGPT 對(duì)話的標(biāo)題。2023 年3 月25 日,OpenAI 公司發(fā)文證實(shí),部分ChatGPT Plus 服務(wù)訂閱用戶可能泄露了部分個(gè)人隱私和支付信息。無(wú)獨(dú)有偶,某星公司引入聊天機(jī)器人ChatGPT 不到20 天,便發(fā)生3 起涉及ChatGPT 誤用與濫用案例,包括兩起“設(shè)備信息泄露”和一起“會(huì)議內(nèi)容泄露”,其中,半導(dǎo)體設(shè)備測(cè)量資料、產(chǎn)品良率等內(nèi)容或已被存入ChatGPT 學(xué)習(xí)資料庫(kù)中。如果這些個(gè)人信息或者商業(yè)秘密泄露,可能會(huì)對(duì)個(gè)人或企業(yè)的信譽(yù)造成不良影響。
事實(shí)證明,ChatGPT 的確存在泄密的風(fēng)險(xiǎn),在合理利用與侵犯隱私之間存在一個(gè)度的問(wèn)題,而如何把握這個(gè)度,則需要法律對(duì)此進(jìn)行規(guī)制。由于ChatGPT 是一個(gè)自然語(yǔ)言處理模型,它本身并不具備泄密的能力。但是,如果ChatGPT 被用于處理敏感信息,而且有人惡意利用ChatGPT 來(lái)泄露這些信息,那么應(yīng)該有相應(yīng)的法律規(guī)制來(lái)懲罰這種行為。此外,還應(yīng)該有明確的隱私保護(hù)政策和技術(shù)措施來(lái)防止ChatGPT 被濫用或攻擊,以保護(hù)用戶的隱私和數(shù)據(jù)安全。
ChatGPT 在運(yùn)行時(shí)首先會(huì)對(duì)用戶輸入的信息進(jìn)行預(yù)處理,包括對(duì)單詞進(jìn)行分詞、對(duì)詞性進(jìn)行標(biāo)注等,然后ChatGPT 會(huì)利用上下文信息和先前的對(duì)話歷史,對(duì)用戶輸入的意圖進(jìn)行理解。最終ChatGPT 會(huì)從生成的回復(fù)中選擇最佳的一個(gè),并將其返回給用戶。在這個(gè)過(guò)程中,ChatGPT 會(huì)考慮回復(fù)的相關(guān)性,語(yǔ)法正確性、連貫性等因素。用戶最終得到的回復(fù),經(jīng)過(guò)了ChatGPT 自主識(shí)別收集信息并處理的過(guò)程,雖然與普通搜索引擎相比,用戶得到的回復(fù)會(huì)更加迅速,但回答是否可靠有待考證。
我們?cè)谑褂闷胀ㄋ阉饕鏁r(shí),可以看到信息的來(lái)源。但是ChatGPT 生成的文本回答則看不到,我們不知道資料來(lái)自哪里,也就無(wú)法對(duì)其真實(shí)性進(jìn)行考證。ChatGPT 的訓(xùn)練需要大量的語(yǔ)料庫(kù),而這些資料都是滯后的,特別是在詢問(wèn)與時(shí)政相關(guān)的問(wèn)題時(shí),它無(wú)法給出有效真實(shí)的回答,其所提供的虛假信息很容易誘導(dǎo)他人。并且,用戶在使用時(shí)可以通過(guò)不斷輸入指令來(lái)對(duì)ChatGPT 進(jìn)行“調(diào)教”,使其回答符合自己想要的形式,這樣就容易導(dǎo)致一些不法分子惡意“訓(xùn)練”人工智能,使其提供詐騙信息、釣魚(yú)網(wǎng)站等內(nèi)容,損害公民人身財(cái)產(chǎn)安全。[2]
1.明確生成內(nèi)容的著作權(quán)歸屬
目前,對(duì)于ChatGPT 生成內(nèi)容的著作權(quán)歸屬問(wèn)題,有學(xué)者主張生成內(nèi)容是歸用戶所有,由用戶享有對(duì)生成內(nèi)容的著作權(quán),也有學(xué)者認(rèn)為Chat GPT 通過(guò)海量信息檢索整合而生成的內(nèi)容理應(yīng)歸ChatGPT 所有。
根據(jù)我國(guó)法律規(guī)定,文學(xué)、藝術(shù)和科學(xué)作品的作者享有對(duì)作品的著作權(quán),而作品是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性并能以一定形式表現(xiàn)的智力成果,所以,只要ChatGPT 所生成的內(nèi)容是具有獨(dú)創(chuàng)性的智力成果,便符合我國(guó)《著作權(quán)法》對(duì)著作權(quán)歸屬的規(guī)定。雖然最終從ChatGPT得到的作品是ChatGPT 通過(guò)算法生成的內(nèi)容,但實(shí)際上是用戶經(jīng)過(guò)自己的思考,通過(guò)不斷輸入自己的想法引導(dǎo)ChatGPT 而得到的,從這個(gè)層面來(lái)講,ChatGPT 所生成的內(nèi)容實(shí)際上是用戶的智力成果的體現(xiàn)。但是,如果簡(jiǎn)單把ChatGPT 生成的內(nèi)容直接歸屬于用戶所有,還會(huì)引發(fā)一個(gè)重要的問(wèn)題是,當(dāng)不同的用戶在輸入類似的問(wèn)題時(shí),可能得到的是相同的作品,那這種情況下,法律又該怎么界定著作權(quán)的歸屬?筆者認(rèn)為ChatGPT生成的內(nèi)容不應(yīng)當(dāng)被視為作品受到著作權(quán)法的保護(hù)。我國(guó)《著作權(quán)法》第二條規(guī)定,中國(guó)公民、法人或者非法人組織的作品,不論是否發(fā)表,依照本法享有著作權(quán)。該條表明只有公民、法人或者非法人組織才享有著作權(quán),因此,ChatGPT 作為一個(gè)AI 機(jī)器人,并不享有著作權(quán),并且其生成的內(nèi)容是基于強(qiáng)大的語(yǔ)料庫(kù)的訓(xùn)練,是在用戶的指令下完成的,它并不具備獨(dú)立思考的能力,因此其創(chuàng)作內(nèi)容也不具有獨(dú)創(chuàng)性,不應(yīng)當(dāng)被視為作品保護(hù)。在不同用戶得到相同的生成文本時(shí),這些用戶應(yīng)當(dāng)都有對(duì)其利用的權(quán)利,在此應(yīng)當(dāng)認(rèn)定為ChatGPT 生成的內(nèi)容是一種信息共享,而不是作品專屬。[3]
2.將數(shù)據(jù)挖掘納入合理使用范疇
在ChatGPT 應(yīng)用的過(guò)程中,必然會(huì)有數(shù)據(jù)挖掘的過(guò)程。所謂的數(shù)據(jù)挖掘就是對(duì)已有的數(shù)據(jù)庫(kù)進(jìn)行搜索,在數(shù)據(jù)庫(kù)中會(huì)存在他人依法受到知識(shí)產(chǎn)權(quán)保護(hù)的文學(xué)、美術(shù)、攝影作品等,當(dāng)ChatGPT在對(duì)這些作品收集整理時(shí),毫無(wú)疑問(wèn)會(huì)侵犯到他人的合法權(quán)利。但是,如果僅僅因?yàn)閿?shù)據(jù)挖掘會(huì)對(duì)知識(shí)產(chǎn)權(quán)造成一定沖擊,就全盤(pán)否定數(shù)據(jù)挖掘存在的合理性是非常不理性的。通過(guò)數(shù)據(jù)挖掘,ChatGPT 可以在短時(shí)間內(nèi)對(duì)海量數(shù)據(jù)庫(kù)進(jìn)行檢索并快速響應(yīng),它的檢索速度和能力是人類所不能比肩的,數(shù)據(jù)挖掘可以為我們?cè)诜爆嵉墓ぷ髦泄?jié)省大量的人力和物力。因此,將數(shù)據(jù)挖掘納入到合理使用的范疇是非常有必要的。在制度設(shè)計(jì)中可以從以下兩個(gè)方面入手:
第一,設(shè)立該制度的目的是鼓勵(lì)科研創(chuàng)新,在使用目的上不應(yīng)局限于非商業(yè)目的,因?yàn)樵趯?shí)際應(yīng)用中,很難區(qū)分是否屬于商業(yè)目的,并且基于商業(yè)研發(fā)需求也符合科研創(chuàng)新的目的;第二,表現(xiàn)形式是通過(guò)合法途徑獲取。作品使用人通過(guò)向著作權(quán)人支付一定的對(duì)價(jià)從而獲得對(duì)作品的使用權(quán)是著作權(quán)保護(hù)的基本方式,數(shù)據(jù)挖掘只有在通過(guò)合法途徑獲得的情況下才可以被認(rèn)定為合理使用,如果是通過(guò)非法途徑獲得的,則需要對(duì)著作權(quán)人承擔(dān)侵權(quán)責(zé)任。[4]
我國(guó)法律對(duì)隱私權(quán)采取的觀點(diǎn)是一種“秘密說(shuō)”,即隱私權(quán)針對(duì)的是未公開(kāi)的信息,但是對(duì)于ChatGPT 等人工智能在無(wú)形之中收集的用戶信息并沒(méi)有明確的規(guī)定。隨著科技的不斷發(fā)展,人工智能也日新月異,傳統(tǒng)的隱私權(quán)的界定范圍已經(jīng)不能滿足現(xiàn)代人維護(hù)自己合法權(quán)利的要求,因此,需要立法對(duì)隱私權(quán)的保護(hù)進(jìn)行一定的完善。
第一,對(duì)隱私權(quán)的范圍進(jìn)行擴(kuò)張,法律應(yīng)當(dāng)跟隨時(shí)代潮流,適時(shí)改進(jìn)一些滯后的規(guī)定,在傳統(tǒng)的隱私權(quán)范圍不能解決現(xiàn)代科技所帶來(lái)的問(wèn)題時(shí),就需要進(jìn)行一定的擴(kuò)張,將ChatGPT 等人工智能在應(yīng)用時(shí)所可能涉及的問(wèn)題納入隱私權(quán)的范圍。
第二,對(duì)用戶的權(quán)利進(jìn)行明確。用戶對(duì)自己所輸入的信息享有處分權(quán),ChatGPT 在處理收集的信息時(shí),應(yīng)當(dāng)?shù)玫接脩舻耐?,用戶?yīng)當(dāng)享有拒絕公開(kāi)自己所輸入的信息的權(quán)利,如果未經(jīng)同意,ChatGPT 將個(gè)人信息公開(kāi),則構(gòu)成對(duì)隱私權(quán)的侵犯。
第三,對(duì)行業(yè)加強(qiáng)監(jiān)管。ChatGPT 等人工智能系統(tǒng)還屬于新興事物,需要較強(qiáng)的專業(yè)知識(shí),因此,有必要通過(guò)專門的監(jiān)管機(jī)構(gòu)對(duì)其監(jiān)督,督促監(jiān)管范圍內(nèi)的企業(yè)按照法律規(guī)定和行業(yè)規(guī)范生產(chǎn)經(jīng)營(yíng),在違反相關(guān)規(guī)范時(shí)進(jìn)行追責(zé)。
為了防止不法分子趁虛而入,利用ChatGPT進(jìn)行網(wǎng)絡(luò)犯罪活動(dòng),企業(yè)應(yīng)當(dāng)根據(jù)相關(guān)法律對(duì)于隱私權(quán)保護(hù)的規(guī)定,制定嚴(yán)格的行業(yè)規(guī)范,同時(shí),法律也要進(jìn)一步強(qiáng)化企業(yè)的責(zé)任。由于ChatGPT是開(kāi)發(fā)者通過(guò)算法模型的訓(xùn)練與控制運(yùn)行的,對(duì)于開(kāi)發(fā)者而言,第一,需要從源頭上對(duì)數(shù)據(jù)的來(lái)源可靠性進(jìn)行篩查,過(guò)濾掉違法犯罪的信息;第二,在向用戶提供信息時(shí),應(yīng)當(dāng)明確告知信息的來(lái)源,以便用戶查明真?zhèn)危坏谌?,在用戶接收到可能存在詐騙、傳銷等違法犯罪信息時(shí),平臺(tái)應(yīng)當(dāng)攔截并給予用戶一定的提示,防止用戶在使用過(guò)程中上當(dāng)受騙。
現(xiàn)階段ChatGPT 雖然已經(jīng)更新到4.0 版本,但依然還是處于弱人工智能向強(qiáng)人工智能的進(jìn)化過(guò)程,并不具備獨(dú)立思考的自主意識(shí),這就極易被不法分子進(jìn)行訓(xùn)練,利用其無(wú)自主意識(shí)的弊端實(shí)施犯罪,為防止此類事件的發(fā)生,筆者認(rèn)為可以通過(guò)事前和事后兩種方式進(jìn)行干預(yù)。事前是指人工智能行業(yè)在算法訓(xùn)練時(shí)應(yīng)加強(qiáng)對(duì)于ChatGPT等的系統(tǒng)倫理道德類的訓(xùn)練,使其能夠精準(zhǔn)判斷信息;對(duì)國(guó)家而言,則要嚴(yán)格行業(yè)準(zhǔn)入制度,在ChatGPT 等類似系統(tǒng)上線前,應(yīng)進(jìn)行嚴(yán)格審查,可以與國(guó)家反詐系統(tǒng)相對(duì)接,避免犯罪發(fā)生。事后則是需要明確相關(guān)責(zé)任人,對(duì)研發(fā)公司、開(kāi)發(fā)人員、網(wǎng)絡(luò)提供商、用戶等責(zé)任進(jìn)行明確,確保在發(fā)生侵權(quán)糾紛時(shí)有法可依。
人工智能的發(fā)展日新月異,特別是ChatGPT的興起引發(fā)大家的廣泛關(guān)注,但我們?cè)谙硎蹸hat-GPT 帶給我們便利的同時(shí),也面臨著對(duì)于知識(shí)產(chǎn)權(quán)問(wèn)題、隱私問(wèn)題、虛假信息以及網(wǎng)絡(luò)犯罪等方面的安全風(fēng)險(xiǎn)。為防止ChatGPT 相關(guān)的網(wǎng)絡(luò)亂象的發(fā)生,應(yīng)當(dāng)從法律層面進(jìn)行一定的規(guī)制,包括完善著作權(quán)和隱私權(quán)保護(hù)立法,強(qiáng)化行業(yè)責(zé)任,加強(qiáng)數(shù)據(jù)監(jiān)管等措施。