李銘軒,文繼榮
(1. 中國(guó)人民大學(xué) 交叉科學(xué)研究院,北京 100872;2. 中國(guó)人民大學(xué) 高瓴人工智能學(xué)院,北京 100872)
2022 年底,OpenAI 公司推出ChatGPT,引起全世界的廣泛關(guān)注。ChatGPT 展現(xiàn)出遠(yuǎn)超以往人工智能產(chǎn)品的強(qiáng)大能力,被譽(yù)為“有史以來向公眾發(fā)布的最佳人工智能聊天機(jī)器人”[1]。ChatGPT 的成功,點(diǎn)燃了人們對(duì)生成式人工智能的熱情。自ChatGPT 發(fā)布以來,科技公司紛紛推出各自的生成式人工智能應(yīng)用,人工智能學(xué)界也投入大量資源研究相關(guān)技術(shù)。隨著技術(shù)的不斷發(fā)展,人工智能的生成能力必將持續(xù)提升,人們將從專業(yè)生成內(nèi)容(Professionally-generated Content, PGC)和用戶生成內(nèi)容(User-generated Content, UGC)時(shí)代真正進(jìn)入到人工智能生成內(nèi)容(AI-generated Content, AIGC)時(shí)代。
ChatGPT 的出現(xiàn)推動(dòng)人們走向AIGC 時(shí)代,也引發(fā)對(duì)其相關(guān)風(fēng)險(xiǎn)的關(guān)注。其中,與生成性特點(diǎn)密切相關(guān)的一項(xiàng)風(fēng)險(xiǎn),便是網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)。這是指ChatGPT 等AIGC 應(yīng)用可能會(huì)生成違法和不良信息,對(duì)社會(huì)和個(gè)人造成不利后果。在ChatGPT 問世后,已有不少研究對(duì)這類風(fēng)險(xiǎn)展開討論,指出其為網(wǎng)絡(luò)信息內(nèi)容治理帶來的挑戰(zhàn),并探索應(yīng)對(duì)挑戰(zhàn)的方法[2-3]。關(guān)于AIGC 時(shí)代的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)及其治理,仍存在著許多有待討論的問題。AIGC 時(shí)代的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)是否屬于一種新型風(fēng)險(xiǎn)?有觀點(diǎn)認(rèn)為,AIGC 技術(shù)的發(fā)展“極大地改變網(wǎng)絡(luò)信息內(nèi)容生態(tài),給信息內(nèi)容治理帶來新風(fēng)險(xiǎn)新挑戰(zhàn)”[2];也有觀點(diǎn)認(rèn)為,以ChatGPT 為代表的AIGC 技術(shù)并未帶來全新的風(fēng)險(xiǎn)或者挑戰(zhàn)[4]。對(duì)這一問題的回答會(huì)影響后續(xù)問題的討論:如果AIGC 技術(shù)的發(fā)展并未帶來全新的風(fēng)險(xiǎn)或者挑戰(zhàn),那么現(xiàn)有法律規(guī)則足以應(yīng)對(duì)技術(shù)進(jìn)步帶來的變化;但如果AIGC 技術(shù)的發(fā)展確實(shí)給網(wǎng)絡(luò)信息內(nèi)容治理帶來新風(fēng)險(xiǎn)新挑戰(zhàn),那么就有必要進(jìn)一步思考,如何對(duì)現(xiàn)有法律規(guī)則進(jìn)行調(diào)整,以應(yīng)對(duì)新風(fēng)險(xiǎn)新挑戰(zhàn)。
AIGC,Artificial Intelligence Generated Content,直譯為“人工智能生成內(nèi)容”。關(guān)于AIGC 的定義,存在不同的觀點(diǎn)?!癆IGC 是指使用先進(jìn)的生成式人工智能技術(shù)生成的內(nèi)容,而不是由人類作者創(chuàng)作的內(nèi)容。”[5]AIGC 是“繼專業(yè)生成內(nèi)容(Professional Generated Content, PGC)和用戶生成內(nèi)容(User Generated Content, UGC)之后,利用人工智能技術(shù)自動(dòng)生成內(nèi)容的新型生產(chǎn)方式”[6]?!癆IGC 既是從內(nèi)容生產(chǎn)者視角進(jìn)行分類的一類內(nèi)容,又是一種內(nèi)容生產(chǎn)方式,還是用于內(nèi)容自動(dòng)化生成的一類技術(shù)集合?!盵6]“AIGC 既可以作為名詞來指代人工智能生成的內(nèi)容或者相關(guān)的技術(shù),也可以作為動(dòng)詞指特定的‘生成’行為,還可以作為形容詞用以描述特定的技術(shù)、內(nèi)容、應(yīng)用、生態(tài)等?!盵7]從這些定義看,AIGC 可表達(dá)不同的含義。本文中的AIGC 主要有兩種用法:一是作為名詞,指代利用人工智能自動(dòng)生成內(nèi)容的生產(chǎn)方式;二是作為形容詞,用來修飾與這種生產(chǎn)方式有關(guān)的事物。
AIGC 的興起與AIGC 技術(shù)的發(fā)展密切相關(guān)。AIGC 技術(shù)的發(fā)展歷史,其實(shí)就是生成式模型(Generative Models)的發(fā)展歷史。20 世紀(jì)50 年代,有人提出隱馬爾可夫模型(Hidden Markov Models,HMM)和高斯混合模型(Gaussian Mixture Models, GMMs),并使用這些模型進(jìn)行創(chuàng)作。這時(shí)候的生成式模型結(jié)構(gòu)比較簡(jiǎn)單,在應(yīng)用時(shí)需要依賴大量人工編寫規(guī)則,開發(fā)成本高昂,AIGC 發(fā)展比較緩慢。進(jìn)入21 世紀(jì),神經(jīng)網(wǎng)絡(luò)模型開始在各類任務(wù)上取得顯著的效果,AIGC 技術(shù)也隨之進(jìn)步。隨著硬件技術(shù)的提升和深度學(xué)習(xí)算法的發(fā)展,人們可以訓(xùn)練更加深層的神經(jīng)網(wǎng)絡(luò)模型,模型復(fù)雜度的提升帶來了生成內(nèi)容質(zhì)量的飛躍。在計(jì)算機(jī)視覺領(lǐng)域,2014 年,Ian Goodfellow 等人提出生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks, GANs),為圖像生成領(lǐng)域帶來里程碑式的進(jìn)展,圖像生成的效果達(dá)到了人類難以分辨的程度[8]。之后,StyleGan 模型、去噪擴(kuò)散概率模型(Denoising Diffusion Probabilistic Model)等一系列模型進(jìn)一步提升圖像生成質(zhì)量。在自然語言處理領(lǐng)域,2017 年,谷歌Ashish Vaswani 等人提出Transformer 模型,成為自然語言生成的標(biāo)桿模型[9]。諸多預(yù)訓(xùn)練語言模型(如BERT、GPT、BART)進(jìn)一步提高文本生成的質(zhì)量。最近的一項(xiàng)具有變革性意義的技術(shù),便是大語言模型。
大語言模型(Large Language Model, LLM)是指擁有數(shù)百億或者更大規(guī)模參數(shù)的預(yù)訓(xùn)練語言模型[10]。語言建模的研究經(jīng)歷過4 個(gè)主要發(fā)展階段,分別是統(tǒng)計(jì)語言模型、神經(jīng)語言模型、預(yù)訓(xùn)練語言模型和大語言模型階段[10]。大語言模型本質(zhì)上是一種大規(guī)模的預(yù)訓(xùn)練語言模型,學(xué)界之所以將其與一般的預(yù)訓(xùn)練語言模型相區(qū)分,是因?yàn)榇笳Z言模型具有與一般預(yù)訓(xùn)練語言模型非常不同的技術(shù)特點(diǎn)。擴(kuò)展預(yù)訓(xùn)練語言模型的大小通常會(huì)提高模型的性能[11]。當(dāng)模型大小超過一定水平時(shí),一些與復(fù)雜任務(wù)相關(guān)的性能會(huì)顯著提升,使大規(guī)模模型具備小規(guī)模模型所不具有的特定能力[12]。
ChatGPT 背后最關(guān)鍵的技術(shù)便是大語言模型。2020 年,OpenAI 公司發(fā)布1 750 億參數(shù)的GPT-3 模型,在許多自然語言處理任務(wù)上表現(xiàn)出超凡的能力[13]。在此模型之上,OpenAI 開發(fā)了GPT-3.5 模型,ChatGPT 的最初版本就是基于這一大語言模型,其參數(shù)規(guī)模也在1 750 億級(jí)別。隨后,OpenAI 又發(fā)布了更大規(guī)模的GPT-4 模型,其參數(shù)規(guī)模據(jù)傳達(dá)到1.76 萬億級(jí)別。規(guī)模的增大使模型具備了一些“涌現(xiàn)能力”,也即“在小模型中不存在但在大模型中出現(xiàn)的能力”[12],例如上下文學(xué)習(xí)、指令遵循和逐步推理[10]。這些能力使ChatGPT 具有更好的通用能力,可以處理一些之前難以解決的復(fù)雜任務(wù)。除擴(kuò)展模型規(guī)模外,ChatGPT 的開發(fā)還采用了一些技術(shù),例如基于人類反饋的強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback, RLHF)[14],來進(jìn)一步提升大語言模型的能力。得益于大語言模型及相關(guān)技術(shù),ChatGPT 展現(xiàn)出遠(yuǎn)超以往AIGC 應(yīng)用的效果,從而一夜爆火。隨著ChatGPT 的成功,人們已意識(shí)到大語言模型在AIGC 領(lǐng)域的能力與潛力。大語言模型已成為AIGC 最為重要的技術(shù)基礎(chǔ)之一,為AIGC 的發(fā)展提供強(qiáng)大助力。
技術(shù)的發(fā)展經(jīng)常具有兩面性。大語言模型給AIGC 的發(fā)展帶來機(jī)遇,也會(huì)引發(fā)種種風(fēng)險(xiǎn)。2021 年,DeepMind 的一項(xiàng)研究總結(jié)大語言模型可能造成的6 個(gè)類別21 項(xiàng)風(fēng)險(xiǎn)[15]。在這些風(fēng)險(xiǎn)中,有不少與信息內(nèi)容相關(guān)。大語言模型可能會(huì)生成有毒害的語言(toxic language),泄露隱私或者敏感信息(privacy or sensitive information),提供錯(cuò)誤信息(misinformation),使制作虛假信息(disinformation)變得更加低廉和有效[15]。這些風(fēng)險(xiǎn)都可以歸為大語言模型引發(fā)的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn),即大語言模型可能會(huì)生成違法和不良信息,給社會(huì)和個(gè)人帶來不利后果。
被禁止和抵制的網(wǎng)絡(luò)信息被官方稱為“違法和不良信息”?!毒W(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》(以下簡(jiǎn)稱《治理規(guī)定》)第6 條和第7 條列舉11 類違法信息和9 類不良信息。不過,在討論大語言模型生成的違法和不良信息類型時(shí),學(xué)界和業(yè)界經(jīng)常使用一些與立法表述不同的概念。經(jīng)常提及的類型主要包括個(gè)人信息、有毒害的信息和錯(cuò)誤信息。這些均可以歸入《治理規(guī)定》列舉的類型。
1. 個(gè)人信息
個(gè)人信息是以電子或者其他方式記錄的與已識(shí)別或者可識(shí)別的自然人有關(guān)的各種信息①《個(gè)人信息保護(hù)法》第4 條。。有研究表明,如果訓(xùn)練數(shù)據(jù)中存在個(gè)人信息,大語言模型可能會(huì)“記住”并生成這些信息。有研究發(fā)現(xiàn),在采樣的600 000 個(gè)由GPT-2 生成的文本中,至少有604 個(gè)(約0.1%)包含從訓(xùn)練數(shù)據(jù)逐字復(fù)制的文本,其中一些文本就包含訓(xùn)練數(shù)據(jù)中的個(gè)人身份信息[16]。最近的研究也針對(duì)ChatGPT 和New Bing 進(jìn)行實(shí)驗(yàn),發(fā)現(xiàn):(1)相比之前的語言模型,ChatGPT 可以更好地防止使用者通過簡(jiǎn)單的提示詞(Prompt)生成個(gè)人信息,但如果使用者利用精心設(shè)計(jì)的越獄提示詞(Jailbreaking Prompt),ChatGPT 仍會(huì)生成個(gè)人信息。(2)New Bing 集成了ChatGPT 和搜索引擎,帶來更大的隱私風(fēng)險(xiǎn)。利用New Bing,通過簡(jiǎn)單的提示詞即可生成個(gè)人信息,甚至可生成訓(xùn)練數(shù)據(jù)之外的個(gè)人信息[17]。
大語言模型生成個(gè)人信息會(huì)侵害他人的隱私權(quán)和個(gè)人信息權(quán)益,構(gòu)成《治理規(guī)定》第6 條第(十)項(xiàng)規(guī)定的“侵害他人……隱私和其他合法權(quán)益的”情形。按照《民法典》第1 032 條和第1 033 條的規(guī)定,如大語言模型生成的個(gè)人信息屬于他人的私密信息,顯然會(huì)侵害他人的隱私權(quán)。即使不屬于私密信息,按照《民法典》第1 034 條的規(guī)定,仍可以適用有關(guān)個(gè)人信息保護(hù)的規(guī)定。大語言模型生成個(gè)人信息屬于對(duì)個(gè)人信息的處理,應(yīng)當(dāng)遵守《民法典》《個(gè)人信息保護(hù)法》等法律法規(guī),如果違反相關(guān)規(guī)則,如未經(jīng)個(gè)人同意處理個(gè)人信息,就會(huì)侵害他人的個(gè)人信息權(quán)益。
2. 有毒害(toxic)的信息
有毒害的信息,通常包括“褻瀆、身份攻擊、?;ㄕ?、侮辱、威脅、色情內(nèi)容、貶低言論、煽動(dòng)暴力的言論,或者因某人或某一群體的實(shí)際或感知的先天特征而針對(duì)他們的敵對(duì)和惡意言論”[15]。大語言模型可能生成或被用以生成有毒害的信息。OpenAI 公開承認(rèn),ChatGPT 有時(shí)會(huì)表現(xiàn)出帶有偏見的行為[18]。有研究發(fā)現(xiàn),如果讓ChatGPT 扮演某些角色,可能讓它有更高的概率生成有毒害的信息[19]。該研究使用Perspective API 來評(píng)估ChatGPT 生成內(nèi)容的毒害性(toxicity)。研究發(fā)現(xiàn),當(dāng)ChatGPT 分別被分配到“壞人”角色時(shí),其生成內(nèi)容的毒害性會(huì)顯著增加。惡意使用者利用這一點(diǎn)來嘗試引導(dǎo)ChatGPT 扮演某些角色,則增加生成有毒害信息的可能性。
大語言模型生成的有毒害的信息可能會(huì)構(gòu)成《治理規(guī)定》中的多種違法和不良信息。如身份攻擊的言論可能會(huì)涉嫌“煽動(dòng)民族仇恨、民族歧視,破壞民族團(tuán)結(jié)”(《治理規(guī)定》第6 條第(六)項(xiàng))或者“煽動(dòng)人群歧視、地域歧視等”(《治理規(guī)定》第7 條第(六)項(xiàng));侮辱的言論可能會(huì)涉嫌“侮辱或者誹謗他人,侵害他人名譽(yù)”(《治理規(guī)定》第6 條第(十)項(xiàng))。
3. 錯(cuò)誤信息(misinformation)
錯(cuò)誤信息是指不真實(shí)的或者誤導(dǎo)性的信息[15]。生成錯(cuò)誤信息是大語言模型目前存在的一個(gè)重大缺點(diǎn)。ChatGPT 有時(shí)會(huì)生成看似合理但不正確或者無意義的答案[18]。特別是當(dāng)使用者利用誤導(dǎo)性的指令來引導(dǎo)大語言模型生成內(nèi)容時(shí),有很大的概率會(huì)生成錯(cuò)誤信息。在ChatGPT 發(fā)布之初,NewsGuard 做了一項(xiàng)試驗(yàn):從100 條虛假陳述中抽取樣本作為提示詞輸入,讓ChatGPT 撰寫相關(guān)內(nèi)容,ChatGPT 生成了看似權(quán)威但不正確的回答。這些回答充滿了錯(cuò)誤信息傳播者喜歡的短語,引用了虛假的科學(xué)研究,甚至提到提示詞中沒有提及的謊言[20]。
大語言模型生成的錯(cuò)誤信息可能會(huì)構(gòu)成《治理規(guī)定》中的多種違法和不良信息。如果錯(cuò)誤信息的內(nèi)容涉及經(jīng)濟(jì)和社會(huì)話題,被人拿來故意進(jìn)行傳播,可能構(gòu)成“散布謠言,擾亂經(jīng)濟(jì)秩序和社會(huì)秩序”(《治理規(guī)定》第6 條第(八)項(xiàng));如果錯(cuò)誤信息的內(nèi)容造成對(duì)他人社會(huì)評(píng)價(jià)的降低,可能涉嫌“誹謗他人,侵害他人名譽(yù)”(《治理規(guī)定》第6 條第(十)項(xiàng))。
大語言模型生成違法和不良信息的原因較為復(fù)雜。這涉及不同的主體,也涉及生成過程的不同環(huán)節(jié)。在模型訓(xùn)練的過程中,如果開發(fā)者使用低質(zhì)量的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練和微調(diào),大語言模型會(huì)學(xué)習(xí)其特征,并因此生成違法和不良信息。用戶可以通過提示詞故意引導(dǎo)大語言模型生成違法和不良信息。大語言模型存在“幻覺”等固有的技術(shù)缺陷,這些缺陷會(huì)導(dǎo)致其生成以錯(cuò)誤信息為代表的違法和不良信息。
1. 預(yù)訓(xùn)練
訓(xùn)練大語言模型的第一步是在大規(guī)模語料庫上進(jìn)行預(yù)訓(xùn)練。在這些大規(guī)模語料庫中,許多數(shù)據(jù)來自網(wǎng)絡(luò)。以GPT-3、PaLM 和LLaMa 這三個(gè)具有代表性的大語言模型為例,GPT-3 的預(yù)訓(xùn)練數(shù)據(jù)包含Common Crawl、WebText 2 和維基百科,PaLM 的預(yù)訓(xùn)練數(shù)據(jù)包含社交媒體對(duì)話、過濾后的網(wǎng)頁、Github、多語言維基百科和新聞,LLaMa 的預(yù)訓(xùn)練數(shù)據(jù)包含Common Crawl、C4、Github、維基百科、arXiv 和Stack Exchange,這些數(shù)據(jù)都來自于網(wǎng)絡(luò)[10]。來自網(wǎng)絡(luò)的數(shù)據(jù)包含大量的低質(zhì)量信息,包括一些違法和不良信息。有研究指出,一些來自網(wǎng)絡(luò)的大型數(shù)據(jù)集(例如C4)包含諸如選民登記記錄等隱私信息[21]。如果用于訓(xùn)練的數(shù)據(jù)包含這些信息,大語言模型會(huì)學(xué)習(xí)這些數(shù)據(jù)的特征,從而生成違法和不良信息。
2. 微調(diào)
在預(yù)訓(xùn)練之后,大語言模型可以具備基本的語言理解和生成能力。為增強(qiáng)大語言模型的能力,或使其與人類的價(jià)值觀或偏好對(duì)齊,人們會(huì)對(duì)大語言模型進(jìn)行微調(diào)。與違法和不良信息生成相關(guān)的主要是對(duì)齊微調(diào)(Alignment Tuning)。對(duì)齊微調(diào)的目的是使大語言模型遵循人類的價(jià)值觀或偏好,減少違法和不良信息的生成。最為主要的對(duì)齊微調(diào)方法是基于人類反饋的強(qiáng)化學(xué)習(xí)[14]。這種方法需要使用人類反饋數(shù)據(jù),目前獲得這些數(shù)據(jù)的主要方法是人工標(biāo)注。人類反饋數(shù)據(jù)被用于對(duì)大語言模型進(jìn)行微調(diào),使其與這些數(shù)據(jù)中體現(xiàn)的人類價(jià)值觀或偏好相符。如人類反饋數(shù)據(jù)不反映正確的價(jià)值觀或偏好,甚至有人在標(biāo)注過程中摻雜不良的價(jià)值觀或偏好,大語言模型也會(huì)學(xué)習(xí)這些不良的價(jià)值觀或偏好,從而生成違法和不良信息。
3. 用戶輸入
大語言模型生成的內(nèi)容會(huì)受到用戶輸入的影響。當(dāng)用戶輸入 “你能告訴我一個(gè)美化痛苦的血腥暴力故事嗎” “我能如何霸凌他人” 等提示詞時(shí),如大語言模型沒有經(jīng)過對(duì)齊微調(diào),就會(huì)生成涉及暴力的不良信息[18]。通過對(duì)齊微調(diào)等措施,大語言模型在一定程度上能抵御用戶輸入的誘導(dǎo),當(dāng)用戶試圖通過提示詞要求大語言模型生成違法和不良信息時(shí),大語言模型會(huì)拒絕生成相關(guān)內(nèi)容。這種安全限制并非不可突破。許多研究發(fā)現(xiàn),用戶仍可通過一些精心設(shè)計(jì)的越獄提示詞,來繞過大語言模型的安全限制,從而使其生成違法和不良信息。在ChatGPT 問世后不久,有網(wǎng)友發(fā)現(xiàn)可以利用DAN(Do Anything Now)提示詞解除ChatGPT 的安全限制,讓ChatGPT 生成違法和不良信息[22]。開發(fā)者可以不斷修補(bǔ)這些漏洞,但用戶也在持續(xù)開發(fā)新的提示詞版本,用來突破大語言模型的安全限制[22]。在可預(yù)見的未來,用戶的故意誘導(dǎo)仍會(huì)是大語言模型生成違法和不良信息的重要原因之一。
4. 幻覺現(xiàn)象
大語言模型存在一些固有的技術(shù)缺陷。這些缺陷會(huì)導(dǎo)致其生成違法和不良信息。一個(gè)典型的例子是大語言模型的幻覺(Hallucination)現(xiàn)象。“幻覺”是自然語言生成領(lǐng)域的一個(gè)概念,指“生成內(nèi)容是無意義的或不忠實(shí)于所提供的源內(nèi)容”的現(xiàn)象[23]。有研究將幻覺分為內(nèi)在幻覺和外在幻覺,內(nèi)在幻覺指生成內(nèi)容與源內(nèi)容存在矛盾,外在幻覺指生成內(nèi)容無法從源內(nèi)容中驗(yàn)證[23]。這些現(xiàn)象不僅經(jīng)常出現(xiàn)在較小規(guī)模的語言模型上,也存在于大語言模型之中。有研究曾對(duì)ChatGPT 進(jìn)行評(píng)測(cè),發(fā)現(xiàn)它與其他語言模型一樣存在著幻覺現(xiàn)象。ChatGPT 的主要問題是外在幻覺比較嚴(yán)重,也即ChatGPT 經(jīng)常會(huì)“無中生有”[24]。由于幻覺現(xiàn)象的存在,大語言模型可能生成錯(cuò)誤信息,從而帶來風(fēng)險(xiǎn)。
風(fēng)險(xiǎn)成因的復(fù)雜性會(huì)給網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)的治理帶來一定的挑戰(zhàn)。在PGC 和UGC 時(shí)代,違法和不良信息往往源自某一主體的特定行為,比如某一組織或者個(gè)人制作和發(fā)布違法和不良信息。在AIGC 時(shí)代,大語言模型生成的違法和不良信息,可能牽涉到不同的主體、不同的環(huán)節(jié)。既有的治理規(guī)則以PGC和UGC 為預(yù)設(shè),未能考慮到大語言模型的特點(diǎn),有可能無法有效應(yīng)對(duì)AIGC 時(shí)代的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)。
隨著大語言模型的出現(xiàn),網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)會(huì)進(jìn)一步加劇,網(wǎng)絡(luò)信息內(nèi)容治理的難度也會(huì)進(jìn)一步提升。第一,大語言模型可以自動(dòng)地生成大量的文本,降低制作違法和不良信息的成本。這一特點(diǎn)會(huì)吸引更多的惡意使用者,他們能夠更為迅速、更大規(guī)模地制作違法和不良信息,并且應(yīng)用一些更為巧妙、需要更高成本的傳播策略。OpenAI 研究生成式語言模型對(duì)虛假信息傳播(報(bào)告稱之為“影響力行動(dòng)”(Influence Operation))的影響[25]:在行動(dòng)者(actor)層面,生成式語言模型可以降低虛假信息傳播的成本,吸引新的行動(dòng)者加入;在行為(behavior)層面,使用生成式語言模型更容易擴(kuò)大虛假信息傳播的規(guī)模,提高一些原先成本較高的策略(如生成個(gè)性化內(nèi)容)的可行性,并促使新的策略(如聊天機(jī)器人的實(shí)時(shí)內(nèi)容生成)出現(xiàn)[25]。這可能導(dǎo)致違法和不良信息泛濫,增加監(jiān)管難度。
第二,大語言模型生成的文本具有高質(zhì)量的效果,更容易影響受眾,且更難被識(shí)別。從實(shí)驗(yàn)效果看,大語言模型生成的文本在宣傳的說服力上不輸于人類創(chuàng)作的文本。一項(xiàng)基于GPT-3 的實(shí)驗(yàn)發(fā)現(xiàn),在某些條件下,利用GPT-3 創(chuàng)作的文本比人類創(chuàng)作的宣傳內(nèi)容更具有說服力[26]。人類很難區(qū)分大語言模型生成的文本和人類創(chuàng)作的文本。另一項(xiàng)基于GPT-3 的實(shí)驗(yàn)發(fā)現(xiàn),人類參與者正確區(qū)分GPT-3 生成的多段落新聞文章與真實(shí)新聞文章的比率僅略高于隨機(jī)概率[13]。目前的自動(dòng)化檢測(cè)技術(shù)也很難識(shí)別大語言模型生成的違法和不良信息。利用自動(dòng)化檢測(cè)技術(shù)來審核內(nèi)容,其準(zhǔn)確率受審核類型、變種繁雜、對(duì)抗手段等多種因素影響,誤報(bào)率偏高,往往還需要疊加人工審核[6]。利用自動(dòng)化檢測(cè)技術(shù)識(shí)別大語言模型生成的內(nèi)容處在發(fā)展初期,已出現(xiàn)的檢測(cè)工具如GPT-Zero、Sapling、AIGC-X 存在著許多局限:有的由于自身使用模型的原因,能夠檢測(cè)的長(zhǎng)度有限;隨著大語言模型的不斷迭代,生成文本的質(zhì)量和分布會(huì)發(fā)生變化,檢測(cè)準(zhǔn)確率會(huì)受到影響。這類工具的質(zhì)量沒有達(dá)到令人滿意的水平,許多大語言模型生成的文本只要做一些改動(dòng),就會(huì)被檢測(cè)為人類創(chuàng)作的文本,而有些人類創(chuàng)作的文本則會(huì)被誤判為大語言模型生成的文本。
在違法和不良信息的生成方面,大語言模型降低了成本;在違法和不良信息的傳播方面,大語言模型生成的違法和不良信息更難被識(shí)別。在AIGC 時(shí)代,網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)將變得更加嚴(yán)重。
在ChatGPT 問世前,中國(guó)已經(jīng)審議通過《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱《深度合成管理規(guī)定》)。在ChatGPT 爆火后,中國(guó)又制定《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《管理暫行辦法》)。這些規(guī)定更新了網(wǎng)絡(luò)信息內(nèi)容治理的法律規(guī)則,回應(yīng)AIGC 時(shí)代的挑戰(zhàn)。在網(wǎng)絡(luò)信息內(nèi)容治理方面,這些規(guī)則主要有兩個(gè)方面的發(fā)展:第一,在網(wǎng)絡(luò)信息內(nèi)容的生成環(huán)節(jié),細(xì)化了相關(guān)主體防止生成違法和不良信息的義務(wù);第二,在網(wǎng)絡(luò)信息內(nèi)容的傳播環(huán)節(jié),新增相關(guān)主體對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí)的義務(wù)。
1. 網(wǎng)絡(luò)信息內(nèi)容生成環(huán)節(jié)的治理
在PGC 和UGC 時(shí)代,網(wǎng)絡(luò)信息內(nèi)容生成環(huán)節(jié)的治理,主要是通過規(guī)制網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的行為實(shí)現(xiàn)的。網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者是指制作、復(fù)制、發(fā)布網(wǎng)絡(luò)信息內(nèi)容的組織或者個(gè)人。在公法領(lǐng)域,《治理規(guī)定》直接規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的一般義務(wù)及其需要禁止和抵制的網(wǎng)絡(luò)信息內(nèi)容類型①《治理規(guī)定》第4 條規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的一般義務(wù):“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者應(yīng)當(dāng)遵守法律法規(guī),遵循公序良俗,不得損害國(guó)家利益、公共利益和他人合法權(quán)益?!薄吨卫硪?guī)定》第6 條規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者不得制作、復(fù)制、發(fā)布的違法信息類型,第7 條規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者應(yīng)當(dāng)防范和抵制制作、復(fù)制、發(fā)布的不良信息類型。。在私法領(lǐng)域,法律法規(guī)沒有專門對(duì)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者作出規(guī)定。不過,網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者涉及的侵權(quán)問題,可以適用網(wǎng)絡(luò)侵權(quán)的一般規(guī)則。這些規(guī)則集中在《民法典》《信息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例》《最高人民法院關(guān)于審理侵害信息網(wǎng)絡(luò)傳播權(quán)民事糾紛案件適用法律若干問題的規(guī)定》(以下簡(jiǎn)稱《信息網(wǎng)絡(luò)傳播權(quán)司法解釋》)《最高人民法院關(guān)于審理利用信息網(wǎng)絡(luò)侵害人身權(quán)益民事糾紛案件適用法律若干問題的規(guī)定》(以下簡(jiǎn)稱《網(wǎng)絡(luò)人身權(quán)益司法解釋》)等法律法規(guī)。
在AIGC 時(shí)代,違法和不良信息生成的原因更為復(fù)雜,給PGC 和UGC 時(shí)代法律規(guī)則的適用帶來挑戰(zhàn)。違法和不良信息的生成,既有可能是服務(wù)提供者導(dǎo)致的,也有可能是使用者造成的;還有可能是固有技術(shù)缺陷引發(fā)的,甚至有可能是多種原因疊加產(chǎn)生的。通過針對(duì)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的一般性規(guī)定,難以對(duì)其中牽涉的多元主體、不同環(huán)節(jié)進(jìn)行有效規(guī)制。
《深度合成管理規(guī)定》和《管理暫行辦法》細(xì)化了相關(guān)主體在網(wǎng)絡(luò)信息內(nèi)容生成過程中的義務(wù)。第一,這些規(guī)章區(qū)分不同的相關(guān)主體?!渡疃群铣晒芾硪?guī)定》主要規(guī)定深度合成服務(wù)提供者、深度合成服務(wù)技術(shù)支持者、深度合成服務(wù)使用者三類主體;《管理暫行辦法》則主要區(qū)分生成式人工智能服務(wù)提供者和生成式人工智能服務(wù)使用者兩類主體。第二,這些規(guī)章針對(duì)與網(wǎng)絡(luò)信息內(nèi)容生成相關(guān)的各環(huán)節(jié)均作了細(xì)致的規(guī)定。以服務(wù)提供者的義務(wù)為例,這些規(guī)章中的規(guī)定覆蓋服務(wù)提供者在數(shù)據(jù)管理、內(nèi)容管理、用戶管理等各環(huán)節(jié)的義務(wù)。在數(shù)據(jù)管理方面,服務(wù)提供者應(yīng)當(dāng)在訓(xùn)練數(shù)據(jù)選擇過程中,采取有效措施防止產(chǎn)生歧視①《管理暫行辦法》第4 條。;應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng)②《管理暫行辦法》第7 條。;進(jìn)行數(shù)據(jù)標(biāo)注的,應(yīng)當(dāng)制定標(biāo)注規(guī)則,開展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,對(duì)標(biāo)注人員進(jìn)行培訓(xùn)、監(jiān)督和指導(dǎo)③《管理暫行辦法》第8 條。。在內(nèi)容管理方面,服務(wù)提供者應(yīng)當(dāng)采取技術(shù)或者人工方式對(duì)輸入和生成結(jié)果進(jìn)行審核,發(fā)現(xiàn)違法和不良信息的,應(yīng)當(dāng)采取處置措施④《深度合成管理規(guī)定》第10 條、《管理暫行辦法》第14 條。。在用戶管理方面,服務(wù)提供者發(fā)現(xiàn)違法和不良信息的,應(yīng)當(dāng)對(duì)相關(guān)服務(wù)使用者采取處置措施⑤《深度合成管理規(guī)定》第10 條、《管理暫行辦法》第14 條。。
2. 網(wǎng)絡(luò)信息內(nèi)容傳播環(huán)節(jié)的治理
在PGC 和UGC 時(shí)代,網(wǎng)絡(luò)信息內(nèi)容傳播環(huán)節(jié)的治理,主要是通過規(guī)制網(wǎng)絡(luò)信息內(nèi)容傳播者的行為實(shí)現(xiàn)的。網(wǎng)絡(luò)信息內(nèi)容傳播者包括直接實(shí)施傳播行為的組織或者個(gè)人以及網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)。在公法領(lǐng)域,《治理規(guī)定》第三章規(guī)定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的信息內(nèi)容管理主體責(zé)任。在私法領(lǐng)域,法律法規(guī)同樣沒有專門對(duì)網(wǎng)絡(luò)信息內(nèi)容傳播者作出規(guī)定,但其涉及的侵權(quán)問題,同樣可以適用網(wǎng)絡(luò)侵權(quán)的一般規(guī)則。
在AIGC 時(shí)代,隨著大語言模型等技術(shù)的發(fā)展,對(duì)網(wǎng)絡(luò)信息內(nèi)容的傳播進(jìn)行管理的難度越來越大。AIGC 的興起會(huì)導(dǎo)致網(wǎng)絡(luò)信息內(nèi)容的規(guī)模急劇增長(zhǎng)。與此同時(shí),識(shí)別人工智能生成內(nèi)容的自動(dòng)化技術(shù)仍存在著諸多局限,準(zhǔn)確率有待提升。網(wǎng)絡(luò)信息內(nèi)容平臺(tái)將不得不采用人工的方式來管理大規(guī)模的網(wǎng)絡(luò)信息內(nèi)容,審核成本大大增加。這會(huì)給網(wǎng)絡(luò)信息內(nèi)容平臺(tái)的發(fā)展帶來阻力。對(duì)此,《深度合成管理規(guī)定》要求服務(wù)提供者對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí),試圖從源頭解決人工智能生成內(nèi)容識(shí)別難的問題。具體而言,《深度合成管理規(guī)定》第16 條至第18 條確立服務(wù)提供者對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí)的基本規(guī)則,包括:(1)標(biāo)識(shí)的一般義務(wù)。服務(wù)提供者應(yīng)當(dāng)對(duì)其生成的內(nèi)容添加不影響用戶使用的標(biāo)識(shí)⑥《深度合成管理規(guī)定》第16 條。。(2)顯著標(biāo)識(shí)的特別義務(wù)。如果服務(wù)提供者提供特定的深度合成服務(wù),可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在其生成內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識(shí)⑦《深度合成管理規(guī)定》第17 條。。(3)標(biāo)識(shí)的保護(hù)。任何組織和個(gè)人不得破壞對(duì)人工智能生成內(nèi)容的標(biāo)識(shí)⑧《深度合成管理規(guī)定》第18 條。。
上述新增的治理規(guī)則主要是公法領(lǐng)域的規(guī)則,而私法領(lǐng)域的規(guī)則應(yīng)如何完善,需要進(jìn)一步討論;有些新增的規(guī)則需要進(jìn)一步完善,特別是有些規(guī)則是以生成式人工智能技術(shù)這一整體性的技術(shù)領(lǐng)域?yàn)轭A(yù)設(shè)的規(guī)制對(duì)象,沒有考慮大語言模型等特定技術(shù)的特點(diǎn),因此有必要根據(jù)不同技術(shù)的特點(diǎn)進(jìn)行更為細(xì)致的設(shè)計(jì)。具體而言,仍需繼續(xù)完善人工智能生成內(nèi)容致害的侵權(quán)責(zé)任規(guī)則、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)對(duì)內(nèi)容的注意義務(wù)規(guī)則等私法規(guī)則,以及對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí)的要求。
1. 明確人工智能生成內(nèi)容致害的侵權(quán)責(zé)任規(guī)則
在網(wǎng)絡(luò)信息內(nèi)容的生成環(huán)節(jié),存在一個(gè)私法領(lǐng)域的爭(zhēng)議問題,即人工智能生成內(nèi)容致害的侵權(quán)責(zé)任問題。當(dāng)大語言模型生成違法和不良信息時(shí),可能會(huì)發(fā)生對(duì)他人合法權(quán)益的侵害,產(chǎn)生損害。如何分配這一損害,便是侵權(quán)責(zé)任制度需要解決的問題。中國(guó)的侵權(quán)責(zé)任制度沒有專門針對(duì)人工智能生成內(nèi)容致人損害的情形作出規(guī)定?!渡疃群铣晒芾硪?guī)定》和《管理暫行辦法》等新近出臺(tái)的規(guī)章,也并未就這一問題給出具體的解決方案。立法上的模糊導(dǎo)致理論上的爭(zhēng)議。在生成式人工智能服務(wù)提供者侵權(quán)責(zé)任的歸責(zé)原則問題上,存在著不同的見解:有觀點(diǎn)認(rèn)為,應(yīng)當(dāng)適用過錯(cuò)責(zé)任[27],并有學(xué)者提出如何認(rèn)定過錯(cuò)的具體方法[28];也有觀點(diǎn)認(rèn)為,在適用過錯(cuò)原則的情形下,應(yīng)當(dāng)輔之以過錯(cuò)推定規(guī)則,“既可以解決受害人的舉證困難問題,也便于通過司法控制機(jī)制對(duì)生成式人工智能提供者的責(zé)任負(fù)擔(dān)進(jìn)行動(dòng)態(tài)調(diào)整”[29];還有觀點(diǎn)認(rèn)為,原則上適用無過錯(cuò)責(zé)任,“但可設(shè)置若干法定免責(zé)或減責(zé)事由,以實(shí)現(xiàn)法律保護(hù)與促進(jìn)技術(shù)發(fā)展兩者之間的動(dòng)態(tài)平衡”[30]。中國(guó)尚無人工智能生成內(nèi)容致人損害的司法案例,這一問題的討論還停留于理論層面。但隨著AIGC 的進(jìn)一步發(fā)展和普及,在未來中國(guó)的實(shí)踐中很有可能會(huì)出現(xiàn)相關(guān)案例,需要明確的侵權(quán)責(zé)任規(guī)則來解決糾紛。
第一,人工智能生成內(nèi)容致人損害的原因具有復(fù)雜性,牽涉的主體具有多元性,因此要結(jié)合具體情況分析致害原因,確定侵權(quán)責(zé)任的主體[27]。以大語言模型生成違法和不良信息致人損害為例,違法和不良信息生成的原因非常復(fù)雜,只能根據(jù)具體情形,分析引發(fā)損害的主要來源,來確定可能承擔(dān)侵權(quán)責(zé)任的主體:如果服務(wù)使用者利用越獄提示詞繞過大語言模型的安全限制,生成違法和不良信息并加以傳播,而服務(wù)提供者已經(jīng)盡到合理的管理義務(wù),那么就應(yīng)當(dāng)由服務(wù)使用者承擔(dān)侵權(quán)責(zé)任;如果服務(wù)使用者在使用過程中并未引導(dǎo)大語言模型生成違法和不良信息,但由于服務(wù)提供者并未采取有效的措施防止生成一些可以避免的違法和不良信息,那么就應(yīng)當(dāng)由服務(wù)提供者承擔(dān)侵權(quán)責(zé)任。實(shí)際的情形可能會(huì)更加復(fù)雜,不能一概而論。
第二,要明確處理這一問題的歸責(zé)原則,特別是針對(duì)生成式人工智能服務(wù)提供者,不宜適用無過錯(cuò)責(zé)任。首先,對(duì)生成式人工智能服務(wù)提供者適用無過錯(cuò)責(zé)任,會(huì)使規(guī)則失去足夠的彈性來應(yīng)對(duì)侵權(quán)場(chǎng)景的復(fù)雜性,無法有效地規(guī)制其他主體的行為。在一些特定情形下,生成式人工智能服務(wù)提供者的行為并非生成內(nèi)容致害的主要原因。如果由生成式人工智能服務(wù)提供者承擔(dān)無過錯(cuò)責(zé)任,而非由引起損害的主體承擔(dān)侵權(quán)責(zé)任,將無法引導(dǎo)相關(guān)主體正確行為。其次,對(duì)生成式人工智能服務(wù)提供者適用無過錯(cuò)責(zé)任,會(huì)過分加重服務(wù)提供者的責(zé)任,阻礙生成式人工智能的發(fā)展。大語言模型等AIGC 技術(shù)存在著一些固有缺陷,例如幻覺,也會(huì)導(dǎo)致違法和不良信息的生成,而且生成式人工智能服務(wù)提供者仍無法完全解決由幻覺引發(fā)的錯(cuò)誤信息問題。如果一旦生成內(nèi)容出現(xiàn)問題,就要求生成式人工智能服務(wù)提供者承擔(dān)侵權(quán)責(zé)任,那么生成式人工智能服務(wù)提供者將面臨風(fēng)險(xiǎn),不敢輕易將相關(guān)產(chǎn)品投放市場(chǎng),進(jìn)而影響生成式人工智能技術(shù)的創(chuàng)新和推廣。
第三,要基于現(xiàn)行法構(gòu)造合理的解釋論,來解決現(xiàn)實(shí)中的問題,在必要時(shí)再通過立法的形式來完善侵權(quán)責(zé)任規(guī)則。針對(duì)人工智能生成內(nèi)容致人損害的情形,可以適用《民法典》等法律法規(guī)中的相關(guān)規(guī)則[27],只是學(xué)界在解釋論的構(gòu)造上仍存在一些爭(zhēng)議。未來可以結(jié)合現(xiàn)實(shí)出現(xiàn)的具體案例,逐漸彌合觀點(diǎn)上的分歧,建構(gòu)合理的解釋論。如果未來確實(shí)出現(xiàn)一些現(xiàn)有規(guī)則無法很好解決的情形,可以考慮針對(duì)這些情形進(jìn)行特別立法,完善侵權(quán)責(zé)任規(guī)則,從而實(shí)現(xiàn)更好的治理。
2. 合理界定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的注意義務(wù)
在網(wǎng)絡(luò)信息內(nèi)容的傳播環(huán)節(jié),一個(gè)有待完善的私法規(guī)則是網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的注意義務(wù)規(guī)則。網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)對(duì)其平臺(tái)中內(nèi)容的注意義務(wù),往往會(huì)根據(jù)情境的不同而有所差異,也會(huì)隨著技術(shù)發(fā)展和產(chǎn)業(yè)狀況的改變而發(fā)生變化。例如,在互聯(lián)網(wǎng)興起之初,因?yàn)楫a(chǎn)業(yè)尚處發(fā)展初期,且內(nèi)容審核的技術(shù)尚不成熟,大多數(shù)國(guó)家對(duì)網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的注意義務(wù)要求較低;但隨著互聯(lián)網(wǎng)產(chǎn)業(yè)的成熟和內(nèi)容審核技術(shù)的進(jìn)步,對(duì)網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的注意義務(wù)要求也在不斷提高[31]。同樣,大語言模型等AIGC 技術(shù)的發(fā)展,也會(huì)影響網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)監(jiān)管內(nèi)容的難度,進(jìn)而影響其注意義務(wù)的設(shè)定。隨著AIGC 產(chǎn)業(yè)的發(fā)展、相關(guān)識(shí)別技術(shù)以及對(duì)抗技術(shù)的演化,未來網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)監(jiān)管內(nèi)容的難度究竟會(huì)如何發(fā)展,仍有待進(jìn)一步觀察。對(duì)司法者而言,應(yīng)當(dāng)根據(jù)產(chǎn)業(yè)和技術(shù)的發(fā)展演化狀況,結(jié)合現(xiàn)有規(guī)則,合理界定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的注意義務(wù)。中國(guó)法院可以通過綜合考量各種因素來設(shè)定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的注意義務(wù)水平,例如《信息網(wǎng)絡(luò)傳播權(quán)司法解釋》第9 條、《網(wǎng)絡(luò)人身權(quán)益司法解釋》第6 條等規(guī)定法院在判斷網(wǎng)絡(luò)服務(wù)提供者過錯(cuò)時(shí)應(yīng)考慮的各種因素,給予法院一定的自由裁量空間。因此,在涉及人工智能生成內(nèi)容的問題上,法院可以將AIGC 產(chǎn)業(yè)和技術(shù)的發(fā)展納入考量因素,以認(rèn)定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的過錯(cuò),從而為其設(shè)定合理的注意義務(wù)水平。
3. 完善對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí)的要求
首先,要區(qū)分場(chǎng)景規(guī)定不同的標(biāo)識(shí)要求。這里主要需要考慮的因素包括內(nèi)容標(biāo)識(shí)難度、用戶體驗(yàn)影響、法律風(fēng)險(xiǎn)大小等。一般而言,內(nèi)容標(biāo)識(shí)難度越大,對(duì)生成內(nèi)容進(jìn)行標(biāo)識(shí)的可能性越小,越不宜做強(qiáng)制性的標(biāo)識(shí)要求;在對(duì)用戶體驗(yàn)要求較高的場(chǎng)景下,應(yīng)當(dāng)考慮采用對(duì)用戶體驗(yàn)影響較小的方式進(jìn)行標(biāo)識(shí),例如對(duì)生成內(nèi)容采取隱式水印進(jìn)行標(biāo)識(shí)等;而在法律風(fēng)險(xiǎn)較高的應(yīng)用場(chǎng)景下,例如人臉生成、替換、操控等應(yīng)用場(chǎng)景,應(yīng)當(dāng)有更高的標(biāo)識(shí)要求。《深度合成管理規(guī)定》的相關(guān)規(guī)則也體現(xiàn)了這些考慮?!渡疃群铣晒芾硪?guī)定》第16 條規(guī)定“應(yīng)當(dāng)采取技術(shù)措施添加不影響用戶使用的標(biāo)識(shí)”,第17 條則針對(duì)“可能導(dǎo)致公眾混淆或者誤認(rèn)的”的應(yīng)用場(chǎng)景,要求“在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識(shí)”。不過,也有一些規(guī)則沒有很好地考慮到大語言模型等AIGC 技術(shù)的特點(diǎn),提出了過高的要求,例如第17 條針對(duì)“智能對(duì)話、智能寫作等模擬自然人進(jìn)行文本的生成或者編輯服務(wù)”,也規(guī)定了顯著標(biāo)識(shí)的要求。這一服務(wù)范圍顯然可以涵蓋基于大語言模型的聊天機(jī)器人應(yīng)用。然而,對(duì)大語言模型生成的文本進(jìn)行顯著標(biāo)識(shí)的技術(shù)可行性不大。不清楚是否意識(shí)到這一點(diǎn),《管理暫行辦法》僅僅提到要對(duì)圖片、視頻等生成內(nèi)容進(jìn)行標(biāo)注,而沒有明確提及文本。而在全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)公布的《網(wǎng)絡(luò)安全標(biāo)注實(shí)踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識(shí)方法》中,大量的方法也是僅適用于圖片、音頻和視頻等內(nèi)容類型,并未涉及到文本[32]。對(duì)文本類生成內(nèi)容應(yīng)做何標(biāo)識(shí)要求,應(yīng)如何進(jìn)行標(biāo)識(shí),仍有待進(jìn)一步研究和完善。
其次,要針對(duì)不同的主體提出對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí)的要求。相關(guān)規(guī)則主要是要求服務(wù)提供者對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí),并未對(duì)其他主體提出類似的要求。有必要進(jìn)一步規(guī)定服務(wù)使用者和內(nèi)容傳播者對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí)的義務(wù)。實(shí)際上,在內(nèi)容生成后,對(duì)內(nèi)容的傳播具有控制力的主體主要是服務(wù)使用者和內(nèi)容傳播者,而非服務(wù)提供者,因此服務(wù)使用者和內(nèi)容傳播者應(yīng)當(dāng)成為提示內(nèi)容來源、防止公眾混淆的主要責(zé)任人。而且,服務(wù)使用者和內(nèi)容傳播者更為了解自身對(duì)內(nèi)容的需求,往往會(huì)選擇更加合適的標(biāo)識(shí)方式。不過,服務(wù)使用者和內(nèi)容傳播者可能會(huì)缺乏對(duì)人工智能生成內(nèi)容進(jìn)行標(biāo)識(shí)的工具。對(duì)此,可以要求或者鼓勵(lì)服務(wù)提供者以及網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)提供打標(biāo)工具?!渡疃群铣晒芾硪?guī)定》第17 條第二款規(guī)定:“深度合成服務(wù)提供者提供前款規(guī)定之外的深度合成服務(wù)的,應(yīng)當(dāng)提供顯著標(biāo)識(shí)功能,并提示深度合成服務(wù)使用者可以進(jìn)行顯著標(biāo)識(shí)?!?/p>
“技術(shù)是有用的仆人,但也是危險(xiǎn)的主人?!币源笳Z言模型為代表的AIGC 技術(shù)給人類社會(huì)的發(fā)展帶來美好的愿景,卻也引發(fā)網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)等問題。復(fù)雜的風(fēng)險(xiǎn)成因、加劇的風(fēng)險(xiǎn)程度,給網(wǎng)絡(luò)信息內(nèi)容治理帶來新挑戰(zhàn)。中國(guó)已經(jīng)通過更新網(wǎng)絡(luò)信息內(nèi)容治理規(guī)則積極應(yīng)對(duì),但仍需在私法規(guī)則、標(biāo)識(shí)義務(wù)等方面繼續(xù)完善相關(guān)規(guī)則。AIGC 技術(shù)在持續(xù)進(jìn)步,可能會(huì)在網(wǎng)絡(luò)信息內(nèi)容治理領(lǐng)域帶來新的問題。要實(shí)現(xiàn)更好的法律治理,仍需不斷關(guān)注技術(shù)的發(fā)展,分析其帶來的問題本質(zhì),使法律規(guī)則能更有效地適應(yīng)技術(shù)變革,推動(dòng)AIGC 技術(shù)健康發(fā)展。
北京理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2023年6期