李彤
關(guān)鍵詞:區(qū)分規(guī)制 通用人工智能技術(shù) 技術(shù)應(yīng)用風(fēng)險(xiǎn) 適度容忍 提供者義務(wù) 階梯式義務(wù)設(shè)定
一、問(wèn)題的提出
被認(rèn)為是人工智能高階質(zhì)變形態(tài)的通用人工智能技術(shù)正展現(xiàn)出具象曙光。人們驚訝地發(fā)現(xiàn),ChatGPT-4不僅在自然語(yǔ)言的處理能力上無(wú)與倫比,同時(shí)具有整合多學(xué)科知識(shí)解決復(fù)雜問(wèn)題的實(shí)力,這正是通用人工智能技術(shù)應(yīng)用能力的初階呈現(xiàn)。通用人工智能技術(shù)依賴(lài)于大模型的良性運(yùn)轉(zhuǎn),具有一般場(chǎng)域的應(yīng)用能效、通用任務(wù)的處理能力和持續(xù)學(xué)習(xí)的更新能力。通用人工智能技術(shù)的迭代速度和強(qiáng)大能力已引發(fā)深切擔(dān)憂(yōu),作為其發(fā)展前哨的生成式人工智能技術(shù)對(duì)前線行業(yè)造成了明顯沖擊,引發(fā)一些反對(duì)呼聲。比如好萊塢編劇和演員行業(yè)已展開(kāi)了史上罕見(jiàn)的聯(lián)合罷工,他們希望自身的合法權(quán)益在人工智能時(shí)代能夠獲得基本保障。
2023年4月28日召開(kāi)的中共中央政治局會(huì)議強(qiáng)調(diào)需重視通用人工智能的發(fā)展并關(guān)注其應(yīng)用風(fēng)險(xiǎn)的防范。鑒于生成式人工智能技術(shù)是通用人工智能技術(shù)發(fā)展的初級(jí)階段,有效應(yīng)對(duì)技術(shù)風(fēng)險(xiǎn)的切入要點(diǎn)可從對(duì)前者的監(jiān)管策略中尋求可靠思路。2023年4月11日,國(guó)家網(wǎng)信辦發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱(chēng)《管理辦法》),主要通過(guò)設(shè)定生成式人工智能技術(shù)提供者(以下簡(jiǎn)稱(chēng)“提供者”)的義務(wù)來(lái)達(dá)到規(guī)范目標(biāo),但其中包含的義務(wù)標(biāo)準(zhǔn)總體較高。2023年7月13日,國(guó)家網(wǎng)信辦等七部門(mén)聯(lián)合公布《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱(chēng)《暫行辦法》)?!稌盒修k法》對(duì)《管理辦法》中的提供者義務(wù)進(jìn)行了部分修正,但仍有呈現(xiàn)過(guò)高標(biāo)準(zhǔn)或欠缺合理性的義務(wù)設(shè)定。一是要求提供者在訓(xùn)練環(huán)節(jié)承擔(dān)的數(shù)據(jù)審查義務(wù)過(guò)高。第7條規(guī)定,要求提供者增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性。這在數(shù)據(jù)確權(quán)和流通制度并不完善的狀態(tài)下存在實(shí)現(xiàn)障礙。二是要求提供者對(duì)網(wǎng)絡(luò)信息承擔(dān)過(guò)高義務(wù)。第9條規(guī)定,提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容的生產(chǎn)者責(zé)任,履行保障網(wǎng)絡(luò)信息安全義務(wù)。這實(shí)際上要求提供者對(duì)網(wǎng)絡(luò)信息安全承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任。三是提供者對(duì)違法內(nèi)容的處置義務(wù)和用戶(hù)違法使用行為的監(jiān)管義務(wù)不合理。第14條第1款規(guī)定,一旦提供者發(fā)現(xiàn)違法內(nèi)容不論輕重,不論是否出于技術(shù)原因,一律要整改和報(bào)告,可能讓提供者疲于應(yīng)付。第14條第2款規(guī)定,提供者發(fā)現(xiàn)用戶(hù)的違法活動(dòng),不僅要保存記錄,還要向主管部門(mén)報(bào)告。首先,用戶(hù)的違法行為可能不在提供者的服務(wù)平臺(tái)上發(fā)生,提供者保存記錄的難度較大。其次,如發(fā)現(xiàn)的違法內(nèi)容過(guò)多,需頻繁報(bào)告的要求會(huì)使提供者不堪重負(fù)。四是對(duì)提供者的主體范圍未從技術(shù)背景角度作明確限定。第22條第2款所界定的提供者是指利用生成式人工智能技術(shù)提供相關(guān)服務(wù)的組織、個(gè)人,這意味著可能完全不了解技術(shù)內(nèi)容的提供者會(huì)落入需要技術(shù)能力支持的義務(wù)主體范圍。
化解新技術(shù)的應(yīng)用風(fēng)險(xiǎn)固然重要,但上述義務(wù)的設(shè)定方式是否適配當(dāng)前所需是值得深入思考的問(wèn)題。提供者處于該技術(shù)的運(yùn)行前端,對(duì)其設(shè)定合理的義務(wù)框架將有助于該項(xiàng)技術(shù)在免受不當(dāng)裹挾的狀態(tài)下得到良性運(yùn)轉(zhuǎn)。是偏向安全還是更需效率,這是影響義務(wù)設(shè)定的價(jià)值傾向所在,需要謹(jǐn)慎作答。學(xué)界對(duì)人工智能的現(xiàn)有研究主要涉及:一是人工智能生成內(nèi)容的法律定位。學(xué)界對(duì)人工智能生成內(nèi)容能否落入法律保護(hù)的范圍存在一定爭(zhēng)議。比如對(duì)是否應(yīng)對(duì)生成內(nèi)容進(jìn)行著作權(quán)或?qū)@麢?quán)保護(hù)存在不同看法。二是人工智能與法律相關(guān)的普遍議題和理論架構(gòu)。三是人工智能對(duì)具體法律部門(mén)的挑戰(zhàn)及其應(yīng)對(duì)方案。學(xué)界普遍認(rèn)為人工智能對(duì)傳統(tǒng)法學(xué)理論和治理模式造成了明顯沖擊,需要結(jié)合技術(shù)特點(diǎn)進(jìn)行有效的理論探討和系統(tǒng)的方案回應(yīng)。上述研究成果對(duì)通用人工智能技術(shù)提供者義務(wù)這一具體問(wèn)題尚未作出回應(yīng)。為此,本文以區(qū)分規(guī)制為視角,在對(duì)提供者義務(wù)審視的基礎(chǔ)上,提出優(yōu)化路徑,以促進(jìn)理論的發(fā)展,亦對(duì)實(shí)踐有所裨益。
二、智能技術(shù)的飛躍迭代與提供者義務(wù)區(qū)分規(guī)制的基本前提
通過(guò)技術(shù)革新實(shí)現(xiàn)快速發(fā)展的人類(lèi)社會(huì)已進(jìn)入風(fēng)險(xiǎn)社會(huì)時(shí)代。鑒于人類(lèi)理性的有限性,對(duì)新技術(shù)的認(rèn)知存在天然局限,這使新興技術(shù)的開(kāi)發(fā)和應(yīng)用常常附隨風(fēng)險(xiǎn),而試圖化解上述風(fēng)險(xiǎn)的嘗試往往會(huì)面對(duì)“科林格里奇”困境。通過(guò)設(shè)定較重義務(wù)來(lái)降低風(fēng)險(xiǎn)固然可以達(dá)成實(shí)效,但也應(yīng)考慮到在技術(shù)發(fā)展的現(xiàn)實(shí)需要下,適度容忍合理風(fēng)險(xiǎn)的必要性。一方面,風(fēng)險(xiǎn)到損害中間橫亙著或然性,這意味著風(fēng)險(xiǎn)未必會(huì)產(chǎn)生損害。因此,在這個(gè)需要同時(shí)擁抱人工智能與人類(lèi)智慧的時(shí)代,兩者無(wú)法實(shí)質(zhì)共存的零和博弈思維應(yīng)得到徹底扭轉(zhuǎn)。但另一方面,人工智能應(yīng)用風(fēng)險(xiǎn)具有共生性、時(shí)代性和全球性,這也提示法律規(guī)制的方向不應(yīng)是先發(fā)展再治理,也不應(yīng)是強(qiáng)治理弱發(fā)展,而是應(yīng)選擇邊發(fā)展邊治理的折中路線。
(一)適度容忍通用人工智能技術(shù)應(yīng)用風(fēng)險(xiǎn)的現(xiàn)實(shí)理由
一是實(shí)現(xiàn)通用人工智能技術(shù)專(zhuān)利布局的迫切需要。專(zhuān)利技術(shù)自誕生以來(lái)就成為推動(dòng)社會(huì)快速變革的潤(rùn)滑劑,但獨(dú)占性的權(quán)利特征又讓其潤(rùn)滑功能的發(fā)揮帶著人為阻力。雖然算法模型一般不屬于可專(zhuān)利的客體,但算法模型與應(yīng)用的結(jié)合有可能會(huì)形成專(zhuān)利客體,如谷歌已獲得了一些關(guān)于深度學(xué)習(xí)的AI專(zhuān)利。這表明,為了防止形成跨國(guó)專(zhuān)利壁壘,我國(guó)在該領(lǐng)域的技術(shù)專(zhuān)利布局是存在現(xiàn)實(shí)需要的。專(zhuān)利布局以技術(shù)方案的迭代升級(jí)為前提,需要提供者盡可能展現(xiàn)聰明才智,而較寬松的制度環(huán)境能為這個(gè)殫精竭慮的過(guò)程不附加額外的束縛因素。
二是通過(guò)通用人工智能技術(shù)掌握國(guó)際話(huà)語(yǔ)權(quán)的現(xiàn)實(shí)需要。一方面,保障國(guó)內(nèi)通用人工智能技術(shù)快速發(fā)展是大勢(shì)所趨。當(dāng)今世界多個(gè)國(guó)家均擬定了人工智能的長(zhǎng)期發(fā)展戰(zhàn)略。2017年我國(guó)國(guó)務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃的通知》,計(jì)劃到2030年,國(guó)內(nèi)人工智能在理論、技術(shù)與應(yīng)用方面達(dá)到世界領(lǐng)先水平。另一方面,從保證國(guó)家安全,實(shí)現(xiàn)文化輸出,避免意識(shí)形態(tài)滲入的側(cè)面看,保障國(guó)內(nèi)相關(guān)技術(shù)的穩(wěn)定發(fā)展也是十分迫切的。當(dāng)前用戶(hù)增長(zhǎng)速度最快的通用人工智能技術(shù)前哨產(chǎn)品Chat-GPT是由美國(guó)人工智能公司OpenAI開(kāi)發(fā)的,其使用的中文語(yǔ)料庫(kù)內(nèi)容有限,對(duì)其過(guò)度依賴(lài)會(huì)導(dǎo)致不符合中國(guó)現(xiàn)實(shí)和價(jià)值觀的生成內(nèi)容大幅上升。因此,我國(guó)亟須積極發(fā)展通用人工智能技術(shù),以掌握該技術(shù)的國(guó)際話(huà)語(yǔ)權(quán)。顯然,這對(duì)國(guó)內(nèi)相關(guān)技術(shù)研發(fā)的主動(dòng)性和時(shí)效性提出了較高要求。
三是針對(duì)通用人工智能技術(shù)應(yīng)用風(fēng)險(xiǎn)謹(jǐn)慎評(píng)估的客觀需要。通用人工智能技術(shù)不再僅僅具有針對(duì)海量數(shù)據(jù)的被動(dòng)處理能力,還具有生成類(lèi)人應(yīng)對(duì)方案的能力。但總體來(lái)看,現(xiàn)階段的人工智能技術(shù)仍是工具性的,由此決定了其法律地位的非獨(dú)立性。而應(yīng)用風(fēng)險(xiǎn)存在擴(kuò)大解釋的可能性,需要進(jìn)行必要限定,應(yīng)避免《紅旗法案》的適用悲劇再次重演?!都t旗法案》是英國(guó)在1865年出臺(tái)的,該法規(guī)定,每輛上路的汽車(chē)必須有三位駕駛員,其中一位必須一直在車(chē)前50米搖動(dòng)紅旗作為危險(xiǎn)警示,車(chē)輛時(shí)速不得超過(guò)4英里。到1896年對(duì)車(chē)輛時(shí)速的限制才提高到14英里,1903年進(jìn)一步提高到20英里,并取消了紅旗警示規(guī)則。然而幾十年間的強(qiáng)力限制已使英國(guó)錯(cuò)失了行業(yè)發(fā)展的良機(jī)。這一歷史事例表明安全與效率始終相攜相伴,過(guò)于偏重一方所付出的代價(jià)既是不必要的又是昂貴的。
綜上可見(jiàn),為實(shí)現(xiàn)專(zhuān)利優(yōu)化,促進(jìn)科技創(chuàng)新,防止風(fēng)險(xiǎn)論擴(kuò)大化,以?xún)?chǔ)備維護(hù)國(guó)家利益的戰(zhàn)略資源,我國(guó)對(duì)通用人工智能技術(shù)的支持力度應(yīng)大于規(guī)制力度。理由是,雖然風(fēng)險(xiǎn)客觀存在,但過(guò)分地?fù)?dān)憂(yōu)和遏制,會(huì)使我國(guó)在通用人工智能技術(shù)的發(fā)展過(guò)程中受到不當(dāng)束縛,從而失去國(guó)際層面的領(lǐng)先優(yōu)勢(shì)。
(二)適度設(shè)定通用人工智能技術(shù)提供者義務(wù)的策略底線
不可否認(rèn), 通用人工智能在數(shù)據(jù)安全、信息保護(hù)、倫理價(jià)值維護(hù)等方面會(huì)存在一定濫用風(fēng)險(xiǎn)。2023年4月3日,斯坦福大學(xué)“以人為本”人工智能研究所(Stanford-HAI)發(fā)布《2023-年人工智能指數(shù)報(bào)告》,指出“諸如ChatGPT,7Stable-Diffusion,7Whisper,7和DALL-E72等這些模型已能適用于越來(lái)越廣泛的任務(wù)領(lǐng)域,包括文本處理分析、圖像生成和前所未有的,性能優(yōu)越的語(yǔ)言識(shí)別。這些系統(tǒng)在回答問(wèn)題,文本、圖像和代碼生成領(lǐng)域展現(xiàn)出在十年前無(wú)法想象的能力,在很多方面都超過(guò)了現(xiàn)有的技術(shù)標(biāo)準(zhǔn)。但這些系統(tǒng)容易產(chǎn)生幻覺(jué),經(jīng)常存在偏見(jiàn),可能被用于邪惡目的,從而伴隨著技術(shù)發(fā)展帶來(lái)了復(fù)雜的道德挑戰(zhàn)”。因此,對(duì)具有廣泛應(yīng)用場(chǎng)景和卓越處理能力的通用人工智能進(jìn)行必要法律規(guī)制已形成廣泛共識(shí),但規(guī)制時(shí)需要考量底線,把好規(guī)則設(shè)定的方向關(guān)。
一是面向通用人工智能技術(shù)的國(guó)際規(guī)制底線。歐盟已完成人工智能法草案,試圖對(duì)人工智能的技術(shù)風(fēng)險(xiǎn)進(jìn)行有效規(guī)制,但其出臺(tái)過(guò)程并不順暢。這體現(xiàn)了妥善壓制風(fēng)險(xiǎn)和促進(jìn)技術(shù)革新雙重目標(biāo)下的規(guī)制困境。因此,在通用人工智能技術(shù)的國(guó)內(nèi)規(guī)制進(jìn)路上,應(yīng)充分考慮國(guó)際視域中的規(guī)制底線,依據(jù)國(guó)際慣例,力求從合規(guī)利用的角度化解應(yīng)用風(fēng)險(xiǎn)。
二是判斷通用人工智能技術(shù)的運(yùn)行底線。通用人工智能技術(shù)的效能發(fā)揮需要依賴(lài)一定的先決條件。該技術(shù)是基于數(shù)據(jù)的智能,在進(jìn)入應(yīng)用環(huán)節(jié)之前需要接受足夠的數(shù)據(jù)投喂和充分的數(shù)據(jù)訓(xùn)練才能實(shí)現(xiàn)良性運(yùn)轉(zhuǎn),如片面追求數(shù)據(jù)的絕對(duì)安全與完全授權(quán),那么在技術(shù)應(yīng)用的前端就會(huì)構(gòu)成“卡脖子”的狀態(tài)。也就是說(shuō),對(duì)提供者在上述環(huán)節(jié)中的義務(wù)設(shè)定不能導(dǎo)致技術(shù)運(yùn)行所需的必備數(shù)據(jù)要素被不當(dāng)剝離,故相關(guān)義務(wù)內(nèi)容規(guī)則應(yīng)結(jié)合數(shù)據(jù)審查的實(shí)際情況而設(shè)計(jì)。
三是衡量通用人工智能技術(shù)的邏輯底線。通用人工智能技術(shù)所對(duì)應(yīng)的較強(qiáng)智能狀態(tài)的形成邏輯與人類(lèi)智慧的生成過(guò)程截然不同。后者一般遵循從特殊到一般的體驗(yàn)式過(guò)程,通過(guò)家庭、學(xué)校、社會(huì)的長(zhǎng)期教育沁潤(rùn)和主動(dòng)思考學(xué)習(xí),逐步形成多樣的知識(shí)體系,對(duì)日常問(wèn)題可以作出相應(yīng)的知識(shí)應(yīng)對(duì)和與之匹配的價(jià)值判斷。而前者服從于貝葉斯定理,即先對(duì)應(yīng)答內(nèi)容進(jìn)行概率性的判定,而后通過(guò)模型運(yùn)轉(zhuǎn)再驗(yàn)證回答的可靠性。貝葉斯定理中對(duì)先驗(yàn)概率的處理存在明顯不足。同時(shí),技術(shù)生成過(guò)程中的文化屬性較弱,進(jìn)而會(huì)直接影響價(jià)值判斷能力。這是技術(shù)自身存在的天然缺陷,畢竟現(xiàn)階段通過(guò)對(duì)人腦運(yùn)行樣態(tài)的真實(shí)觀察與完美復(fù)制來(lái)促成類(lèi)人智能尚有諸多技術(shù)難題。由此,可考慮從彌補(bǔ)技術(shù)缺陷的可行性角度出發(fā),合理設(shè)定優(yōu)化技術(shù)過(guò)程中的主體義務(wù)。
三、精準(zhǔn)賦能風(fēng)險(xiǎn)管控與提供者義務(wù)區(qū)分規(guī)制的正當(dāng)邏輯
對(duì)提供者義務(wù)進(jìn)行粗放型的一體化設(shè)定,會(huì)忽略提供者與其他主體在應(yīng)用風(fēng)險(xiǎn)治理上的互動(dòng)關(guān)系,也讓提供者的有限力量分散在疲于應(yīng)付當(dāng)前難以完成的事務(wù)上。與之對(duì)應(yīng)的區(qū)分規(guī)制是將提供者從可以被解除規(guī)制的場(chǎng)域中解放出來(lái), 通過(guò)共治鏈條和集中革新來(lái)達(dá)成化解應(yīng)用風(fēng)險(xiǎn)的目標(biāo),同時(shí)不會(huì)對(duì)行業(yè)發(fā)展造成阻礙。
(一)共治型精準(zhǔn)管控驅(qū)動(dòng)提供者義務(wù)的重整
化解技術(shù)應(yīng)用風(fēng)險(xiǎn)并非片面加強(qiáng)提供者的單方義務(wù)即可達(dá)成,區(qū)分規(guī)制視角下的義務(wù)設(shè)定是擴(kuò)展共治主體,降低管控成本和突出治理重點(diǎn)的必然要求。
一是風(fēng)險(xiǎn)共治渠道的社會(huì)化建構(gòu)。鑒于該技術(shù)應(yīng)用效果的社會(huì)價(jià)值,提供者不應(yīng)在化解應(yīng)用風(fēng)險(xiǎn)和技術(shù)弊端上孤軍奮戰(zhàn)。通用人工智能的綜合治理應(yīng)貫徹系統(tǒng)化思維,需要技術(shù)應(yīng)用鏈條上的多主體實(shí)現(xiàn)通力配合。提供者義務(wù)的區(qū)分規(guī)制意味著該技術(shù)的部分治理責(zé)任應(yīng)由政府、平臺(tái)、用戶(hù)等其他主體承擔(dān)。
二是風(fēng)險(xiǎn)管控策略的效率化應(yīng)用。風(fēng)險(xiǎn)控制效率的提升仰賴(lài)于發(fā)現(xiàn)風(fēng)險(xiǎn)速度較快及有效應(yīng)對(duì)方案的快速生成,而提供者義務(wù)的一體化設(shè)置不能匹配效率化的要求。其一,在生成內(nèi)容侵權(quán)信息的發(fā)現(xiàn)上,提供者并不在技術(shù)應(yīng)用的用戶(hù)端,無(wú)法及時(shí)發(fā)現(xiàn)違法信息,其主動(dòng)審查義務(wù)的設(shè)定不符合效率性的要求。其二,在該技術(shù)相關(guān)算法模型安全性評(píng)估的問(wèn)題上,鑒于提供者較多關(guān)注應(yīng)用獲利立場(chǎng)的局限性,有效方案的應(yīng)對(duì)立場(chǎng)存在問(wèn)題,外部專(zhuān)業(yè)力量的引入是提升效率的重要方法。其三,通用人工智能應(yīng)用可能引發(fā)的風(fēng)險(xiǎn)損害類(lèi)別是多樣的,應(yīng)從風(fēng)險(xiǎn)產(chǎn)生的原因是否可歸責(zé)于提供者入手來(lái)對(duì)應(yīng)差異化的義務(wù)設(shè)定。
三是風(fēng)險(xiǎn)規(guī)避行為的精確化規(guī)制。提供者在技術(shù)開(kāi)發(fā)和應(yīng)用環(huán)節(jié)面臨差異化的管控需求和風(fēng)險(xiǎn)后果,行為控制的具體內(nèi)容也應(yīng)對(duì)照區(qū)分。比如開(kāi)發(fā)時(shí)數(shù)據(jù)審查義務(wù)的要點(diǎn)應(yīng)服務(wù)于保障數(shù)據(jù)安全,避免顯著違法虛假數(shù)據(jù)進(jìn)入訓(xùn)練環(huán)節(jié)的規(guī)制目標(biāo)。同時(shí)還需要考慮在龐大數(shù)據(jù)庫(kù)中獲得所有權(quán)利方的授權(quán)是否是過(guò)于困難的行為規(guī)制方式,是否沒(méi)有精準(zhǔn)考慮技術(shù)革新和發(fā)展的客觀需要。而在應(yīng)用端對(duì)用戶(hù)權(quán)益的保護(hù),應(yīng)從用戶(hù)和提供者互動(dòng)的可行渠道出發(fā)來(lái)實(shí)現(xiàn)私權(quán)保護(hù)的需要。另外還應(yīng)結(jié)合具體場(chǎng)域的應(yīng)用需求來(lái)匹配精準(zhǔn)化的行為要求,比如因司法實(shí)踐領(lǐng)域中的知識(shí)結(jié)構(gòu)和語(yǔ)言表達(dá)存在專(zhuān)業(yè)性和復(fù)雜性,應(yīng)用于其中的人工智能技術(shù)不能簡(jiǎn)單平移,提供者有義務(wù)進(jìn)行對(duì)應(yīng)的技術(shù)革新,需向法律實(shí)務(wù)部門(mén)提前預(yù)警應(yīng)用風(fēng)險(xiǎn)和提供對(duì)應(yīng)技術(shù)參數(shù),了解法律實(shí)務(wù)工作的基礎(chǔ)原理以提升技術(shù)的適配度,為盡可能減少風(fēng)險(xiǎn)投入更多的技術(shù)力量支持。
(二)聚焦風(fēng)險(xiǎn)狀態(tài)的區(qū)分規(guī)制理念內(nèi)涵與提供者義務(wù)的重塑
一是依據(jù)風(fēng)險(xiǎn)的可容忍程度來(lái)區(qū)分底線義務(wù)與倡導(dǎo)行為。建立提供者義務(wù)設(shè)定的底線思維,依據(jù)已知風(fēng)險(xiǎn)和控制能力的實(shí)際狀態(tài)來(lái)劃定切實(shí)可行的行為紅線。如應(yīng)用風(fēng)險(xiǎn)所對(duì)應(yīng)的價(jià)值損害是社會(huì)運(yùn)行中無(wú)法容忍的基礎(chǔ)部分,比如涉及國(guó)家安全,應(yīng)不論效率成本,以安全優(yōu)先的原則來(lái)強(qiáng)化義務(wù)內(nèi)容。在強(qiáng)制實(shí)現(xiàn)存在一定現(xiàn)實(shí)障礙的規(guī)制領(lǐng)域,則可通過(guò)明確最佳傾向的方式引導(dǎo)提供者朝著存在更優(yōu)解的方向努力。
二是考量風(fēng)險(xiǎn)的損害情況來(lái)區(qū)分公共侵?jǐn)_與私權(quán)受損。美國(guó)法上的公共侵?jǐn)_一般涉及損害公共權(quán)利或損害大量人員利益的公共屬性,典型情形涉及因灰塵、煙霧、有害物質(zhì)泄露所造成的環(huán)境污染事件。在普通法司法實(shí)踐中對(duì)公共侵?jǐn)_的認(rèn)定標(biāo)準(zhǔn)總體較寬,不同州管轄范圍內(nèi)的認(rèn)定要素存在差異。加利福尼亞州將公共侵?jǐn)_界定為對(duì)整個(gè)社區(qū)、臨近地區(qū)或相當(dāng)多的民眾造成損害,即便每個(gè)人身上所遭受的損害程度存在差異。上述較靈活的界定方式使依托公共侵?jǐn)_理論來(lái)解釋通用人工智能技術(shù)可能造成的,帶有公共屬性的應(yīng)用損害具有可行性。公共侵?jǐn)_部分的行為規(guī)制顯然應(yīng)采用強(qiáng)制性的較高標(biāo)準(zhǔn),以有效避免社會(huì)動(dòng)蕩和秩序混亂。同時(shí)風(fēng)險(xiǎn)損害也可能對(duì)應(yīng)私權(quán)受損,具有損害內(nèi)向性和主體有限性,此時(shí)提供者對(duì)特定主體權(quán)益的主動(dòng)保護(hù)義務(wù)標(biāo)準(zhǔn)不宜過(guò)高。
三是確認(rèn)風(fēng)險(xiǎn)的來(lái)源方向來(lái)區(qū)分技術(shù)缺陷與系統(tǒng)問(wèn)題。通用人工智能應(yīng)用風(fēng)險(xiǎn)的來(lái)源之一是技術(shù)缺陷,因此督促提供者履行技術(shù)更新義務(wù)有助于消除應(yīng)用風(fēng)險(xiǎn)。另外,通用人工智能的應(yīng)用風(fēng)險(xiǎn)也來(lái)自多重因素的銜接錯(cuò)位,如數(shù)據(jù)權(quán)利制度的不健全影響著數(shù)據(jù)訓(xùn)練環(huán)節(jié)的合規(guī)性,龐大的用戶(hù)群體及其不可預(yù)控的使用行為可能讓技術(shù)應(yīng)用的良善愿景落空。這些風(fēng)險(xiǎn)的徹底消弭受制于復(fù)雜的社會(huì)條件及其對(duì)應(yīng)制度的構(gòu)建完善,是社會(huì)運(yùn)行的系統(tǒng)性風(fēng)險(xiǎn),很難通過(guò)簡(jiǎn)單加重提供者義務(wù)來(lái)實(shí)現(xiàn)規(guī)制目標(biāo)。
(三)區(qū)分規(guī)制理念賦能提供者義務(wù)的張力實(shí)效
一是強(qiáng)制要求與軟性引導(dǎo)的互通融合避免提供者義務(wù)的封閉性。提供者義務(wù)可能隨著技術(shù)的發(fā)展和應(yīng)用場(chǎng)域的變動(dòng)而產(chǎn)生一定的變化,僅有強(qiáng)制規(guī)范不利于迎合實(shí)際變化進(jìn)行及時(shí)呼應(yīng),而軟性引導(dǎo)的柔化規(guī)范則為義務(wù)內(nèi)容的延展提供了可靠指引。強(qiáng)制要求以對(duì)違背義務(wù)導(dǎo)向法律責(zé)任的壓迫感來(lái)達(dá)到規(guī)制目標(biāo), 而通過(guò)軟性引導(dǎo)所實(shí)現(xiàn)的規(guī)制部分是不需要公權(quán)力強(qiáng)力介入的低成本規(guī)制方式,兩者的協(xié)同配合可顯著擴(kuò)充主體責(zé)任的實(shí)然范疇。
二是可做到的行為納入與難做到的行為排除增強(qiáng)提供者義務(wù)的可實(shí)現(xiàn)性。在義務(wù)設(shè)定上充分考慮現(xiàn)階段的技術(shù)發(fā)展需要和提供者的實(shí)際能力范圍,在現(xiàn)實(shí)可行和能力可及的場(chǎng)域中設(shè)定較高的義務(wù)標(biāo)準(zhǔn),從而使義務(wù)的實(shí)現(xiàn)預(yù)期得到充分釋放。針對(duì)當(dāng)前技術(shù)狀態(tài)難以實(shí)現(xiàn)的部分,果斷免除或減輕提供者義務(wù),換之以倡導(dǎo)性規(guī)范,讓其可在相對(duì)寬松的規(guī)制條件下,盡可能實(shí)現(xiàn)技術(shù)進(jìn)步,這也有利于進(jìn)一步消弭應(yīng)用風(fēng)險(xiǎn)。
三是建立在多元共治基礎(chǔ)上的主體區(qū)分設(shè)定模式提升提供者義務(wù)的協(xié)同性。提供者義務(wù)是保障技術(shù)安全的關(guān)鍵,但并不是唯一側(cè)面。技術(shù)應(yīng)用帶來(lái)社會(huì)效益的整體提升并附從社會(huì)化風(fēng)險(xiǎn),在治理策略上建構(gòu)多主體參與的協(xié)同共治體系會(huì)增強(qiáng)治理效果。應(yīng)用風(fēng)險(xiǎn)不僅來(lái)自技術(shù)本身的風(fēng)險(xiǎn),還來(lái)自社會(huì)化應(yīng)用場(chǎng)域的原有風(fēng)險(xiǎn)、用戶(hù)的違規(guī)行為和政府監(jiān)管能力的欠缺等多重因素。提供者享受到技術(shù)紅利,但并不是唯一的獲益方,用戶(hù)、政府、平臺(tái)等技術(shù)應(yīng)用鏈條上的其他主體也應(yīng)通過(guò)義務(wù)設(shè)定的方式參與治理鏈條。
四、應(yīng)用風(fēng)險(xiǎn)層級(jí)的評(píng)估維度與提供者義務(wù)區(qū)分規(guī)制的標(biāo)準(zhǔn)設(shè)定
鑒于通用人工智能技術(shù)廣泛的應(yīng)用場(chǎng)景和多主體的參與鏈條,考慮到危險(xiǎn)和義務(wù)產(chǎn)生之間的基礎(chǔ)邏輯關(guān)系,當(dāng)以應(yīng)用風(fēng)險(xiǎn)層級(jí)的評(píng)估維度為標(biāo)準(zhǔn)設(shè)定導(dǎo)向,在區(qū)分規(guī)制的視野下設(shè)置階梯式的義務(wù)系統(tǒng),以便提升義務(wù)設(shè)定的實(shí)效性??韶瀼貏?dòng)態(tài)評(píng)估的思路,以固有維度為基本要素,以變量維度為浮動(dòng)因子,對(duì)應(yīng)用風(fēng)險(xiǎn)層級(jí)的高低進(jìn)行綜合判定,而后根據(jù)風(fēng)險(xiǎn)度高低的當(dāng)前判定結(jié)果來(lái)聯(lián)動(dòng)提供者義務(wù)區(qū)分規(guī)制的強(qiáng)弱標(biāo)準(zhǔn)。
(一)應(yīng)用風(fēng)險(xiǎn)層級(jí)的固有維度與提供者義務(wù)區(qū)分規(guī)制標(biāo)準(zhǔn)的協(xié)同
應(yīng)用風(fēng)險(xiǎn)層級(jí)的固有維度涉及應(yīng)用場(chǎng)景與技術(shù)結(jié)合后的風(fēng)險(xiǎn)情形,風(fēng)險(xiǎn)程度有差異化表現(xiàn),繼而會(huì)協(xié)同影響提供者義務(wù)區(qū)分規(guī)制的標(biāo)準(zhǔn)設(shè)定。
從傳播屬性上看,對(duì)帶有公共屬性的傳播模式需要硬性的嚴(yán)格規(guī)制。來(lái)自通用人工智能的虛假信息在具有私密性的聊天模式中影響范圍有限,而在公共傳播模式下將很可能產(chǎn)生大規(guī)模的認(rèn)知錯(cuò)位,影響正常的輿論生成,甚至成為引發(fā)社會(huì)動(dòng)蕩的導(dǎo)火索。利用互聯(lián)網(wǎng)信息制造對(duì)立,誘導(dǎo)沖突,并服務(wù)于特定政治目標(biāo)的做法并不罕見(jiàn)。根據(jù)2018年11月國(guó)家網(wǎng)信辦發(fā)布的《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)安全評(píng)估規(guī)定》,面向社會(huì)公眾應(yīng)用、具備輿論影響能力的通用人工智能技術(shù)顯然也應(yīng)落入安全評(píng)估的范疇。
從應(yīng)用領(lǐng)域來(lái)看,對(duì)通用人工智能技術(shù)硬性限制的管控需要,一方面來(lái)自其服務(wù)內(nèi)容與某些應(yīng)用領(lǐng)域的底線要求相悖。比如在受教育者利用該技術(shù)完成作業(yè)的過(guò)程中,該技術(shù)的運(yùn)行促成了與教育活動(dòng)的目標(biāo)本質(zhì)背道而馳的消極效果。再如在學(xué)術(shù)科研領(lǐng)域內(nèi),利用通用人工智能完成學(xué)術(shù)論文,有違學(xué)術(shù)道德底線和科研自律要求,故應(yīng)得到嚴(yán)厲禁止。另一方面,通用人工智能技術(shù)也對(duì)應(yīng)著無(wú)法獲得主導(dǎo)性地位的領(lǐng)域,比如在涉及價(jià)值判斷的司法裁判領(lǐng)域,任何人工智能技術(shù)都只能作為輔助性的工具。究其原因,來(lái)自過(guò)去經(jīng)驗(yàn)的數(shù)據(jù)訓(xùn)練可能不適合當(dāng)前裁判的需要,而完全不關(guān)注社會(huì)影響力的智能裁判過(guò)程也會(huì)影響司法審判的適用力。
對(duì)于違規(guī)應(yīng)用的社會(huì)損害力而言,應(yīng)從公私法分立的角度進(jìn)行義務(wù)內(nèi)容的硬性區(qū)分。一方面,對(duì)存在違反國(guó)家強(qiáng)制標(biāo)準(zhǔn)和影響社會(huì)公共利益可能的應(yīng)用風(fēng)險(xiǎn)情形,需加強(qiáng)提供者的審核義務(wù)。如涉及存在影響網(wǎng)絡(luò)安全,引發(fā)漏洞攻擊的惡意代碼,則需提供者確保安全,主動(dòng)審核,防止為實(shí)施違法犯罪行為提供不當(dāng)助力。另一方面,如牽涉文字作品框架內(nèi)容設(shè)定,翻譯文字、圖像或形象生成等方面,可能涉及人格權(quán)、知識(shí)產(chǎn)權(quán)等民事權(quán)利受損,對(duì)相關(guān)侵權(quán)信息的審查義務(wù)可考慮被動(dòng)路線,并以司法為最終防線。
(二)應(yīng)用風(fēng)險(xiǎn)層級(jí)的變量維度與提供者區(qū)分規(guī)制標(biāo)準(zhǔn)的呼應(yīng)
應(yīng)用風(fēng)險(xiǎn)層級(jí)的高低還會(huì)隨著提供者技術(shù)控制力、用戶(hù)鑒別力和外部監(jiān)管力的大小發(fā)生繼發(fā)變動(dòng),構(gòu)成了應(yīng)用風(fēng)險(xiǎn)層級(jí)的變量維度,并對(duì)提供者區(qū)分規(guī)制標(biāo)準(zhǔn)的設(shè)定造成動(dòng)態(tài)影響。
1.提供者的技術(shù)控制力與區(qū)分規(guī)制標(biāo)準(zhǔn)的對(duì)照
提供者較強(qiáng)的技術(shù)控制力可顯著降低應(yīng)用風(fēng)險(xiǎn)層級(jí)。該技術(shù)中的算法模型具有專(zhuān)業(yè)化、黑箱化和多變化特征,這使對(duì)提供者的義務(wù)設(shè)定不能通過(guò)提升用戶(hù)方的注意義務(wù)來(lái)得到相應(yīng)縮減,因?yàn)槿狈?zhuān)業(yè)知識(shí)的用戶(hù)缺乏了解技術(shù)原理的有效通道,也無(wú)法進(jìn)入數(shù)據(jù)訓(xùn)練環(huán)節(jié)來(lái)提升技術(shù)算法的效能。不僅如此,現(xiàn)階段的通用人工智能仍缺乏實(shí)質(zhì)創(chuàng)造力,其整體驅(qū)動(dòng)還會(huì)受制于人,這表明提供者的主導(dǎo)控制能力并沒(méi)有得到根本改變。由此可見(jiàn),具備技術(shù)更新的專(zhuān)業(yè)能力、對(duì)影響生成結(jié)果數(shù)據(jù)訓(xùn)練環(huán)節(jié)的管控能力和生成內(nèi)容仰賴(lài)技術(shù)程序的現(xiàn)狀是促成提供者義務(wù)生成的重要側(cè)面。另外,提供者從該技術(shù)應(yīng)用中大量獲益,這為其技術(shù)研發(fā)和風(fēng)險(xiǎn)規(guī)避能力的提升提供了必要的經(jīng)濟(jì)基礎(chǔ)。
另一方面,雖然提供者需要對(duì)技術(shù)的應(yīng)用風(fēng)險(xiǎn)負(fù)責(zé),但此種負(fù)責(zé)狀態(tài)存在限度,如同無(wú)法要求無(wú)民事行為能力人理性控制行為一樣,對(duì)沒(méi)有技術(shù)控制能力的主體施加義務(wù)的做法因超出了必要的能力范圍,顯然會(huì)導(dǎo)致法律適用效果的落空。這表明提供者的義務(wù)履行應(yīng)以技術(shù)控制力為必要條件。
需要注意的是,技術(shù)控制力存在彈性側(cè)面,這為區(qū)分規(guī)制軟性標(biāo)準(zhǔn)的適用提供了必要前提。提供者的技術(shù)控制力在具有一定的浮動(dòng)空間。一方面,提供者在現(xiàn)階段尚無(wú)法全面管控和預(yù)測(cè)生成內(nèi)容,存在一定的控制弱點(diǎn)。另一方面,有些更優(yōu)應(yīng)用狀態(tài)的達(dá)成仰賴(lài)進(jìn)一步的技術(shù)研發(fā),比如深度人文內(nèi)化的技術(shù)方案在實(shí)現(xiàn)上仍存在障礙,由此在類(lèi)似領(lǐng)域不宜設(shè)定較高的硬性規(guī)制標(biāo)準(zhǔn),以便給技術(shù)成熟和方案養(yǎng)成提供必要時(shí)間。
2.用戶(hù)的鑒別力與區(qū)分規(guī)制標(biāo)準(zhǔn)的界定
與充斥大量魚(yú)龍混雜信息的互聯(lián)網(wǎng)中的狀態(tài)類(lèi)似,通用人工智能所提供的快速而多樣的生成內(nèi)容也存在違規(guī)可能。就此問(wèn)題的規(guī)制,可參照網(wǎng)絡(luò)服務(wù)提供者義務(wù)設(shè)定中的避風(fēng)港原則。理由是通用人工智能產(chǎn)品的用戶(hù)眾多,生成內(nèi)容基于個(gè)性化的請(qǐng)求產(chǎn)生,具有海量特征,且在相對(duì)不公開(kāi)的用戶(hù)界面生成,同時(shí)涉及隱私問(wèn)題。提供者既不是違規(guī)信息生成的觸發(fā)主體,也無(wú)法全面快速獲知違規(guī)信息,因此一般情形下的主動(dòng)審查義務(wù)應(yīng)被排除。
對(duì)鑒別能力較強(qiáng)的用戶(hù),即具有完全民事行為能力的人群,可考慮傾向形式審查的弱標(biāo)準(zhǔn)。通過(guò)明確用戶(hù)接入服務(wù)的資格審核來(lái)設(shè)定提供者義務(wù),讓有足夠鑒別能力的用戶(hù)可以在發(fā)現(xiàn)違規(guī)失當(dāng)信息時(shí),不僅不會(huì)受到錯(cuò)誤影響,甚至還可以通過(guò)適當(dāng)對(duì)話(huà)糾正錯(cuò)誤,引導(dǎo)正確內(nèi)容的生成。此時(shí)提供者通過(guò)保障生成內(nèi)容的可追溯性即可達(dá)到便于事后審查的要求,而不需隨時(shí)進(jìn)行耗時(shí)耗力的全面徹底審查。
對(duì)鑒別能力較弱的用戶(hù),如對(duì)老人、未成年人這類(lèi)特殊人群,提供者的義務(wù)應(yīng)適當(dāng)增強(qiáng),應(yīng)該采取有效手段避免技術(shù)缺陷對(duì)上述人群的不利影響。但針對(duì)精神病人,提供者相關(guān)義務(wù)的履行不具有可行性,該類(lèi)患者的生病狀況屬于個(gè)人隱私,其一般不會(huì)主動(dòng)上傳公開(kāi)。另外,提供者往往沒(méi)有醫(yī)學(xué)專(zhuān)業(yè)知識(shí)和疾病認(rèn)定資質(zhì),故通過(guò)提供服務(wù)前的問(wèn)卷方式來(lái)考察用戶(hù)的身心健康狀態(tài)并進(jìn)行相應(yīng)定性,存在偏見(jiàn)和失當(dāng)可能。
3.監(jiān)管方的管控力與區(qū)分規(guī)制標(biāo)準(zhǔn)的劃定
鑒于通用人工智能技術(shù)應(yīng)用風(fēng)險(xiǎn)可能是提供者并未發(fā)覺(jué)或難以自控的,該技術(shù)的合規(guī)運(yùn)行還會(huì)受制于外部監(jiān)督的常態(tài)化和規(guī)則化, 故配套監(jiān)管機(jī)制的完善程度將直接影響技術(shù)的合規(guī)運(yùn)行效果。就典型情景來(lái)看,一是若保障海量數(shù)據(jù)的安全性要求已超過(guò)提供者的能力范圍,則需借助外部力量為技術(shù)運(yùn)行中數(shù)據(jù)合規(guī)使用劃定紅線。二是提供者對(duì)算法模型的開(kāi)發(fā)和理解易陷入自?shī)首詷?lè)的境地,對(duì)適用風(fēng)險(xiǎn)和技術(shù)偏見(jiàn)往往視若不見(jiàn)。不僅如此,人工智能領(lǐng)域的技術(shù)黑箱相比以往有過(guò)之而無(wú)不及,因此進(jìn)行公開(kāi)、謹(jǐn)慎和中立的外部評(píng)估實(shí)屬必要。三是通用人工智能領(lǐng)域已成新興熱點(diǎn)投資領(lǐng)域,但在運(yùn)行中耗費(fèi)了大量的社會(huì)成本,耗能程度較高,一定程度也影響到經(jīng)濟(jì)秩序和環(huán)境安全,故也需要來(lái)自國(guó)家層面的監(jiān)控規(guī)制。
但需注意的是,外部監(jiān)管同樣面臨海量數(shù)據(jù)審查、算法模型評(píng)估的現(xiàn)實(shí)困境,同時(shí)受制于監(jiān)管力量配置、經(jīng)驗(yàn)積累等方面存在能力波動(dòng)空間。對(duì)不涉及公共利益,不會(huì)引發(fā)嚴(yán)重?fù)p害的應(yīng)用環(huán)節(jié),應(yīng)防止太多監(jiān)管介入影響到行業(yè)發(fā)展和服務(wù)提供的持續(xù)性。在監(jiān)管中,要求對(duì)代碼進(jìn)行全面完整的備案甚至公開(kāi)的可行性也不高?!按a層面的算法透明最顯而易見(jiàn)的阻力來(lái)自商業(yè)秘密,此外其他負(fù)面影響還包括增加公眾的認(rèn)知負(fù)擔(dān)、侵犯國(guó)家機(jī)密等。”另外,算法黑箱的破除還會(huì)受制于認(rèn)知局限,因而無(wú)法通過(guò)完善監(jiān)管做到絕對(duì)透明化。
五、通用人工智能技術(shù)提供者義務(wù)區(qū)分規(guī)制的優(yōu)化重構(gòu)
提供者義務(wù)的區(qū)分規(guī)制應(yīng)充分考慮適度容忍應(yīng)用風(fēng)險(xiǎn)的基本前提,以應(yīng)用風(fēng)險(xiǎn)精準(zhǔn)管控的邏輯為導(dǎo)引,在對(duì)應(yīng)用風(fēng)險(xiǎn)層級(jí)進(jìn)行固有維度和變量維度的綜合動(dòng)態(tài)研判的基礎(chǔ)上,結(jié)合技術(shù)發(fā)展的現(xiàn)實(shí)需要,合理優(yōu)化相關(guān)義務(wù)內(nèi)容。
(一)通用人工智能技術(shù)提供者數(shù)據(jù)審查義務(wù)的區(qū)分規(guī)制
數(shù)據(jù)對(duì)通用人工智能技術(shù)性能的發(fā)揮意義重大。不同類(lèi)型的數(shù)據(jù)對(duì)該技術(shù)的合規(guī)利用會(huì)造成影響。通用人工智能技術(shù)的典型數(shù)據(jù)問(wèn)題有,一是作為第五種生產(chǎn)要素的數(shù)據(jù)之上存在權(quán)利附著,提供者隨意使用會(huì)造成權(quán)益侵害。二是訓(xùn)練數(shù)據(jù)本身是否存在違規(guī)信息,通用人工智能的表現(xiàn)狀態(tài)和其預(yù)先學(xué)習(xí)的數(shù)據(jù)內(nèi)容有直接關(guān)聯(lián)。
歐盟通用數(shù)據(jù)保護(hù)條例提出了“經(jīng)由設(shè)計(jì)的數(shù)據(jù)保護(hù)”。該《條例》第25條第1款規(guī)定:“考慮到行業(yè)最新水平、實(shí)施成本及處理的性質(zhì)、范圍、目的和內(nèi)容以及處理給自然人的權(quán)利與自由造成的影響,數(shù)據(jù)控制者應(yīng)當(dāng)在決定數(shù)據(jù)處理方式以及進(jìn)行處理時(shí),以有效的方式采取適當(dāng)?shù)慕M織和技術(shù)措施。”這表明將數(shù)據(jù)合規(guī)處理的義務(wù)施加在有能力處置數(shù)據(jù)的數(shù)據(jù)控制者之上,使其按照現(xiàn)實(shí)情形和實(shí)際能力來(lái)實(shí)施恰當(dāng)?shù)奶幹么胧┚哂泻侠硇浴?/p>
一是在審查主體上,將該項(xiàng)義務(wù)局限在具有相關(guān)技術(shù)能力的提供者。如提供者僅是技術(shù)服務(wù)中介平臺(tái),并不了解技術(shù)模型和數(shù)據(jù)訓(xùn)練情況,則提供者的數(shù)據(jù)審查義務(wù)應(yīng)轉(zhuǎn)化為在提供服務(wù)前備案,真正負(fù)責(zé)數(shù)據(jù)訓(xùn)練和優(yōu)化主體信息,并在發(fā)現(xiàn)數(shù)據(jù)違規(guī)后對(duì)相關(guān)責(zé)任主體負(fù)有及時(shí)告知義務(wù)。
二是在審查內(nèi)容上,應(yīng)集中于對(duì)數(shù)據(jù)來(lái)源合法性的確認(rèn),包括但不限于確認(rèn)信息是否來(lái)自可信數(shù)據(jù)庫(kù),是否排除明顯包含權(quán)利標(biāo)記的數(shù)據(jù),是否排除未經(jīng)授權(quán)以網(wǎng)絡(luò)爬蟲(chóng)等不當(dāng)方式所獲得的可確權(quán)數(shù)據(jù)等。尊重其他企業(yè)對(duì)所獲數(shù)據(jù)的財(cái)產(chǎn)權(quán)益,也在我國(guó)司法實(shí)踐中得到了確認(rèn)。但上述審查應(yīng)以形式審查為表征,同時(shí)提供者不應(yīng)對(duì)權(quán)利狀態(tài)模糊不明的相關(guān)數(shù)據(jù)的最終合法性負(fù)責(zé)。理由是在數(shù)據(jù)確權(quán)流通制度尚未完善的領(lǐng)域當(dāng)中,數(shù)據(jù)權(quán)利的歸屬還不明確,后續(xù)流通利用環(huán)節(jié)的權(quán)利表征存在不甚明晰的可能,系統(tǒng)性社會(huì)風(fēng)險(xiǎn)問(wèn)題的解決不應(yīng)寄托于單方加重提供者的義務(wù)來(lái)達(dá)成目標(biāo)。
三是在審核方式上,考慮到海量數(shù)據(jù)使用情景及數(shù)據(jù)多重流轉(zhuǎn)環(huán)節(jié)的復(fù)雜性,提供者不需對(duì)數(shù)據(jù)本身的合法性承擔(dān)主動(dòng)逐個(gè)審核的高強(qiáng)度義務(wù)。如數(shù)據(jù)應(yīng)用涉嫌侵犯人格權(quán)、知識(shí)產(chǎn)權(quán)、存在構(gòu)成不正當(dāng)競(jìng)爭(zhēng)等情形,權(quán)利方應(yīng)可通過(guò)申請(qǐng)程序,要求提供者做出被動(dòng)回應(yīng)。
(二)通用人工智能提供者審核生成內(nèi)容義務(wù)的區(qū)分規(guī)制
應(yīng)明確提供者對(duì)生成內(nèi)容進(jìn)行主動(dòng)審核的類(lèi)型和方式。在審核領(lǐng)域上,主要針對(duì)風(fēng)險(xiǎn)度高、容錯(cuò)度低的應(yīng)用領(lǐng)域。在審核方式上,提供者可通過(guò)招聘提示工程師或其他適當(dāng)方式定期模仿用戶(hù)群的使用習(xí)慣,結(jié)合當(dāng)前社會(huì)關(guān)注要點(diǎn),深度呈現(xiàn)生成內(nèi)容,對(duì)通過(guò)上述途徑知悉的違規(guī)信息的生成狀態(tài)進(jìn)行有效糾錯(cuò)。同時(shí),提供者應(yīng)通過(guò)提煉關(guān)鍵詞等方式定期總結(jié)用戶(hù)高頻互動(dòng)領(lǐng)域內(nèi)的生成內(nèi)容,展開(kāi)實(shí)質(zhì)審查。為了保障上述目標(biāo)的達(dá)成,提供者依據(jù)必要性原則,合規(guī)存儲(chǔ)可識(shí)別用戶(hù)身份的輸入和使用信息,以便為審查義務(wù)的達(dá)成提供前提條件。另外,雖然當(dāng)生成內(nèi)容構(gòu)成網(wǎng)絡(luò)信息時(shí),會(huì)放大違規(guī)信息的風(fēng)險(xiǎn)度,但提供者的預(yù)先標(biāo)記行為已可達(dá)到提示風(fēng)險(xiǎn)的目標(biāo),同時(shí)鑒于違規(guī)信息的產(chǎn)生源頭還有用戶(hù),因此不宜由提供者承擔(dān)單純的生產(chǎn)者責(zé)任。
設(shè)定提供者對(duì)生成內(nèi)容進(jìn)行被動(dòng)審核的程序。提供者應(yīng)設(shè)置審核專(zhuān)員和限時(shí)審核程序。對(duì)存在侵權(quán)嫌疑的生成內(nèi)容,提供者可基于用戶(hù)申請(qǐng)對(duì)生成內(nèi)容啟動(dòng)審核,限期做出審核結(jié)果的反饋,并明確告知申請(qǐng)人。提供者應(yīng)提示申請(qǐng)人如對(duì)審核結(jié)果存在異議,可向國(guó)家網(wǎng)信辦等相關(guān)部門(mén)投訴或向人民法院提起訴訟。相關(guān)管理部門(mén)應(yīng)設(shè)有接受和反饋通用人工智能用戶(hù)投訴的受理機(jī)制,以便對(duì)提供者上述義務(wù)的不當(dāng)履行情況進(jìn)行及時(shí)糾正。在申請(qǐng)人為提起訴訟要求提供者向其披露用戶(hù)信息時(shí),提供者應(yīng)予以配合,否則應(yīng)承擔(dān)連帶責(zé)任。
如發(fā)現(xiàn)違規(guī)生成內(nèi)容是因技術(shù)缺陷造成的,提供者應(yīng)立刻采用屏蔽、刪除、過(guò)濾等必要措施進(jìn)行內(nèi)容隔離并在合理時(shí)間內(nèi)通過(guò)優(yōu)化算法模型等方式避免違規(guī)內(nèi)容的再次生成。其中的合理時(shí)間應(yīng)以行業(yè)內(nèi)相關(guān)技術(shù)完善所需的平均時(shí)間來(lái)確認(rèn),通過(guò)征集行業(yè)意見(jiàn),形成判定時(shí)限的明確規(guī)則。但在違規(guī)生成內(nèi)容的產(chǎn)生原因不明的情形下,提供者應(yīng)通過(guò)向主管部門(mén)和專(zhuān)業(yè)委員會(huì)報(bào)送情況的方式來(lái)尋求可能的解決方案。
(三)通用人工智能提供者監(jiān)管用戶(hù)行為義務(wù)的區(qū)分規(guī)制
提供者監(jiān)管用戶(hù)行為義務(wù)的實(shí)現(xiàn)應(yīng)以其對(duì)用戶(hù)身份信息的識(shí)別義務(wù)為前提,即提供者可在用戶(hù)行為導(dǎo)致技術(shù)運(yùn)行失控時(shí)追溯到相關(guān)用戶(hù),并對(duì)低自控力和低鑒別能力的用戶(hù)進(jìn)行有效保護(hù)。由此在用戶(hù)接入相關(guān)服務(wù)時(shí),提供者應(yīng)采集可以識(shí)別用戶(hù)身份的必要信息,包含姓名、身份證號(hào)、聯(lián)系方式等關(guān)鍵信息。
應(yīng)設(shè)定提供者對(duì)用戶(hù)行為規(guī)制的底線義務(wù)。提供者應(yīng)采用關(guān)鍵詞屏蔽、不當(dāng)問(wèn)題預(yù)警提示等相關(guān)合理方式避免用戶(hù)試圖通過(guò)不當(dāng)提問(wèn)獲取違背社會(huì)主義核心價(jià)值觀、有助于實(shí)施違法犯罪行為等不可容忍的違法生成內(nèi)容。
應(yīng)明確提供者對(duì)鑒別能力較弱用戶(hù)群體的高強(qiáng)度義務(wù)。針對(duì)未成年人這類(lèi)群體,可仿照未成年人保護(hù)法第75條,確立單獨(dú)的統(tǒng)一未成年人通用人工智能使用身份認(rèn)證系統(tǒng),也可與現(xiàn)行的網(wǎng)絡(luò)游戲電子身份認(rèn)證系統(tǒng)對(duì)接,強(qiáng)制要求實(shí)名制和人臉識(shí)別,避免未成年人借用身份信息注冊(cè)。提供者應(yīng)結(jié)合未成年人的年齡特征和生理特點(diǎn),建立互動(dòng)內(nèi)容的負(fù)面清單,避免未成年人利用該技術(shù)獲得違規(guī)信息。同時(shí),應(yīng)對(duì)未成年人使用時(shí)間進(jìn)行必要限制,可考慮其生長(zhǎng)需要,對(duì)晚間的服務(wù)時(shí)間進(jìn)行限縮。針對(duì)六十周歲以上的老人,提供者應(yīng)在注冊(cè)時(shí)細(xì)化提示操作流程,提高老人使用程序的便利度,在運(yùn)行環(huán)節(jié)可考慮采用頁(yè)面的彈窗強(qiáng)化應(yīng)用風(fēng)險(xiǎn)的告知義務(wù)。
應(yīng)當(dāng)強(qiáng)調(diào)的是,提供者對(duì)實(shí)名用戶(hù)利用生成內(nèi)容的后續(xù)違法行為沒(méi)有主動(dòng)監(jiān)管義務(wù),這已明顯超出提供者的管控能力。另外,提供者就偶然發(fā)現(xiàn)的用戶(hù)輕微違法行為,也不具有固定證據(jù)和報(bào)告主管部門(mén)的義務(wù),除非涉及侵犯國(guó)家利益、公共利益或涉嫌刑事犯罪等嚴(yán)重情形。
(四)通用人工智能技術(shù)提供者接受監(jiān)管義務(wù)的區(qū)分規(guī)制
一方面,通過(guò)強(qiáng)化外部監(jiān)管可達(dá)成避免該技術(shù)的無(wú)序野蠻增長(zhǎng)。一是在高風(fēng)險(xiǎn)的應(yīng)用領(lǐng)域,則應(yīng)進(jìn)行嚴(yán)格限制。如在自動(dòng)武器裝備、教育教學(xué)、司法裁判、學(xué)術(shù)研究等敏感領(lǐng)域的適用需經(jīng)過(guò)全面細(xì)致的安全評(píng)估。對(duì)在上述領(lǐng)域的擴(kuò)展應(yīng)用應(yīng)足夠謹(jǐn)慎。與國(guó)外保守傾向相比,我國(guó)法院對(duì)在司法實(shí)踐中應(yīng)用人工智能技術(shù)抱有更樂(lè)觀的態(tài)度。我國(guó)地方政府如深圳在普通高校畢業(yè)生的落戶(hù)審批上已經(jīng)實(shí)踐無(wú)人自動(dòng)秒批。這種寬松態(tài)度和實(shí)踐傾向放置在具有更高類(lèi)人智能的通用人工智能之上會(huì)進(jìn)一步放大應(yīng)用風(fēng)險(xiǎn)。具體而言,該項(xiàng)技術(shù)依托智能算法給定生成內(nèi)容,可直接適用的特性更強(qiáng),因此在高風(fēng)險(xiǎn)領(lǐng)域掌握決策能力的風(fēng)險(xiǎn)程度更高。對(duì)此,應(yīng)明確設(shè)置禁止或限制應(yīng)用的負(fù)面清單。在涉及限制進(jìn)入的應(yīng)用場(chǎng)域時(shí),一是提供者應(yīng)向監(jiān)管部門(mén)主動(dòng)提供能夠充分確保技術(shù)安全的研發(fā)資料并詳細(xì)闡釋技術(shù)機(jī)理。二是提供者就所采用的算法模型應(yīng)主動(dòng)接受安全性評(píng)估,有效規(guī)避存在高上癮性、高錯(cuò)誤率等顯著缺陷的相關(guān)技術(shù)進(jìn)入應(yīng)用環(huán)節(jié)。三是負(fù)責(zé)數(shù)據(jù)訓(xùn)練的提供者應(yīng)就相關(guān)能耗狀態(tài)接受監(jiān)管,主動(dòng)向相關(guān)部門(mén)準(zhǔn)確匯報(bào)真實(shí)的耗能情況。提供者為便利上述強(qiáng)監(jiān)管目標(biāo)的實(shí)現(xiàn),應(yīng)主動(dòng)配合備案,提供完整資料和接受定期實(shí)質(zhì)審查。
另一方面,如通用人工智能技術(shù)適用場(chǎng)景具有目標(biāo)用戶(hù)鑒別能力強(qiáng)、非依托公共平臺(tái)等低風(fēng)險(xiǎn)因素,則應(yīng)免除提供者接受高頻率和高強(qiáng)度的管控義務(wù),一般只需進(jìn)行應(yīng)用場(chǎng)景的備案即可。當(dāng)為安全審查目的獲取類(lèi)似源代碼等不宜公開(kāi)的相關(guān)信息時(shí),監(jiān)管機(jī)構(gòu)應(yīng)有完善的保密機(jī)制。
(五)通用人工智能技術(shù)提供者技術(shù)倫理馴化義務(wù)的區(qū)分規(guī)制
科技倫理是新科技發(fā)展過(guò)程中需要特別關(guān)注的關(guān)鍵要素,是化解新技術(shù)風(fēng)險(xiǎn)的必備選項(xiàng)。2023年3月中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,其中要求加強(qiáng)源頭治理,將科技倫理貫穿于科技活動(dòng)的全流程和全環(huán)節(jié)。對(duì)人工智能的倫理化要求來(lái)自非技術(shù)中立的特征,故“人工智能的發(fā)展并不能以技術(shù)中立為由來(lái)回避它的商業(yè)偏好、善惡價(jià)值和社會(huì)風(fēng)險(xiǎn)”。通用人工智能應(yīng)用風(fēng)險(xiǎn)的重要來(lái)源之一也可以歸結(jié)為技術(shù)本身的倫理失當(dāng)狀態(tài),而智能狀態(tài)的提升與道德標(biāo)準(zhǔn)的要求存在同向關(guān)系,提供者就此應(yīng)負(fù)有倫理馴化義務(wù)。該項(xiàng)義務(wù)主要涉及價(jià)值觀塑造和人文內(nèi)化,旨在使技術(shù)應(yīng)用走出人文荒漠,避免價(jià)值脫韁,成為內(nèi)在向善的技術(shù)方案,但價(jià)值觀塑造和人文內(nèi)化兩方面對(duì)社會(huì)秩序和利益維系的效用以及實(shí)施難度上并不完全相同,由此應(yīng)對(duì)應(yīng)不同的行為規(guī)制層級(jí)。
強(qiáng)化提供者對(duì)技術(shù)符合核心價(jià)值觀、保障國(guó)家安全的馴化義務(wù)。在實(shí)現(xiàn)方式上,提供者應(yīng)定期就上述目標(biāo)的達(dá)成狀況展開(kāi)自查自糾,在接受外部實(shí)質(zhì)審查時(shí),應(yīng)說(shuō)明為了達(dá)到上述目標(biāo)所采用的必要措施、測(cè)試方法及可信效果。這是技術(shù)應(yīng)用的底線所在,也是提供者承擔(dān)社會(huì)責(zé)任的重要體現(xiàn)。
倡導(dǎo)提供者對(duì)技術(shù)實(shí)現(xiàn)人文內(nèi)化的馴化要求。通用人工智能具有類(lèi)人化的智能表現(xiàn),但其不具有依賴(lài)持續(xù)經(jīng)驗(yàn)累積和反饋式學(xué)習(xí)的文化內(nèi)在,此時(shí)可通過(guò)具有傾向性的數(shù)據(jù)訓(xùn)練使技術(shù)內(nèi)容符合本國(guó)的人文特征。但在這一側(cè)面只倡導(dǎo)不強(qiáng)制的原因在于,一是人文內(nèi)化的內(nèi)容太多,常常掛一漏萬(wàn),未必可達(dá)到內(nèi)容全面馴化的目標(biāo)。二是人文內(nèi)化過(guò)程中的價(jià)值判斷會(huì)涉及一些灰色地帶,很難用非黑即白的方式來(lái)進(jìn)行馴化,比如類(lèi)似電車(chē)難題的場(chǎng)景,無(wú)法從倫理角度得到顯性一致的答案。三是人文內(nèi)化的內(nèi)涵外延存在一定的模糊性,難以匹配需要明確行為界限的義務(wù)內(nèi)容。可參考2021年9月國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布的《新一代人工智能倫理規(guī)范》的要求來(lái)推動(dòng)行業(yè)內(nèi)確認(rèn)人文內(nèi)化的標(biāo)準(zhǔn)策略。
在常規(guī)實(shí)現(xiàn)渠道上,可要求相關(guān)企業(yè)內(nèi)置專(zhuān)門(mén)機(jī)構(gòu)來(lái)實(shí)現(xiàn)技術(shù)倫理馴化要求。國(guó)外科技公司已存在相關(guān)實(shí)踐。與此同時(shí),國(guó)外相關(guān)科技公司對(duì)倫理部門(mén)進(jìn)行裁撤的做法也在引發(fā)公眾對(duì)技術(shù)安全性的擔(dān)憂(yōu)。由此,需從規(guī)則設(shè)定上保障相關(guān)義務(wù)實(shí)現(xiàn)的穩(wěn)定性,應(yīng)使科技倫理審查部門(mén)成為AI開(kāi)發(fā)者的標(biāo)配,構(gòu)成保障通用人工智能技術(shù)安全的內(nèi)在力量。
余論
無(wú)論人類(lèi)社會(huì)中的應(yīng)對(duì)情緒是恐懼還是接受,通用人工智能的發(fā)展已勢(shì)不可擋,無(wú)所不知和有問(wèn)必答是人類(lèi)一直向往的智能狀態(tài),在與浩瀚宇宙和強(qiáng)大自然抗?fàn)幍倪^(guò)程中,人類(lèi)對(duì)不受束縛的自由生活的向往始終存在。雖然風(fēng)險(xiǎn)始終存在,但收獲與代價(jià)同向而行實(shí)在過(guò)于常見(jiàn)。因此,風(fēng)險(xiǎn)不足以成為抗拒新變化的理由。
與此同時(shí),審慎與理性的觀察又足夠重要,以往的技術(shù)運(yùn)行都仰賴(lài)于占據(jù)智力高位的人類(lèi),但通用人工智能不僅能完成人類(lèi)生活中的常規(guī)任務(wù)而且具有類(lèi)人的創(chuàng)造力, 在持續(xù)學(xué)習(xí)中精進(jìn)能力,這對(duì)人類(lèi)社會(huì)的沖擊是前所未有的。沒(méi)有行動(dòng)邊界的自由往往會(huì)引發(fā)顛覆性的失序狀態(tài),所以法律規(guī)制和倫理引導(dǎo)也需箭在弦上。為此,合理設(shè)定通用人工智能提供者的義務(wù)框架是從可能制造危險(xiǎn)的源頭出發(fā),保障該項(xiàng)技術(shù)合規(guī)發(fā)展的鑰匙之一。