齊 琦
(天津大學(xué)法學(xué)院 天津 300072)
當(dāng)今網(wǎng)絡(luò)上充斥著各種暴力、色情、謠傳、不道德的話語、甚至是反動(dòng)言論、恐怖活動(dòng)宣傳等,“人工智能”(AI)通常被認(rèn)為是識(shí)別和過濾這些不當(dāng)內(nèi)容的工具。伴隨著“爆炸”增長的大數(shù)據(jù),分析和處理這些數(shù)據(jù)的工具也逐漸增多。深度學(xué)習(xí)等人工智能技術(shù)正顯示出巨大的潛力。[1]
在網(wǎng)絡(luò)輿情監(jiān)管背景下,人工智能內(nèi)容審查技術(shù)已經(jīng)成為一套不斷變化的自動(dòng)檢測(cè)和分析內(nèi)容的技術(shù)。各種形式的人工智能被應(yīng)用于排名和推薦系統(tǒng)中,通過計(jì)算迅速做出預(yù)測(cè)和決策,從而改變商業(yè)模式,提升產(chǎn)品服務(wù)。人們?cè)谙硎苋斯ぶ悄軆?nèi)容審查便利的同時(shí),這些技術(shù)的使用也逐漸衍生出了一系列的重大問題,那就是人工智能在線內(nèi)容審查應(yīng)用時(shí)所面臨的挑戰(zhàn),以及這些挑戰(zhàn)最終對(duì)言論自由權(quán)利會(huì)產(chǎn)生一些不利影響。
公民可以按照個(gè)人意愿表達(dá)意見和想法的法定政治權(quán)利,言論自由有時(shí)也被稱作表達(dá)自由,其形式包括口頭和書面,廣義上還包括出版、新聞、著作、繪畫等。公民可以通過文字、圖片、視頻、音頻或多媒體等媒介,在現(xiàn)實(shí)社會(huì)和網(wǎng)絡(luò)虛擬世界發(fā)表、接收信息,而不被政府和其他個(gè)人干涉。言論自由不是毫無邊際的,在不同國家會(huì)受到不同程度的限制,例如發(fā)表違反法律法規(guī)規(guī)定的信息:如侮辱、誹謗等侵犯他人的言論,色情、暴力信息、煽動(dòng)仇恨、煽動(dòng)國家分裂,宣揚(yáng)恐怖組織等會(huì)受到嚴(yán)厲的限制和打擊,而在社會(huì)道德層面,對(duì)言論自由提出了更高的“隱形”要求。
《世界人權(quán)宣言》第19條和《公民權(quán)利和政治權(quán)利國際公約》以及區(qū)域人權(quán)條約都保障言論自由權(quán)。雖然言論自由權(quán)是一項(xiàng)基本權(quán)利,但它并不是絕對(duì)的保障。根據(jù)國際標(biāo)準(zhǔn),特別是《公民權(quán)利和政治權(quán)利國際公約》第19條第3款:對(duì)言論自由權(quán)的限制必須嚴(yán)格地加以調(diào)整,不得危及言論自由權(quán)本身。確定一項(xiàng)限制是否經(jīng)過嚴(yán)格調(diào)整的方法通常被表述為一項(xiàng)由三部分組成的測(cè)試,限制必須:由法律規(guī)定、追求合法目標(biāo)、符合必要性和相稱性。
目前沒有任何國際標(biāo)準(zhǔn)明確涉及人工智能內(nèi)容審查和言論自由權(quán)。但是有一套國際標(biāo)準(zhǔn)與人工智能的使用有關(guān):國家不應(yīng)規(guī)定平臺(tái)負(fù)有監(jiān)測(cè)其傳輸、存儲(chǔ)、自動(dòng)化或以其他方式使用信息的一般義務(wù),用戶應(yīng)有機(jī)會(huì)質(zhì)疑內(nèi)容的屏蔽和過濾行為。
現(xiàn)有的法律法規(guī)對(duì)人工智能在線內(nèi)容審查沒有直接的規(guī)定,但各個(gè)國家不同的網(wǎng)絡(luò)內(nèi)容監(jiān)管和審查的標(biāo)準(zhǔn)為其提供了重要的指引,但這些法律可能不足以解決人工智能在線內(nèi)容審查影響言論自由的各種方式,人工智能在線內(nèi)容審查依然受傳統(tǒng)法律框架的監(jiān)管。
德國在2018年初公布一項(xiàng)規(guī)范社交媒體的法令,主要針對(duì)注冊(cè)用戶在200萬以上的網(wǎng)絡(luò)平臺(tái),這些社交媒體公司必須設(shè)立有關(guān)程序,檢查自己網(wǎng)站上被提出投訴的內(nèi)容,并在24小時(shí)之內(nèi)刪除明顯違法的內(nèi)容。違法的個(gè)人可能面臨高達(dá)500萬歐元的罰款,公司如果未能符合監(jiān)管標(biāo)準(zhǔn)將可能面臨高達(dá)5 000萬歐元罰款[2]。歐盟也公布了《公眾信息保護(hù)規(guī)則》(GDPR),制定了有關(guān)法規(guī),所有社交媒體公司在儲(chǔ)存和使用公眾信息方面必須遵守。澳大利亞在2019年4月5號(hào)通過了《散播邪惡暴力內(nèi)容法》,違規(guī)的社交媒體公司將面臨制裁,公司技術(shù)主管將可能因此被判長達(dá)3年的監(jiān)禁,和高達(dá)相當(dāng)于該公司全球范圍內(nèi)營業(yè)額10%的罰款[3]。我國《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》,2020年3月1日起正式施行[4],對(duì)社交網(wǎng)絡(luò)平臺(tái)的“敏感詞”審查力度加大。
1.審查在線內(nèi)容主要有以下幾種路徑
(1) 事前審查
當(dāng)上傳的內(nèi)容被審核時(shí)在正式發(fā)布之前,就已經(jīng)有人工智能內(nèi)容審查工具的“摧毀”,典型的內(nèi)容如過于明顯的色情信息。如果已知發(fā)布內(nèi)容的用戶是曾經(jīng)是規(guī)則破壞者,或者內(nèi)容非常明顯地違反基本審核規(guī)則,那么用戶可能被暗中禁言,發(fā)布的內(nèi)容也可能會(huì)被自動(dòng)隱藏。
(2) 事后審查
內(nèi)容正式發(fā)布后被審查的形式,多數(shù)時(shí)候需要人工智能審查和人類審查員共同工作違規(guī)內(nèi)容會(huì)受到標(biāo)記、降級(jí)、刪除等。
2.審查不當(dāng)信息
主要包括以下幾個(gè)方面:網(wǎng)絡(luò)騷擾或欺凌,包括例如網(wǎng)絡(luò)攻擊、霸凌、仇恨言論和色情暴力信息,這類內(nèi)容常常以圖片、視頻的形式發(fā)布,所以處理難度不大,但經(jīng)常會(huì)“誤傷”,并且,不同平臺(tái)的標(biāo)準(zhǔn)不一,有的平臺(tái)允許色情信息傳播;煽動(dòng)國家分裂、宣傳恐怖活動(dòng)等信息,這類信息一經(jīng)發(fā)現(xiàn),會(huì)受到政府的嚴(yán)厲打擊。
除了在線內(nèi)容審查的普遍挑戰(zhàn)之外,人工智能特有的一些挑戰(zhàn)是人類審查員不會(huì)面臨的,通??梢詺w因于人工智能系統(tǒng)的性能標(biāo)準(zhǔn)高于人類審查員(對(duì)人工智能系統(tǒng)的錯(cuò)誤比人類錯(cuò)誤要求得更嚴(yán)格)。人工智能審查技術(shù)為在線內(nèi)容審查帶來了一些更特別的挑戰(zhàn)。主要存在以下幾點(diǎn):
1.缺乏專業(yè)的執(zhí)行機(jī)制和法律機(jī)制
目前有關(guān)人工智能的討論仍局限于技術(shù)層面、倫理層面和責(zé)任等概念。這些框架如果順利執(zhí)行,必須依賴法治的進(jìn)步,目前在人工智能在線審查領(lǐng)域進(jìn)行的大量工作缺乏專業(yè)的執(zhí)行機(jī)制和法律機(jī)制。同時(shí)也缺少相應(yīng)的問責(zé)機(jī)制。
2.缺少透明度和可解釋性
許多公司開發(fā)人工智能系統(tǒng)的方式和過程缺乏透明度。研發(fā)產(chǎn)業(yè)保守商業(yè)秘密的規(guī)則,以及算法系統(tǒng)固有的復(fù)雜性共同導(dǎo)致了不透明性。在人工智能內(nèi)容審查產(chǎn)品中,幾種人工智能學(xué)習(xí)技術(shù)可能同時(shí)存在,從隨機(jī)森林和馬爾可夫模型,到支持向量機(jī)和神經(jīng)網(wǎng)絡(luò)。而神經(jīng)網(wǎng)絡(luò)(尤其是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò))是難以解釋的。雖然神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)用來復(fù)制人腦學(xué)習(xí),但這些網(wǎng)絡(luò)是太過復(fù)雜,有時(shí)連人工智能開發(fā)人員都無法理解算法如何或?yàn)楹屋敵瞿切靶袨椤薄?/p>
由于深度學(xué)習(xí)模型的復(fù)雜性,很難做到真正透明、可解釋的模型。但合并人工智能系統(tǒng)的可解釋方法一直是人們關(guān)注的焦點(diǎn)。研究神經(jīng)顯著性技術(shù)可能增加提供圖像和視頻調(diào)節(jié)工具的可解釋性圖像、視頻分析中的重要或顯著的標(biāo)志。這些可以在算法對(duì)重要圖像的分類過程中,識(shí)別區(qū)域和特性。MIT對(duì)網(wǎng)絡(luò)內(nèi)容分析進(jìn)行了進(jìn)一步的研究,旨在深度學(xué)習(xí)模型及其決策行為進(jìn)行解釋。例如對(duì)于給定的圖像分類,可以生成跟蹤路徑,突出顯示網(wǎng)絡(luò)中神經(jīng)元最強(qiáng)烈激活的路徑,從而澄清分類過程。這些技術(shù)對(duì)于在人工智能審查系統(tǒng)建立信任顯得越來越重要。然而,可解釋的人工智能技術(shù)目前還處于初級(jí)階段,還不能廣泛應(yīng)用。
3.用戶對(duì)人工智能工具的要求更嚴(yán)格
在簡單的任務(wù)上,人工智能系統(tǒng)可以分析和處理的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)大于人類。然而,盡管在更高的準(zhǔn)確性和效率上比人類表現(xiàn)得更好,但用戶對(duì)失敗的人工智能系統(tǒng)的能力提出質(zhì)疑。比如,在接連的幾次車禍?zhǔn)录?,公眾?duì)自動(dòng)駕駛汽車及其性能的看法發(fā)生了變化,媒體和政府也很快就開始質(zhì)疑并討論自動(dòng)駕駛汽車能否取代人類駕駛,事實(shí)上,與自動(dòng)駕駛汽車相比,人類駕駛汽車每年每公里所造成的嚴(yán)重撞擊次數(shù)更多。這種對(duì)人工智能及其能力的高度期望帶來了更大的復(fù)雜性,因?yàn)槿祟悓?duì)人工智能故障的容忍度比對(duì)人類故障的容忍度更低。當(dāng)人工智能審查工具出現(xiàn)了難以避免的錯(cuò)誤時(shí),公眾的失望和憤怒心理會(huì)對(duì)人工智能審查工具的進(jìn)一步發(fā)展不利。
許多人工智能所面臨的技術(shù)挑戰(zhàn)將對(duì)用戶的言論自由產(chǎn)生種種負(fù)面影響,主要有以下幾個(gè)方面
1.世界各地的文化和法律差異
Facebook、YouTube、微博等在線平臺(tái)在全世界范圍內(nèi)擁有數(shù)千萬用戶。每個(gè)平臺(tái)都制定了自己的標(biāo)準(zhǔn)或指導(dǎo)方針,引領(lǐng)著在線審查內(nèi)容的方向。平臺(tái)應(yīng)用人工智能在線審查工具時(shí),要為每個(gè)國家制定有效的政策,這就需要謹(jǐn)慎對(duì)待文化信仰、政治觀點(diǎn)、歷史背景和法律法規(guī)。
文化差異導(dǎo)致用戶對(duì)適當(dāng)內(nèi)容的理解出現(xiàn)了明顯的偏差,同樣的言論在一個(gè)國家是恰當(dāng)?shù)?,而在另一個(gè)國家變得不當(dāng),如果因此刪除了此項(xiàng)內(nèi)容,這種“一刀切”的做法會(huì)引發(fā)用戶的“寒蟬效應(yīng)”。在法律層面,每個(gè)國家或地區(qū)都擁有自己的內(nèi)容審查機(jī)制,有些國家的審查體制并不精密,不標(biāo)明紅線,容易被任意解釋,從而在社會(huì)中創(chuàng)造出自我審查和過度審查的文化。
2.難以準(zhǔn)確定位語境
一個(gè)已經(jīng)發(fā)布的內(nèi)容是否違反了法律,通常取決于機(jī)器學(xué)習(xí)工具在分析中沒有使用語境。機(jī)器學(xué)習(xí)工具的分析中可以包含一些上下文,例如說話人的身份、消息的發(fā)送者和接收者之間的關(guān)系,其他背景,如歷史、政治和文化背景,這些對(duì)于一個(gè)人工智能工具來說,無疑增加了學(xué)習(xí)訓(xùn)練的難度。如果把人工智能在線審查應(yīng)用于發(fā)現(xiàn)仇恨歧視性言論中,首先,要找到合適的數(shù)據(jù)來訓(xùn)練人工智能算法。其次,應(yīng)該開發(fā)能夠識(shí)別仇恨言論或攻擊性內(nèi)容的程序。此外,還需要阻止那些不斷想出辦法攻破系統(tǒng)的違法違規(guī)發(fā)布者或傳播者[5]。
僅僅在技術(shù)層面上做到這些還遠(yuǎn)遠(yuǎn)不夠。眾所周知,語言是一門復(fù)雜的藝術(shù),對(duì)一個(gè)詞語或句子的適當(dāng)性判斷標(biāo)準(zhǔn)是非常主觀的,一句話里所流露出的情感和深層含義,有時(shí)連人類都難以分辨,戲謔、反諷等言論和真正的不當(dāng)言論的區(qū)分,是人工智能在線內(nèi)容審查需要跨越的門檻,目前,人工智能審查技術(shù)對(duì)語境和語用習(xí)慣的分析還不夠敏銳,這會(huì)讓很多不當(dāng)內(nèi)容從它的眼皮下“溜走”。
3.誤報(bào)和漏報(bào)
使用算法系統(tǒng)檢測(cè)特定類型的語言和行為時(shí),總是會(huì)出現(xiàn)所謂的誤報(bào)(錯(cuò)誤地將某些內(nèi)容歸類為不當(dāng))和漏報(bào)(漏報(bào)了一些本應(yīng)歸類為不當(dāng)?shù)膬?nèi)容)情況。從言論自由的角度來看,如果這些工具被用于標(biāo)記、降級(jí)或刪除內(nèi)容,或者將相關(guān)內(nèi)容創(chuàng)作者也作為對(duì)象以供進(jìn)一步地審查,則誤報(bào)可能給個(gè)人的言論自由權(quán)帶來重大負(fù)擔(dān),導(dǎo)致無法將仇恨言論、騷擾和其他不當(dāng)?shù)膬?nèi)容與正確、合理、合法的內(nèi)容相區(qū)別,這樣就不利于用戶自由表達(dá)觀點(diǎn)。另一方面,對(duì)內(nèi)容的遺漏會(huì)導(dǎo)致對(duì)仇恨言論、極端主義以及其他不當(dāng)言論處理失敗,會(huì)對(duì)被動(dòng)接收的網(wǎng)絡(luò)用戶造成傷害。[5]
4.潛在歧視和算法偏差
在開發(fā)過程中,人工智能算法可以導(dǎo)致有意和無意的偏差。算法偏差可能是由標(biāo)記監(jiān)督學(xué)習(xí)數(shù)據(jù)集(特別是手動(dòng)執(zhí)行時(shí))以及不具有代表性和偏差的數(shù)據(jù)集的過程引起的。此外,訓(xùn)練過程中的反向傳播和參數(shù)選擇都會(huì)導(dǎo)致或增強(qiáng)偏差。受許多復(fù)雜人工智能算法不透明性的影響,解釋偏差來源很困難。在內(nèi)容審查過程中,人類審查員可能會(huì)引入明顯的偏差,導(dǎo)致調(diào)節(jié)過程不一致,每一位審查員對(duì)適當(dāng)言論的判斷的都有自己的看法,對(duì)他們所受的指導(dǎo)方針也有自己的解釋個(gè)人對(duì)有害內(nèi)容的敏感度會(huì)有所不同。
算法系統(tǒng)有可能在與代表性不足的群體(包括種族和少數(shù)族裔、政治傾向等)相關(guān)的數(shù)據(jù)上表現(xiàn)不佳。這是由于缺乏數(shù)據(jù)和依賴訓(xùn)練數(shù)據(jù)庫:如果數(shù)據(jù)受到現(xiàn)實(shí)社會(huì)的偏見和不平等思想的影響,那么在這些數(shù)據(jù)上訓(xùn)練的模型可能會(huì)反映或放大這些不平等。這會(huì)給社會(huì)和個(gè)人的言論自由帶來嚴(yán)重的風(fēng)險(xiǎn)。因此,必須采取有效的預(yù)防措施,確保識(shí)別和減輕無意識(shí)偏差的影響,在訓(xùn)練人工智能工具時(shí)使用無偏差、有代表性的數(shù)據(jù)庫,減少潛在的偏差來源。
內(nèi)容控制和審查的應(yīng)用越來越廣泛就越能暴露出人工智能仍處于初級(jí)和不完善狀態(tài)的事實(shí)。AI在內(nèi)容審查上面臨著種種技術(shù)挑戰(zhàn),這些挑戰(zhàn)會(huì)直接或間接地影響用戶的言論表達(dá)意愿。因此,在技術(shù)和法律層面,應(yīng)注重提高現(xiàn)有人工智能在線審查的透明度,增強(qiáng)人工智能審查功能的研發(fā)、引入外部監(jiān)督糾正機(jī)制,確保用戶能夠訴諸于補(bǔ)救機(jī)制,從而維護(hù)用戶的言論自由。