郭佳楠 陳婉瑩
1.鄭州工商學(xué)院馬克思主義學(xué)院,河南,鄭州,450000;2.中國人民大學(xué)數(shù)字人文研究中心,北京,100872;3.周口師范學(xué)院馬克思主義學(xué)院,河南,周口,466001
2022年11月20日,美國人工智能研究公司OpenAI 發(fā)布了人工智能應(yīng)用軟件—ChatGPT,再次引發(fā)了人們對人工智能的關(guān)注和討論熱潮。近年來生成式人工智能(Generative Artificial Intelligence,簡稱GAI)技術(shù)快速發(fā)展,同時在人類生活和生產(chǎn)領(lǐng)域中得到廣泛應(yīng)用,該技術(shù)涵蓋了創(chuàng)意產(chǎn)業(yè)、醫(yī)療保健、虛擬現(xiàn)實、藝術(shù)和文化創(chuàng)作等多個領(lǐng)域,為各行各業(yè)帶來了更多的創(chuàng)新,并由此產(chǎn)生了巨大的社會經(jīng)濟價值。
著名技術(shù)哲學(xué)家馬丁·海德格爾(Martin Heidegger)對現(xiàn)代技術(shù)有著很深的憂慮,在他看來,如果把技術(shù)當(dāng)作某種中性的東西,我們就容易聽任技術(shù)的擺布。[1]因此,面對迅速迭代的技術(shù)沖擊和充滿不確定性的未來,我們不僅要關(guān)注能用ChatGPT 及其類似軟件做些什么,還要警惕它們可能會對我們做些什么,既要深刻理解生成式人工智能技術(shù)的內(nèi)涵與運行機理,還要看到它的技術(shù)暗面與潛在風(fēng)險,并思考如何適應(yīng)與應(yīng)對新的技術(shù)環(huán)境與生存境遇。這也正是本文關(guān)切的本質(zhì)問題。
生成式人工智能技術(shù)是指基于生成對抗網(wǎng)絡(luò)、大型預(yù)訓(xùn)練模型等人工智能的技術(shù)方法,通過對已有數(shù)據(jù)的學(xué)習(xí)和識別,以適當(dāng)?shù)姆夯芰ι上嚓P(guān)內(nèi)容的技術(shù)。其具體內(nèi)涵是“自回歸(autoregressive)”,方式是“預(yù)訓(xùn)練(pretrain)+提示(prompt)”,在語言生成上比此前谷歌開發(fā)的BERT 模型更具優(yōu)勢。生成式人工智能的“神奇”來源于深度學(xué)習(xí)、生成式預(yù)訓(xùn)練和Transformer 模型架構(gòu),通過自回歸的方式來預(yù)測生成符合自然語言規(guī)律的文本。目前ChatGPT 已經(jīng)可以輕松完成自然語言處理(NLP)領(lǐng)域的絕大部分任務(wù),同時在計算機視覺、圖形學(xué)習(xí)等領(lǐng)域也頗具發(fā)展?jié)摿?。[2]總體而言,生成式人工智能技術(shù)對于人類社會、人工智能的意義是里程碑式的。短期來看生成式人工智能技術(shù)改變了基礎(chǔ)的生產(chǎn)力工具,中期來看將會改變社會的生產(chǎn)關(guān)系,長期來看將促使整個社會生產(chǎn)力發(fā)生質(zhì)的突破,在這樣的生產(chǎn)力工具、生產(chǎn)關(guān)系、生產(chǎn)力變革中,生產(chǎn)要素—數(shù)據(jù)價值將被極度放大。
生成式人工智能技術(shù)的基礎(chǔ)是機器學(xué)習(xí)模型,特別是它非常依賴于深度學(xué)習(xí)算法和神經(jīng)網(wǎng)絡(luò)模型,這些模型通過大量的訓(xùn)練數(shù)據(jù)來理解其中的模式和規(guī)律。生成式人工智能技術(shù)的核心思想是利用人工智能算法生成具有一定創(chuàng)意和質(zhì)量的內(nèi)容。通過訓(xùn)練模型和大量數(shù)據(jù)的學(xué)習(xí),生成式人工智能技術(shù)可以根據(jù)輸入的條件或指導(dǎo),生成與之相關(guān)的內(nèi)容。從計算智能、感知智能再到認知智能的進階發(fā)展來看,生成式人工智能技術(shù)通過單個大規(guī)模數(shù)據(jù)的學(xué)習(xí)訓(xùn)練,令A(yù)I 具備了多個不同領(lǐng)域的知識,只需要對模型進行適當(dāng)?shù)恼{(diào)整修正,就能完成真實場景的任務(wù),為人類社會打開了認知智能的大門。具體而言,生成式人工智能技術(shù)的基本運行特征包括:其一,具備通用性而非只在特定場景的應(yīng)用性。其二,能夠進行新穎的、類似于人類的輸出,而不僅僅是描述或解釋現(xiàn)有信息。其三,可以理解多種形式的信息,同時也可以解讀自然語言、圖像、視頻并作出響應(yīng)。總之,生成式人工智能技術(shù)的出現(xiàn)和其目前展現(xiàn)的強大且特有的運行特征,無疑宣告了強人工智能技術(shù)時代已經(jīng)到來。[3]
此外,生成式人工智能技術(shù)不僅能夠充分利用現(xiàn)有的數(shù)據(jù),而且更注重創(chuàng)造新的、富有創(chuàng)意的數(shù)據(jù)。其運行原理是在學(xué)習(xí)的基礎(chǔ)上分析理解數(shù)據(jù),進一步生成具有相似特征的新數(shù)據(jù),同時廣泛應(yīng)用于圖像、文本、音頻等多領(lǐng)域。生成式人工智能技術(shù)之所以能夠迅猛發(fā)展,與其獨特的運行機理及其現(xiàn)有的技術(shù)基礎(chǔ)密不可分:其一,目前各種生成算法已經(jīng)取得突破性創(chuàng)新,技術(shù)運行模式已從分析式AI 發(fā)展為生成式AI;其二,預(yù)訓(xùn)練模型即通常所說的大模型引發(fā)了生成式人工智能技術(shù)能力的質(zhì)變;其三,多模態(tài)AI 技術(shù)得到長足發(fā)展,進而實現(xiàn)AI 革命。[4]也正是這些技術(shù)變化,使得生成式人工智能技術(shù)與傳統(tǒng)人工智能或簡單神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)技術(shù)之間產(chǎn)生了巨大的鴻溝,即前者具備自生成內(nèi)容的能力,可以實現(xiàn)閉環(huán)式學(xué)習(xí)體系的構(gòu)建,通過從海量數(shù)據(jù)信息中自己學(xué)習(xí)要素,生成全新的、原創(chuàng)的專業(yè)知識內(nèi)容或產(chǎn)品,并能持續(xù)提高自身學(xué)習(xí)能力,真正打破了以往人們熟悉的“專業(yè)知識壁壘”。而傳統(tǒng)人工智能或簡單神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)技術(shù)則往往只能根據(jù)訓(xùn)練數(shù)據(jù)進行決策和推斷,缺乏像人類一樣的“常識”,無法真正實現(xiàn)智能化。
首先,生成式人工智能技術(shù)的廣泛運用會侵擾社會意識形態(tài)防線。一方面,隨著生成式人工智能技術(shù)的不斷發(fā)展,在網(wǎng)絡(luò)中添加任何新應(yīng)用程序都會產(chǎn)生新的漏洞,這些漏洞可能會被用來訪問網(wǎng)絡(luò)中的其他區(qū)域,并在意識形態(tài)領(lǐng)域造成多樣性的威脅與挑戰(zhàn)。此外,生成式人工智能應(yīng)用程序還帶來了獨特的意識形態(tài)的風(fēng)險,因為它們包含復(fù)雜的算法,使開發(fā)人員很難識別安全缺陷。
另一方面,生成式人工智能技術(shù)的發(fā)展還不夠成熟,使得人們無法理解其軟件開發(fā)的復(fù)雜細微差別,這使其代碼很容易被不法分子利用,對當(dāng)前的社會意識形態(tài)進行攻擊。在評估GitHub Copilot 生成的代碼安全性的研究中發(fā)現(xiàn),近40%的頂級生成式人工智能技術(shù)都會導(dǎo)致代碼漏洞,這些漏洞的產(chǎn)生通常會瓦解公眾對視覺文本的信任,使曾經(jīng)“有圖有真相”的時代一去不復(fù)返,真相變得更加難以確證[5],社會信任危機日益凸顯。這種真?zhèn)坞y辨的境況與別有用心勢力的以假亂真的行徑相結(jié)合,令意識形態(tài)風(fēng)險趨于復(fù)雜化。
其次,生成式人工智能技術(shù)會對人們的思維方式造成根本性沖擊,從而稀釋人類的獨立思考能力。應(yīng)該說,生成式人工智能技術(shù)對人類獨立思考能力的威脅并不新鮮,尤其是生成式人工智能技術(shù)工具可對某一問題提供快速響應(yīng),使得人們可能放棄以往對某一個問題的批判性反思,從而轉(zhuǎn)向依賴于生成式人工智能技術(shù)所提供的答案,從而為用戶決策行為節(jié)約時間而提高效率。[6]這樣一來,生成式人工智能技術(shù)將會通過增加控制和操縱人的機會,進一步強化對人類批判性思維與獨立思考能力的削弱,并使人類不再嘗試自己獨立思考和寫作,最終逐漸失去批判性思維的鍛煉機會。
再次,生成式人工智能技術(shù)還會危害社會價值觀的塑造。生成式人工智能是當(dāng)今最熱門的人工智能技術(shù)發(fā)展領(lǐng)域之一,它破解了許多以前被認為是不可能解決的難題,并為人們提供了無數(shù)的便利和前所未有的機遇。但是,隨著它不斷發(fā)展和應(yīng)用,生成式人工智能技術(shù)在對人類的價值觀及其邏輯塑造層面也可能會帶來一些危害。[7]例如,生成式人工智能技術(shù)可以學(xué)習(xí)和重復(fù)模仿人類行為,以便完成特定的任務(wù)。然而,在某些情況下,如果生成式人工智能技術(shù)被設(shè)計成需要迎合特定的價值觀或意圖,那么生成式人工智能系統(tǒng)就可能會被嵌入并執(zhí)行這種錯誤的價值觀,并進一步擴大這種錯誤價值觀所帶來的負面影響。此外,雖然生成式人工智能技術(shù)具有強大的數(shù)據(jù)訓(xùn)練與文本生成功能,但是仍然會忽略信息與社會主流價值以及社會發(fā)展需求之間的內(nèi)在聯(lián)系,使得網(wǎng)絡(luò)上出現(xiàn)大量迎合受眾偏好但缺乏內(nèi)涵的信息,從而可能讓使用者超越其價值理性的邏輯取向,做出違背正確社會價值的選擇。[8]
隨著新興生成式人工智能技術(shù)的發(fā)展,一旦存在多個數(shù)據(jù)與信息來源,在現(xiàn)代社交媒體中就很容易產(chǎn)生沖擊人類價值體系的錯誤與虛假信息。生成式人工智能技術(shù)在其數(shù)據(jù)與算法設(shè)計和應(yīng)用的過程中,很可能會產(chǎn)生一些錯誤數(shù)據(jù)甚至虛假信息,也就是說,如果生成式人工智能技術(shù)可以用來欺騙公眾,將某些危險的輸入指令或信息錯誤地分類為安全,那么使用該人工智能技術(shù)的應(yīng)用程序就可以執(zhí)行這些惡意的指令,甚至繞過安全控制系統(tǒng),從而為帶有惡意指令或信息的軟件提供更高的訪問權(quán)限。在這種情況下,這些信息很可能對用戶的自主性產(chǎn)生負面影響,從而削弱人們以往對科學(xué)知識以及真理的信任,甚至對正確的人類價值體系造成沖擊。
此外,在生成式人工智能技術(shù)設(shè)計與使用過程中,責(zé)任主體模糊也會對知識產(chǎn)權(quán)、數(shù)據(jù)合規(guī)與信息保護造成威脅。也就是說,當(dāng)人們與任何生成式人工智能技術(shù)程序共享自己的個人信息或公司信息時,他們一開始會本能地相信該程序?qū)⒇撠?zé)任地處理這些信息,并針對網(wǎng)絡(luò)攻擊采取強有力的保護措施。然而,在使用生成式人工智能技術(shù)工具時,我們可能會無意中分享比我們想象更多的信息內(nèi)容。同時,生成式人工智能技術(shù)應(yīng)用程序還會對用戶數(shù)據(jù)進行任意瀏覽,進而導(dǎo)致人們無法分清相關(guān)數(shù)據(jù)泄露的責(zé)任主體是誰,這使得在如何收集、使用和轉(zhuǎn)儲數(shù)據(jù)方面缺乏適當(dāng)?shù)谋O(jiān)控程序,這種情況會對知識產(chǎn)權(quán)與個人合法信息的保護造成嚴重威脅。
最后,生成式人工智能技術(shù)中存在的數(shù)字鴻溝會沖擊組織體系的正常運行,從而加劇社會不平等。生成式人工智能技術(shù)在一些行業(yè)中的使用可能會進一步?jīng)_擊原有的組織框架,干擾其原本的組織運行體系,從而造成原有組織機構(gòu)的解構(gòu),進一步加劇組織成員收入不平等,最終導(dǎo)致富人越來越富,窮人越來越窮。例如,AI 在金融領(lǐng)域中的使用可能會導(dǎo)致一些族群或地區(qū)的金融組織機構(gòu)的運行受到歧視性干擾,進而引發(fā)模糊責(zé)任邊界的問題。[9]除此之外,AI 也可能會導(dǎo)致數(shù)據(jù)壟斷的情況發(fā)生,并使少數(shù)大型公司和政府機構(gòu)牢牢掌握市場優(yōu)勢,從而排斥其他競爭者。
首先,在生成式人工智能技術(shù)治理層面,相關(guān)政治決策者對該技術(shù)全新的內(nèi)容和知識生產(chǎn)方式的認知缺失,會加劇政府對該技術(shù)進行治理的風(fēng)險。由于其本身技術(shù)設(shè)計與應(yīng)用的復(fù)雜性,生成式人工智能技術(shù)和深度學(xué)習(xí)模型的內(nèi)部運行原理可能很難被人們所理解,即使對于那些直接使用該技術(shù)的人來說也是如此。這導(dǎo)致人工智能得出結(jié)論的方式和原因缺乏透明度,致使關(guān)于“生成式人工智能技術(shù)算法使用哪些數(shù)據(jù),或者為什么它們可能做出有偏見或不安全的決策”的問題缺乏解釋,進而引發(fā)人們對這種不確定性問題的擔(dān)憂[10],這在很大程度上就加劇了政府技術(shù)治理的難度與風(fēng)險,尤其對政府相關(guān)部門如何處理由生成式人工智能技術(shù)引發(fā)的新難題提出了挑戰(zhàn)。
其次,生成式人工智能技術(shù)訓(xùn)練數(shù)據(jù)的持續(xù)擴張還會引發(fā)政府治理的安全風(fēng)險。隨著生成式人工智能技術(shù)生成的圖像和視頻、人工智能變聲器以及深度偽造信息越來越多地滲透到當(dāng)今的政治和社會領(lǐng)域,使得媒體和新聞中信息的真實性變得越來越不可信,因為這些技術(shù)可以輕松創(chuàng)建逼真的照片、視頻、音頻,或?qū)F(xiàn)有圖片或視頻中的一個人物的圖像替換為另一個人物的圖像。[11]有鑒于此,不良行為者很可能用新的途徑來分享錯誤信息或進行戰(zhàn)爭宣傳,從而構(gòu)建噩夢般的敘事場景,這使得政府部門在進行社會治理過程中面對了更多的安全風(fēng)險與挑戰(zhàn),尤其是在規(guī)制與監(jiān)督生成式人工智能技術(shù)設(shè)計與應(yīng)用層面需要構(gòu)建更為系統(tǒng)的體制機制來加以應(yīng)對。
最后,生成式人工智能技術(shù)大模型的生成物形式各異,從政府治理層面而言,這會引發(fā)政府治理中前所未見的新問題。應(yīng)該說,對這些新的生成物形式的社會操縱是生成式人工智能技術(shù)給政府治理帶來的新挑戰(zhàn)。尤其是隨著西方政客們依靠平臺來宣傳自己的觀點,人們對新問題的恐懼已經(jīng)成為現(xiàn)實,例如,小費迪南德·馬科斯(Ferdinand·Marcos Jr.)在菲律賓2022年大選期間率領(lǐng)著一支“TikTok 巨魔大軍”,來奪取年輕菲律賓人的選票。實際上,這里關(guān)于TikTok 的事件只是個別政客操控基于人工智能算法的社交媒體平臺的例子之一,可以看出這種人為的操控提前在用戶的提要中填充了有助于實現(xiàn)其政治利益的信息內(nèi)容。[12]在當(dāng)代社會治理中,政府如何應(yīng)對這類行為,以及某些算法未能過濾掉有害和不準確內(nèi)容的現(xiàn)實,引發(fā)了人們對政府治理能力的擔(dān)憂。
1.政治決策面臨新風(fēng)險
首先,政治決策機制重塑。生成式人工智能技術(shù)在智能方面的進步如此之快,以至于它可能會變得有知覺,并可能以惡意的方式超越人類的控制。在這種情況下,大模型憑借其無與倫比的信息收集處理能力,配合先進的算法,處理信息后給出的決策建議在相當(dāng)程度上具有整合性和便利性,將不可避免地導(dǎo)致以往政治決策機制的變革。
其次,政治決策忽視偏好問題。生成式人工智能畢竟只是一種技術(shù),在收集信息時只是出于單純的收集目的。盡管大模型處理海量數(shù)據(jù)資源,且模型靈敏度會依靠日后訓(xùn)練與數(shù)據(jù)填補而提升,但政治決策對象畢竟是具備情感偏好的生命體,他們所喜好的政策未必就是最符合程序計算的政策。這就出現(xiàn)了一個極困難的問題—人工智能系統(tǒng)可能始終無法完全理解政治決策對象的情感訴求。
最后,政治信任降低的風(fēng)險。大模型深度學(xué)習(xí)模型進入政治生活后,無論是政治決策者抑或是政治訴求表達者均可利用該模型從事政治活動。在這種情況下,人工智能聊天機器人或在線人工智能面部過濾器可能會訪問并收集政治決策者的用戶數(shù)據(jù)—但它會在哪里使用、如何使用這些數(shù)據(jù),越來越多的數(shù)據(jù)讓人們難以判斷什么是重要的,什么是有意義的。[13]生成式人工智能技術(shù)系統(tǒng)通常會收集個人數(shù)據(jù)來定制用戶體驗或幫助訓(xùn)練正在使用的人工智能模型(特別是免費的人工智能工具),當(dāng)被提供給人工智能系統(tǒng)時,數(shù)據(jù)甚至可能被認為對其他用戶來說是不安全的,進而導(dǎo)致政治決策者與訴求表達者的雙向信任危機。
2.輿論傳播面臨新挑戰(zhàn)
第一,錯誤信息和觀點對公眾輿論的潛在引導(dǎo)。生成式人工智能技術(shù)的算法和數(shù)據(jù)具有魯棒性、透明度、可解釋性、可靠性欠缺等問題,盡管“大數(shù)據(jù)+海量參數(shù)+大算力”提升了模型的總體擬人表現(xiàn),但它畢竟不是像人一樣理解與思考問題,有時無法從事實上區(qū)分信息的真實性,難以識別數(shù)據(jù)隱含的偏見和毒性,從而產(chǎn)生虛假的、誤導(dǎo)性的或低質(zhì)量的結(jié)果。這些錯誤和偏見往往會影響人的政治判斷和政治選擇,甚至隱蔽地塑造和誤導(dǎo)公眾輿論,沖擊主流價值和觀念。
第二,大語言模型可能弱化國家闡釋權(quán)。國家闡釋權(quán)代表了國家在引導(dǎo)社會輿論、宣揚社會思想方面的權(quán)威性,是國家軟實力的重要組成部分。隨著大模型全面嵌入社會并參與某些重大概念與事件的解釋,由于其普及性和便利性,可能使社會公眾習(xí)慣于第一時間尋求大模型解釋路徑。這種先入為主性疊加以及大模型輸出系統(tǒng)的高度擬人化與完備化,將嚴重削弱官方解釋的說服力,削弱國家闡釋的權(quán)威性。
第三,大語言模型可能淪為意識形態(tài)武器。生成式人工智能技術(shù)在算力、算法、數(shù)據(jù)等方面的高門檻容易導(dǎo)致少數(shù)國家的技術(shù)壟斷,可能被當(dāng)作意識形態(tài)戰(zhàn)爭或顏色革命的工具,從而加速虛假意識形態(tài)的生產(chǎn)與傳播。[14]一國可針對他國公眾心理弱點來供給帶有政治目的與本國意識形態(tài)偏好的內(nèi)容產(chǎn)品,進而影響目標國公眾的政治判斷和政治選擇,間接把控政治走向,對目標國意識形態(tài)安全陣地進行隱形滲透。
3.技術(shù)監(jiān)管難度增大
在關(guān)于生成式人工智能技術(shù)的監(jiān)管層面,一方面監(jiān)管需求與監(jiān)管能力之間存在差距。隨著生成式人工智能技術(shù)的逐漸發(fā)展,其輸出錯誤或具備隱晦意識形態(tài)宣傳的話語表述,在大多數(shù)情況下難以為非專業(yè)人士所識別。如果政府部門無法及時對網(wǎng)絡(luò)環(huán)境進行正確監(jiān)管、對錯誤信息進行分辨處理,這種由于監(jiān)管缺口而在公眾間廣泛傳播的錯誤信息可能造成嚴重的意識形態(tài)風(fēng)險。
另一方面,隨著生成式人工智能技術(shù)已經(jīng)逐漸滲透到人們生活的各個領(lǐng)域,技術(shù)壟斷正在侵蝕國家治理能力。生成式人工智能技術(shù)的產(chǎn)生、發(fā)展和普及都離不開專業(yè)的科技企業(yè)參與,特別是科技巨頭。盡管這些企業(yè)也在以委托治理的方式參與國家治理目標的實現(xiàn),但大語言模型必需的算法、算力、數(shù)據(jù)三大數(shù)字要素卻被少數(shù)頭部科技企業(yè)掌握,由于其先行優(yōu)勢會進一步擴大規(guī)模效應(yīng),這些企業(yè)必然會形成技術(shù)壟斷趨勢。走向寡頭化的科技巨無霸可能會憑借算法權(quán)力和運作效率模糊國家的權(quán)力邊界,甚至帶來“國家空心化”的危險。
首先,嵌入式道德算法無力過濾基礎(chǔ)文本數(shù)據(jù)的價值偏見。生成式人工智能體無法具備個體意志,也無法擁有倫理決策能力,但是它可以通過對人類主體在道德選擇和倫理決策等方面的學(xué)習(xí)與模擬擁有對“道德”的理解,而生成式人工智能體對道德模擬的實現(xiàn)依賴于人工智能專家們所運用的嵌入式道德算法,反映的其實是算法設(shè)計者的行動目標和價值體現(xiàn)。嵌入式道德算法屬于生成式人工智能技術(shù)算法體系中尚不完備、亟須完善的算法程式,因其運算過程主要是通過模仿而非創(chuàng)造,導(dǎo)致這一程式無法脫離設(shè)計開發(fā)者而成為具有完備道德的機器智能體,也無法通過對基礎(chǔ)文本數(shù)據(jù)的篩選過濾來判斷內(nèi)容本身的價值屬性,更無法有意識的抵制偏見,所以在一定程度上會不可避免地擴大價值偏見。
其次,獎勵算法放大算法設(shè)計者的隱性價值偏見。生成式人工智能技術(shù)究其本質(zhì)仍是以人類為主導(dǎo),按其構(gòu)想創(chuàng)造而來的產(chǎn)物,歸根到底是為人類服務(wù)的,在其算法的設(shè)計開發(fā)過程中,處處都包含著算法設(shè)計者的偏見,這些偏見既包括顯性偏見,也包含著開發(fā)者的隱性偏見。人是一切社會關(guān)系的總和,算法設(shè)計者同樣無法逃離社會關(guān)系,在認識世界與改造世界的活動過程中,在社會關(guān)系和認知體系的局限下,毫無疑問會產(chǎn)生這樣或那樣的價值偏見,而這些價值偏見也在無意識中被帶入到算法世界。而獎勵算法實質(zhì)上是一種差別對待系統(tǒng),通過類似于“貼標簽”的舉動,使得那些不易察覺的隱性價值偏見無處不在。
再次,算法設(shè)計者的偏見影響算法輸出的準確性。算法不是憑空產(chǎn)生的,而是人類行為的產(chǎn)物,是受到人類支配供給人類使用的人造物,算法設(shè)計者的意識滲透在算法模型設(shè)計的每一步,算法設(shè)計者的固有偏見也阻礙算法程序自覺摒棄偏見,使其不能成為一種完全公正、客觀的技術(shù)。無論是在開發(fā)算法技術(shù)、界定問題范疇,還是在選擇目標變量的環(huán)節(jié),都存在著算法設(shè)計者的認知差異與思維偏見,這些偏見會時刻影響算法程序在生產(chǎn)內(nèi)容和輸出內(nèi)容過程中的客觀、公正立場,進而傳播孤立、片面甚至是與客觀事實完全背離的信息,影響信息判斷的準確性,導(dǎo)致大眾對于信息的認知出現(xiàn)偏差乃至偏見。
最后,RLHF1 重復(fù)訓(xùn)練基礎(chǔ)語言模型,強化算法偏見。ChatGPT 采用RLHF 重復(fù)訓(xùn)練基礎(chǔ)語言模型,大量的人類與機器交換提問者及回答者身份的人機互動訓(xùn)練,使得ChatGPT 這樣的生成式人工智能逐漸具備評斷生成答案的能力,而在算法系統(tǒng)與用戶的不斷交互互動中,ChatGPT 通過循環(huán)往復(fù)的強化學(xué)習(xí)來掌握用戶偏好,因其在向周圍環(huán)境學(xué)習(xí)時無法準確判斷數(shù)據(jù)的取舍與對錯、無法保障訓(xùn)練算法的原始數(shù)據(jù)的客觀性,從而導(dǎo)致其存在被惡意使用的風(fēng)險。[15]ChatGPT還會產(chǎn)生互動偏見與數(shù)據(jù)導(dǎo)向的錯誤的價值觀,在人機互動過程中不斷吸取乃至復(fù)制隱含其中的各種價值偏見,進而在內(nèi)容生成時創(chuàng)造出更多的偏見。隨著RLHF 訓(xùn)練模式周而復(fù)始的進行,ChatGPT 甚至可能會成為邪惡勢力輸出自身觀點的傳聲筒與擴音器。
首先,從技術(shù)與政治的互動關(guān)系來看,算法政治偏見影響世界建構(gòu)的基本方式。一般而言,“選擇偏見、受數(shù)據(jù)影響的算法,很可能會導(dǎo)致人們過于放大某一族群或群組數(shù)據(jù)的社會影響,從而使該算法對其有利,但代價是犧牲其他群體的合法利益”。[16]在這種負面影響下,算法在嵌入一些政治觀點后,很容易對人們的生活方式進行重塑,這就導(dǎo)致人們操控世界的自主性受到嚴重的負面影響,甚至對以往真理性或真實性的世界建構(gòu)造成危害。而這種危害往往會造成與生成式人工智能技術(shù)有關(guān)的利益相關(guān)群體之間的沖突,進而促致群體間個體的不信任。
其次,算法間接成為西方國家靶向干預(yù)他國意識形態(tài)的技術(shù)工具。ChatGPT 的誕生標志著算法技術(shù)的新起點,也展示了其發(fā)展的全新可能。但是,ChatGPT 所具有的算法與數(shù)據(jù)低透明性,使其對輿論影響的客觀性存疑。持有偏見的西方國家利用ChatGPT 所具有的高度擬人化與使用便利化,通過算法霸權(quán)掩蓋其真實面目,采用不同于傳統(tǒng)偏見形式的算法偏見干預(yù)他國意識形態(tài),甚至爭奪領(lǐng)導(dǎo)權(quán)。由于ChatGPT 被認為具備所謂的“公正、客觀”的特性,它可能會間接成為西方國家靶向干預(yù)他國意識形態(tài)的技術(shù)政治工具。當(dāng)前,美國具有世界上最先進的生成式人工智能技術(shù),它極有可能為了維護自身的霸權(quán)地位,利用算法霸權(quán)對其他國家進行意識形態(tài)布勢,威脅其他國家意識形態(tài)領(lǐng)導(dǎo)權(quán)的安全。
最后,算法逐漸成為西方國家輸出自身意識形態(tài)的重要媒介。ChatGPT 擁有深度學(xué)習(xí)的優(yōu)勢,一經(jīng)誕生,就憑借其數(shù)據(jù)分析能力與學(xué)習(xí)能力快速滲透到社會生活的方方面面之中,并因此產(chǎn)生了強大的影響力與控制力。在ChatGPT 爆火的今天,西方國家因其在復(fù)雜精密算法技術(shù)上的壟斷地位掌握著人工智能領(lǐng)域的絕對優(yōu)勢,一定意義上也實現(xiàn)了自身對話語權(quán)的壟斷。[17]以ChatGPT 為話語媒介,西方國家在人工智能領(lǐng)域繼續(xù)推進西式話語霸權(quán)。同時,隨著ChatGPT越來越多地受到西方國家算法設(shè)計者的民主觀念滲透,其在內(nèi)容生成與輸出上進一步表現(xiàn)出西方國家的意識形態(tài),在技術(shù)外衣的包裝之下,西方國家通過算法進一步推行受資本壟斷的話語霸權(quán),通過制造傳播涵蓋偏見的信息影響大眾對于客觀事實的正確認知,以此實現(xiàn)自身的利益。
在數(shù)字分身、數(shù)字永生等概念層出不窮的當(dāng)下,一方面人類的有限認知弱化了對自我價值的反思。在某種程度上,在算法技術(shù)的包裹下,人類獲得了更多便利的同時也被技術(shù)引導(dǎo)、支配行為進而被囚禁在算法監(jiān)獄中,每日接觸單一的信息,失去了自主選擇多樣化信息、自由拓寬視野的權(quán)利,被動成為信息投喂的接收者,變成算法世界中的烏合之眾,失去了人類個體的個性化,使得作為一個現(xiàn)實的人的主體地位不斷被消解,淪為算法的附庸,人的本質(zhì)被異化,人的有意識的活動被剝奪,使其沉浸在生成式人工智能技術(shù)的使用便利性之中,逐漸喪失獨立思考判斷能力和自主行動能力,從而不再探討自我價值,不再思考人的發(fā)展性,最終成為被動的服從者。
另一方面,生成式人工智能“替代性實踐”導(dǎo)致對主體身份的質(zhì)疑。生成式人工智能技術(shù)能夠通過對行為實踐的介入支配人們的全部社會生活,迫使人類在算法技術(shù)監(jiān)視之下,將其主體意識暴露在算法技術(shù)中,正如沉默的螺旋一樣,人類在無意識中進入自我控制、自我規(guī)訓(xùn)的狀態(tài),不自覺地接受ChatGPT 等生成式人工智能的隱形規(guī)訓(xùn),難以控制地陷入其從屬地位,在此過程中ChatGPT 的權(quán)力邊界被混淆,人的主體身份被僭越,人與人工智能的關(guān)系發(fā)生顛倒,最終使得人類在對ChatGPT 的依賴中質(zhì)疑自身的主體性地位,導(dǎo)致主體性的集體沉默,接受資本主義意識形態(tài)的塑造。
生成式人工智能作為“第四次工業(yè)革命”浪潮下備受世界各國關(guān)注的技術(shù)產(chǎn)物,推動了各行各業(yè)數(shù)智化的變革。但與此同時,其所帶來的安全風(fēng)險及社會治理問題也成為全人類所關(guān)注的焦點。黨的二十大報告中也強調(diào)全黨必須主動識變應(yīng)變求變,主動防范化解風(fēng)險。因此,及時有效地提出生成式人工智能技術(shù)的安全風(fēng)險防范策略就成為未來人工智能治理的重中之重。本文將從加強黨的領(lǐng)導(dǎo)、政府參與、社會協(xié)同、法制保障四大方面,構(gòu)建起具有負責(zé)任性、預(yù)見性的生成式人工智能技術(shù)安全風(fēng)險的防范策略。
加強黨的領(lǐng)導(dǎo),就是依托于黨的宗旨、性質(zhì)、政策等為生成式人工智能技術(shù)所存在的安全風(fēng)險防范提供堅強的政治保障。因此,必須牢固樹立以人民為中心的技術(shù)安全風(fēng)險防范理念。同時,需要深刻認識到人民是歷史的創(chuàng)造者,生成式人工智能技術(shù)的存在依舊是人民在認識世界、改造世界進程中的產(chǎn)物。中國共產(chǎn)黨始終堅持以人民為中心,黨的各項事業(yè)的發(fā)展也要落實在解決人民的操心事、煩心事上?;诖?,在設(shè)計研發(fā)生成式人工智能技術(shù)時,要堅持以人民為中心,從為人民服務(wù)的理念出發(fā)。換言之,生成式人工智能技術(shù)的出現(xiàn)并不能僅考慮技術(shù)的先進與否,更需要考慮人民的實際所需,使得人工智能實現(xiàn)真正的便民化、利民化。
此外,還應(yīng)該著力引導(dǎo)生成式人工智能技術(shù)在社會治理中的善智發(fā)展?!吧浦恰奔礊楦呙鞯?、良好的人工智能。此概念更加關(guān)注于生成式人工智能技術(shù)的價值目標,以增進人類的共同福祉為落腳點。發(fā)展安全、合道德的“善智”包含著生成式人工智能技術(shù)開發(fā)和應(yīng)用的三大原則:不能傷害人;不應(yīng)該歧視人;不應(yīng)該“操縱”人。[18]中國共產(chǎn)黨作為中國各項事業(yè)的領(lǐng)導(dǎo)者,在發(fā)揮總攬全局、協(xié)調(diào)各方的政治功能上要力求引導(dǎo)生成式人工智能技術(shù)的善智發(fā)展,不僅要注重技術(shù)創(chuàng)新,而且也要在有效應(yīng)用的過程中重視其價值標準的考量。
最后,大力提升生成式人工智能技術(shù)時代基層黨組織的組織動員能力。中國共產(chǎn)黨作為馬克思主義的政黨,一直保持著加強自我管理,進行自我革命的優(yōu)良傳統(tǒng),也一直將基層黨組織建設(shè)視為一項重要戰(zhàn)略資源。針對生成式人工智能技術(shù)這樣的新生事物,更要重視基層黨組織的建設(shè),夯實基層黨組織的基礎(chǔ),為生成式人工智能的發(fā)展做好組織動員工作。因此,首先要在黨的領(lǐng)導(dǎo)下,優(yōu)化組織設(shè)置,擴大黨在人工智能領(lǐng)域的組織覆蓋,因地制宜的探索新型組織形式,增強基層黨組織的執(zhí)政能力;其次,完善生成式人工智能領(lǐng)域基層組織的運行機制,規(guī)范相關(guān)行業(yè)的黨委、黨支部建設(shè),擴大研發(fā)人員中的黨員人數(shù),形成嚴密的上下貫通、執(zhí)行有力的基層組織體系。
黨的二十大報告提出,要加快建設(shè)數(shù)字中國。[19]這也意味著政府?dāng)?shù)字化轉(zhuǎn)型也即將提上日程。與此相對應(yīng)的,生成式人工智能的技術(shù)發(fā)展也將為數(shù)字政府賦能。因此,未來政府應(yīng)當(dāng)承擔(dān)好自身肩負的治理責(zé)任,積極發(fā)揮政府在生成式人工智能技術(shù)安全風(fēng)險防范中的主導(dǎo)作用。
第一,在生成式人工智能技術(shù)嵌入政府治理的過程中,應(yīng)該秉持包容審慎的原則。新技術(shù)的產(chǎn)生必然帶來新的風(fēng)險與挑戰(zhàn),生成式人工智能技術(shù)也同樣如此。也就是說,在政府治理中嵌入生成式人工智能技術(shù)依舊會面臨著信息泄露、數(shù)據(jù)存在偏差、技術(shù)處理不到位等問題。因此,秉持包容審慎的原則才能有效地發(fā)揮人工智能輔助政府治理的功能。在此過程中,要接受可能存在的誤區(qū)、有效地分析原因所在,而分析的目的在于通過政策制定者針對過往的開發(fā)活動,借助于公眾的使用反饋,查找自身所存在的缺陷,進行深刻且持續(xù)的自省,進而使新技術(shù)得到進一步的完善與提升。嵌入反思維度的重點在于強調(diào)生成式人工智能技術(shù)政策的公眾參與,依托于決策者對公眾滿意度的重視,進一步強化生成式人工智能技術(shù)政策制定者的社會責(zé)任感與道德使命感,以此來提升人工智能的社會價值。最后及時地開展后續(xù)問題的處理;同時,在政府治理中不能完全依賴于人工智能,還要以審慎的原則保留人工智能提供的數(shù)據(jù),做好備案工作。
第二,制定生成式人工智能時代技術(shù)安全風(fēng)險防范的有效公共政策。生成式人工智能技術(shù)應(yīng)該惠及公眾生活的方方面面,其中涉及人們公共生活中多方面多領(lǐng)域的利益。政府作為行政機關(guān),有責(zé)任保障公眾的合理合法利益的實現(xiàn)。因此,如果政府想要發(fā)揮其正常的技術(shù)治理職能,那么就需要在制定并執(zhí)行公共政策的時候多方考慮可能存在的生成式人工智能技術(shù)安全風(fēng)險,評估多方的利益訴求,進而實現(xiàn)技術(shù)效益最大化、服務(wù)最佳化。
第三,建立生成式人工智能嵌入技術(shù)安全風(fēng)險防范的各項配套機制。生成式人工智能技術(shù)的發(fā)展與完善不僅在于技術(shù)的研發(fā)是否順利,而且也要考慮到市場的效益、成果的回報、社會的反響等方面的因素。同時,還要考量不同技術(shù)風(fēng)險帶來的后果。因此,政府要建立各項相關(guān)的配套措施,如市場準入的標準、價格的管控、風(fēng)險應(yīng)急的機制,研究制定重點領(lǐng)域關(guān)鍵技術(shù)清單,建立風(fēng)險預(yù)警指標體系和監(jiān)測預(yù)警機制,讓生成式人工智能技術(shù)在應(yīng)用過程中更好地揚長避短。
第四,積極構(gòu)建生成式人工智能技術(shù)嵌入政府治理的管理機制。一般而言,生成式人工智能技術(shù)具有實現(xiàn)效率最大化、信息處理便捷化等優(yōu)勢,這些優(yōu)勢將有助政府工作的開展與管理??梢哉f,將生成式人工智能技術(shù)引入政府治理的管理環(huán)節(jié),將有助于優(yōu)化政府工作模式,建構(gòu)高效率的數(shù)字政府模式,如人口普查、土地普查等工作借助生成式人工智能技術(shù)開展將會省時省力,也有助于賦能政府的科學(xué)決策,建成智慧數(shù)字政府,如通過線上政府服務(wù)大廳的創(chuàng)建,滿足廣大人民群眾足不出戶就能辦理業(yè)務(wù)的需求。
第五,建立健全生成式人工智能技術(shù)嵌入政府治理的安全保障體系。社會安定、人民安全是國之大事,安全問題也是政府治理工作的題中要義。生成式人工智能技術(shù)在安全風(fēng)險防范領(lǐng)域的研發(fā)與應(yīng)用,將進一步改善社會治安,提升人民生活的幸福感。因此,建立健全生成式人工智能技術(shù)嵌入政府治理的安全保障體系將更有助于落實政府職責(zé),完善政府治理。
生成式人工智能技術(shù)的研發(fā)及應(yīng)用涉及整個社會,人人都可共享其發(fā)展成果,但人人也會受到其技術(shù)安全風(fēng)險帶來的影響。因此,針對生成式人工智能技術(shù)的安全風(fēng)險防范應(yīng)該做到人人有責(zé)、人人負責(zé),需要建立起共建共治共享的技術(shù)安全風(fēng)險防范新格局。要打造生成式人工智能時代的技術(shù)安全風(fēng)險防范共同體,即發(fā)展政府引導(dǎo)、企業(yè)研發(fā)、公眾監(jiān)督這樣的安全風(fēng)險防范共同體才能多角度多主體地構(gòu)建全面的防范體系。每個主體在各司其職的同時兼顧其他主體的有效需求,才能促進生成式人工智能技術(shù)向上發(fā)展,輔助好人們的生產(chǎn)與生活。要提高社會公眾參與智能化安全風(fēng)險防范與治理的能力。社會公眾雖然不完全是生成式人工智能技術(shù)的主導(dǎo)研發(fā)者,但都享受到了該技術(shù)帶來的好處。社會公眾也有義務(wù)來為其安全風(fēng)險防范與治理貢獻自己的一份力量,這就需要社會公眾增強安全風(fēng)險防范的意識和提升安全風(fēng)險治理的能力。生成式人工智能技術(shù)的相關(guān)產(chǎn)品最終是要投放到社會中的,參與社會各項事業(yè)的建設(shè),使其能夠造福于公眾生活,因此,引導(dǎo)研發(fā)者與政策制定者、公眾一同探討生成式人工智能技術(shù)所產(chǎn)生的相關(guān)問題,更體現(xiàn)出治理生成式人工智能技術(shù)問題的包容性與民主性。力求通過多方集體審議,實現(xiàn)人工智能技術(shù)對人們追求更加美好生活的完美輔助,更好地檢測與評估該技術(shù)的使用效果及其對社會的效益。
另外,需要進一步完善共建共治共享的智能化安全風(fēng)險防范制度。形成共建共治共享的生成式人工智能技術(shù)安全風(fēng)險防范制度能有效實現(xiàn)該技術(shù)發(fā)展的良性循環(huán)。因此,這就需要改革社會組織管理制度,注重對生成式人工智能技術(shù)的設(shè)計主體進行培育與引導(dǎo),調(diào)動起其參與安全風(fēng)險防范活動的積極性與主動性;健全各類社會治理主體依法治理、有序參與機制,對于涉及的主體建立起相應(yīng)的職能分工、利益協(xié)調(diào)、獎懲管理等制度,積極構(gòu)建安全風(fēng)險防范治理協(xié)同機制,鼓勵、引導(dǎo)社會組織、人民群眾參與進來,實現(xiàn)政府治理同社會以及居民自治的良性互動。
最后,積極構(gòu)建各司其職且責(zé)任到位的防范機制。在應(yīng)對生成式人工智能技術(shù)安全風(fēng)險的過程中,不同責(zé)任主體應(yīng)當(dāng)建立起相應(yīng)的防范機制,這些防范機制可以從政治、經(jīng)濟、法律等多個維度對其安全風(fēng)險進行規(guī)制,同時在這些防范機制建構(gòu)與運行的過程中,相關(guān)工作人員也應(yīng)當(dāng)做到各司其職,嚴格按照相關(guān)規(guī)范來約束自身的行為,在技術(shù)應(yīng)用的過程中發(fā)揮監(jiān)督與監(jiān)管的職責(zé)。
法案天下,社會各項事務(wù)的有效開展都要以法律的準繩加以約束。生成式人工智能技術(shù)在促進社會發(fā)展的同時所帶來的風(fēng)險挑戰(zhàn)也需要通過法律進行界定。尤其是在當(dāng)前人工智能應(yīng)用廣泛的時代,需要從不同的角度加強對其設(shè)計與應(yīng)用的監(jiān)督與管理,尤其是從立法、司法、執(zhí)法的不同維度對生成式人工智能技術(shù)進行規(guī)制。
首先,努力樹立生成式人工智能時代中應(yīng)對技術(shù)安全風(fēng)險的法律思維。生成式人工智能技術(shù)是社會的產(chǎn)物,受制于社會法律的約束。因此,生成式人工智能技術(shù)的研發(fā)者、生產(chǎn)者及使用者都需要具有法律思維,要在合理合法的條件下規(guī)范使用人工智能,不能借助于其高科技手段來觸犯法律的底線。
其次,建立健全智能化社會中風(fēng)險治理的法律規(guī)制體系。生成式人工智能作為一項新興技術(shù),急需健全關(guān)于其社會風(fēng)險治理的法律規(guī)制體系,當(dāng)前我國也在積極推進生成式人工智能領(lǐng)域的相關(guān)立法工作,形成了多層級、多維度、軟法和硬法相結(jié)合的綜合治理體系。如國務(wù)院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,2019年國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能治理原則—發(fā)展負責(zé)任的人工智能》等相關(guān)文件,都為社會風(fēng)險治理提供了法律保障。[20]
再次,促進生成式人工智能技術(shù)時代社會風(fēng)險防范規(guī)則算法化。法律可以為生成式人工智能技術(shù)的社會風(fēng)險治理提供強有力的保障,反過來生成式人工智能技術(shù)又同樣可以為法律的運作進行高效的賦能,進一步構(gòu)建并完善人工智能的風(fēng)險治理規(guī)范體系。[21]促進生成式人工智能技術(shù)時代社會風(fēng)險防范規(guī)則的算法化,將有助于相關(guān)法律的操作更加智能化與便捷化,提升辦案效率。
最后,構(gòu)建以公平正義為核心的智能社會法律秩序。社會的公平正義是人類社會始終如一的追求,生成式人工智能技術(shù)輔助下建成的智能化社會也同樣如此,構(gòu)建以公平正義為核心的智能社會法律秩序是未來社會法律體系建設(shè)的必然準則。以公平正義來減少生成式人工智能技術(shù)的安全風(fēng)險所帶來的社會不安,更有助于建立和諧有序的智能法治社會。
生成式人工智能大模型正在挑戰(zhàn)社會各個領(lǐng)域中傳統(tǒng)規(guī)則的科學(xué)性和合理性。面對ChatGPT 這類更高效、更便捷的生成式人工智能技術(shù)形態(tài),既不能放任該技術(shù)的失范應(yīng)用,也不能因噎廢食。未來,生成式人工智能技術(shù)能否具有自主意識與自由意志,尚有待驗證。今后在應(yīng)對生成式人工智能大模型的安全風(fēng)險時,方案上應(yīng)采取多元規(guī)制的思路,在已有算法規(guī)制框架的基礎(chǔ)上,制定出具有中國特色、現(xiàn)實可行的風(fēng)險應(yīng)對方案。