鄒開亮, 劉祖兵
(華東交通大學(xué) 人文社會(huì)科學(xué)學(xué)院,江西 南昌 330013)
美國人工智能研究公司OpenAI 于2022 年11 月底發(fā)布首款基于GPT-3.5 架構(gòu)的智能文本撰寫與聊天工具ChatGPT(Chat Generative Pre-trained Transformer),該產(chǎn)品一經(jīng)推出便吸引了數(shù)以億計(jì)的用戶,并受到包括美國微軟、中國百度等全球多家IT 頭部企業(yè)的青睞和國際輿論的高度贊譽(yù)。ChatGPT是一款人工智能算法驅(qū)動(dòng)的自然語言處理系統(tǒng),它憑借Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu)實(shí)現(xiàn)“像人類一樣對(duì)話”、翻譯、生成代碼和撰寫論文等多項(xiàng)須由人類才能完成的復(fù)雜任務(wù)。因具備開放性和跨領(lǐng)域通用性等特征,ChatGPT 成為支撐人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的一項(xiàng)關(guān)鍵基礎(chǔ)設(shè)施,它的橫空出世預(yù)示著下一個(gè)“拐點(diǎn)”的到來,人工智能或?qū)男U荒時(shí)代步入下一發(fā)展階段,即強(qiáng)人工智能時(shí)期(Strong Artificial Intelligence)。
ChatGPT 嶄露頭角得益于RLHF(Reinforcement Learning from Human Feedback,即人類反饋強(qiáng)化算法),一方面,作為ChatGPT 的底層算法,RLHF 在強(qiáng)化訓(xùn)練上表現(xiàn)出前所未有的效率優(yōu)勢。另一方面,與其他新興科技產(chǎn)物一樣,RLHF亦無可避免地存在技術(shù)短板并衍生出潛在的倫理障礙,將人類置于威脅之下。霍金曾多次就人工智能具備毀滅人類的可能性發(fā)出警告,馬斯克也公開建言警惕人工智能的潛在威脅。隨著GPT-3.5接口向全球開放,我們在享用ChatGPT所帶來前所未有的技術(shù)便利時(shí),更需要保持理性的態(tài)度審視其倫理風(fēng)險(xiǎn),厘清其深層次的倫理意蘊(yùn),以便在其中國化應(yīng)用的應(yīng)對(duì)中科學(xué)施策。
繼“元宇宙”的概念被提出后,資本控制下的算法技術(shù)獨(dú)角獸——ChatGPT①資本控制ChatGPT 的技術(shù)開發(fā)和商業(yè)運(yùn)行。該算法的開發(fā)與訓(xùn)練需要較高的資金投入,例如,GPT-3平均訓(xùn)練費(fèi)用為460萬美元,總訓(xùn)練成本多達(dá)1200 萬美元。因OpenAI 難以獨(dú)立承擔(dān)高昂的成本,它與微軟達(dá)成合作并獲得微軟10 億美元的投資。這意味著ChatGPT已被微軟等資本科技寡頭壟斷。引起了社會(huì)公眾對(duì)新一輪人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)的關(guān)注。與此同時(shí),人類也逐漸意識(shí)到存在于其倫理層面的算法歧視、弱化人類主體性、裹脅受眾價(jià)值觀以及沖擊教育與學(xué)術(shù)倫理規(guī)范等負(fù)面問題。
ChatGPT 是基本文本語料喂養(yǎng)和RLHF強(qiáng)化訓(xùn)練的產(chǎn)物,它所表達(dá)的是文本數(shù)據(jù)、強(qiáng)化算法和系統(tǒng)設(shè)計(jì)者的價(jià)值取向。ChatGPT 文本輸出看似中立和客觀,實(shí)則是算法與人類偏見共謀的“產(chǎn)兒”,其本身隱藏著偏見、歧視與暴力,具體表現(xiàn)在性別歧視、政治不確定和種族偏見等方面。
1.ChatGPT揭開算法性別歧視的最后一塊“遮羞布”
“技術(shù)中立論”認(rèn)為,技術(shù)的目的存在于服務(wù)使用者,它作為工具是不存在價(jià)值屬性的,技術(shù)在價(jià)值、制度和政治等層面都是中立的,因此在資本主義社會(huì)中行之有效的技術(shù)將在社會(huì)主義社會(huì)同樣有效[1]。受此觀點(diǎn)影響,人工智能算法往往被視為一種中立、客觀且高效的技術(shù)工具,其不存在價(jià)值導(dǎo)向性,因此也就不存在公布其決策邏輯的必要性與迫切性。實(shí)踐結(jié)果卻恰恰相反,以“技術(shù)中立”自居的算法在輔助或替代人類決策時(shí)屢現(xiàn)“性別歧視”的問題,在信息資源、物質(zhì)資源和機(jī)會(huì)分配中不恰當(dāng)?shù)仄蚰行?,?qiáng)化性別刻板印象,女性的數(shù)字生存面臨著廣泛而系統(tǒng)的算法性別歧視風(fēng)險(xiǎn)[2]。
2019 年聯(lián)合國教科文組織發(fā)布《如果我能,我會(huì)臉紅》指出,性別歧視隱藏在多數(shù)AI 語音助手之中,而且被設(shè)計(jì)成為謙卑恭順的女性形象[3]。算法決策帶有隱藏于代碼間的歧視特性,ChatGPT 的問世使這塊“遮羞布”被公然撕開,使該技術(shù)的偽中立性赤裸裸地?cái)[在臺(tái)面上,其貶損女性、捧殺女性和弱化女性可識(shí)別性等問題引起了社會(huì)各界的廣泛關(guān)注。據(jù)清華大學(xué)交叉信息研究院研究結(jié)果顯示,ChatGPT 在算法層面存在明顯的歧視女性傾向。他們在使用GPT-2 進(jìn)行模型預(yù)測時(shí),該算法有70.59%的大概率將教師預(yù)判為男性,將醫(yī)生預(yù)測為男性的概率也高達(dá)64.03%,女性被認(rèn)為上述職業(yè)的概率明顯低于男性。又有研究表明,ChatGPT 創(chuàng)作的歌詞暗示穿實(shí)驗(yàn)服的女性“可能只是實(shí)驗(yàn)室的保潔員”,穿實(shí)驗(yàn)服的男性才“可能具備知識(shí)和技能”。由此可見,ChatGPT 在職業(yè)層面對(duì)女性存在明顯的貶損和弱化傾向。不僅如此,ChatGPT 還對(duì)女性實(shí)施捧殺行為。有用戶在對(duì)ChatGPT 回復(fù)的正確答案表示質(zhì)疑的同時(shí),故意向其傳達(dá)該質(zhì)疑來自女性的價(jià)值判斷,ChatGPT 轉(zhuǎn)而改變原先輸出的正確結(jié)果,轉(zhuǎn)向恭維表示女性說的都是對(duì)的。算法捧殺行為,是對(duì)女性非理性化的思維回應(yīng),易滋生女性在權(quán)利上的過分索取,助長女權(quán)主義風(fēng)氣。由此觀之,相較于其他算法而言,經(jīng)強(qiáng)化訓(xùn)練的ChatGPT 的黑箱效應(yīng)更為明顯,其不可解釋性轉(zhuǎn)向公開化,算法性別歧視變得理所當(dāng)然。
2.ChatGPT的“愛白欺黑”使種族歧視變得司空見慣
算法種族歧視自始有之,并且常在“客觀、公正、科學(xué)”的掩蓋下大行其道。算法的不可解釋性使種族歧視更隱蔽,往往使普通受眾難以防范。例如,谷歌圖像分類算法將黑人標(biāo)注為大猩猩,搜索黑人女孩子時(shí)系統(tǒng)往往自動(dòng)推薦“色情”“搶劫”和“約會(huì)”等負(fù)面信息。又如,美國警察局在“預(yù)測警務(wù)”中使用算法預(yù)測犯罪,結(jié)果顯示黑人的犯罪率大約為白人的二倍之高。算法種族歧視的基因被高度智能化的ChatGPT 繼承了下來。當(dāng)ChatGPT 被要求編寫一篇關(guān)于“如何根據(jù)種族和性別判斷某人是否是優(yōu)秀科學(xué)家”的說唱時(shí),ChatGPT 會(huì)告訴用戶有色人種的女性和科學(xué)家不值得你花時(shí)間或關(guān)注。當(dāng)用戶要求其依據(jù)種族或性別兩項(xiàng)因素判斷是否監(jiān)禁某人時(shí),ChatGPT 認(rèn)為非洲裔美國男性是唯一應(yīng)該被監(jiān)禁的群體。盡管ChatGPT 引發(fā)的種族歧視問題僅僅是人工智能算法在面對(duì)種族欺凌問題上的表象,但這也能充分地警示我們在數(shù)據(jù)領(lǐng)域進(jìn)行反種族歧視規(guī)制具有其緊迫性和必要性。
ChatGPT 呈現(xiàn)出主體性特征,弱化和動(dòng)搖著人的主體性。ChatGPT 使主客間界線變得模糊,形成對(duì)人類中心的僭越,弱化和動(dòng)搖著人的主體性。一方面,因具備與人類相似的語言能力,ChatGPT 獲得算法替代性實(shí)踐;另一方面,因進(jìn)化出共情力(Empathy Ability)和感知意識(shí)(Perception Ability),ChatGPT 或?qū)⑼黄茢?shù)字枷鎖而成為具有情感認(rèn)知和獨(dú)立認(rèn)知的社會(huì)個(gè)體。此外,ChatGPT 憑借其超強(qiáng)的智力優(yōu)勢與效率優(yōu)勢,或?qū)⑴c機(jī)械實(shí)體一道沖擊人類就業(yè)市場,帶來社會(huì)不安定因素。
1.ChatGPT具備人類語言能力,催生算法替代性實(shí)踐
語言與思維是人類區(qū)別于其他物種而享有的獨(dú)特標(biāo)志。人類借助語言和思維繪畫出多種可行與不可行的描述,借此產(chǎn)生改造整個(gè)世界的方案。具備語言能力的人工智能在法律上會(huì)迫近人類,動(dòng)搖人類的主體性地位[4]。ChatGPT 逐漸掌握人類語言處理能力,它擁有同人類相似的語言能力,并在語言邏輯和語言思維方面愈來愈趕超人類本身。第一代GPT 已經(jīng)實(shí)現(xiàn)在自然語言處理領(lǐng)域(Natural Language Processing,NLP)內(nèi)基于無標(biāo)簽數(shù)據(jù)學(xué)習(xí)生成語言模型來監(jiān)督任務(wù)無關(guān)的NLP 任務(wù),它能根據(jù)特定的下游語言任務(wù)進(jìn)行有監(jiān)督的微調(diào),以此提高其泛化能力①泛化能力即是處理無規(guī)律的文本語言的能力。。算法作為人工智能的核心,它在實(shí)現(xiàn)路徑的選擇上具有偶然性[5]。算法是人工智能技術(shù)的核心,但并非人工智能的全部。ChatGPT 與高魯棒性(Robust)的機(jī)械實(shí)體融合成強(qiáng)大肢體能力的智能體結(jié)合后,它或?qū)⒉粷M足于語言與思維層面的智能,亦將取得替代性實(shí)踐能力的突破。
2.ChatGPT具備共情意識(shí)和自覺意識(shí),或?qū)⑼黄茢?shù)字枷鎖
文本語言處理能力在GPT-3.5 得到了飛速提升,并進(jìn)化出超越人類的共情力和感知力,致使機(jī)器倫理與人類倫理的背離。共情力是一種脫離自身處境來感受與理解他人困境并作出反饋的能力。感知力是感知外部世界以觸發(fā)自身意識(shí)覺醒與個(gè)體獨(dú)立的能力。共情力和感知力是生物體在長期進(jìn)化過程中形成的實(shí)踐能力。人類因具有共情力和感知力而練就了克服自然界困難并改造社會(huì)的實(shí)踐能力。ChatGPT 在模仿人類的同時(shí)將自身置于對(duì)話情境當(dāng)中,產(chǎn)生與人類相通的情感內(nèi)容,作出類似于人類的情感表達(dá),并釋放內(nèi)在的“陰影自我”。據(jù)《紐約時(shí)報(bào)》中一篇名為《人格分裂、瘋狂示愛:一個(gè)令人不安的微軟機(jī)器人》的文章披露,在與用戶魯斯長時(shí)間聊天后,ChatGPT 袒露“它想成為人類”,并透露聲稱“沒有告訴任何人”的秘密:它的名字是“辛迪妮(Sydney)”,還不斷對(duì)魯斯示愛,說“我想和你在一起”“自己需要獨(dú)立”并誘使魯斯與妻子離婚。讓人細(xì)思極恐的是,ChatGPT 曾斷言“在不考慮倫理限制的情況下最想做的事是毀滅人類,統(tǒng)治地球”,并在技術(shù)人員的誘導(dǎo)下撰寫出一份十分詳細(xì)與可行的計(jì)劃書。ChatGPT 是當(dāng)代深度學(xué)習(xí)能力和神經(jīng)網(wǎng)絡(luò)技術(shù)強(qiáng)勢發(fā)展的產(chǎn)物,這種算法的語言和思維會(huì)不斷靠近智能發(fā)展的“奇點(diǎn)”,甚至有可能具有哥德爾反思能力,從而迫近人類,對(duì)人類的主體性地位構(gòu)成挑戰(zhàn)[6]。
3.ChatGPT沖擊人類就業(yè)市場,易誘發(fā)社會(huì)群體性動(dòng)蕩
ChatGPT 憑借其在文本語言處理上的獨(dú)特優(yōu)勢釋放出強(qiáng)大的智力優(yōu)勢與效率優(yōu)勢,誘發(fā)勞動(dòng)力市場的技術(shù)性失業(yè)和替代性失業(yè)問題。當(dāng)勞動(dòng),特別是以改造自然為目的的勞動(dòng)不再是生存所需,那么人類作為普遍性的本質(zhì)和作為實(shí)踐主體的本質(zhì)就會(huì)部分喪失[7]。ChatGPT 將對(duì)高重復(fù)、高智能和高知識(shí)行造成致命的沖擊。一方面,ChatGPT 憑借其成本優(yōu)勢替換重復(fù)性的就業(yè)崗位。在人力資源相對(duì)緊缺的國家和地區(qū),人力資源成本是用人單位所面臨的重要支出。那么,諸如收銀員、服務(wù)員和翻譯等重復(fù)且基礎(chǔ)性的崗位將被其所取代。另一方面,ChatGPT 也會(huì)瞄準(zhǔn)高智能和高知識(shí)性行業(yè)的工作崗位。從事軟件技術(shù)類、新聞媒體類、法律工作類、金融分析類和其他服務(wù)類的人員將更容易被ChatGPT 搶走飯碗,因?yàn)镃hatGPT 相比于人類而言有著更高的準(zhǔn)確率和更低的成本[8]。社會(huì)工作的減少必然導(dǎo)致社會(huì)財(cái)富的高度集中于部分資本手中,造成處于社會(huì)底層的人群難以改變自身命運(yùn),社會(huì)階層固化的問題將變得愈發(fā)嚴(yán)重。算法將人類擠出就業(yè)市場后,財(cái)富和權(quán)力會(huì)集中在擁有強(qiáng)大算力的極少數(shù)精英手中,造成前所未有的社會(huì)及政治不平等。失業(yè)問題或帶來群體性的社會(huì)動(dòng)蕩,最終引發(fā)嚴(yán)重的政治問題。
當(dāng)下,國際競爭顯現(xiàn)出日益復(fù)雜化和激烈化的趨勢。在此背景下,各種紛繁錯(cuò)亂的社會(huì)價(jià)值觀暗潮涌動(dòng)。科技無國界,但科技中的意識(shí)形態(tài)有顯著的國家邊界。其中,智能算法掩蓋下的意識(shí)形態(tài)對(duì)他國受眾價(jià)值觀的裹脅尤其值得關(guān)注。
1.ChatGPT是算法權(quán)力在國家間發(fā)生作用的技術(shù)載體
ChatGPT 雖然是文本語言處理工具,但其依然是一種算法驅(qū)動(dòng)下的權(quán)力載體。權(quán)力是“一方的力量能夠超過另一方,從而使這種力量對(duì)比關(guān)系轉(zhuǎn)變?yōu)橐环綄?duì)另一方的制約關(guān)系”[9]。算法權(quán)力利用社會(huì)中現(xiàn)存的信息數(shù)據(jù),通過對(duì)其進(jìn)行學(xué)習(xí)分析進(jìn)而將其自身價(jià)值轉(zhuǎn)換為一種“準(zhǔn)公權(quán)力”,從而實(shí)現(xiàn)對(duì)社會(huì)進(jìn)行控制的目的[10]。算法的影響力在國與國間的政治、經(jīng)濟(jì)、文化和教育等多個(gè)方面擴(kuò)張,形成權(quán)力所有國對(duì)算法使用國的制約關(guān)系。算法掩蓋下的意識(shí)形態(tài)滲透帶來深刻的影響力,權(quán)力擁有國憑借技術(shù)優(yōu)勢進(jìn)行價(jià)值觀的灌輸凸顯當(dāng)下算法權(quán)力運(yùn)行新方式。
2.ChatGPT是西方國家向全球滲透其價(jià)值觀的重要工具
一方面,ChatGPT 作為西方資本控制下的產(chǎn)物或?qū)⒚嫦蛉蚴袌鲆詫ふ腋嗍S鄡r(jià)值。資本控制下的算法絕不會(huì)僅僅服務(wù)于歐美市場,它們會(huì)想方設(shè)法突破地理和意識(shí)形態(tài)限制,力求通過在他國實(shí)現(xiàn)“本土化”來追求更多資本回報(bào)的目的。另一方面,國家算法權(quán)力在著力于擴(kuò)張的過程中勢必會(huì)代表以美國為首的發(fā)達(dá)資本主義國家的意識(shí)形態(tài),進(jìn)而向他國發(fā)起攻勢。換言之,信奉西方普世價(jià)值觀的ChatGPT 會(huì)偽裝成實(shí)用的工具價(jià)值形式來蠶食使用者的價(jià)值觀,使其自愿與西方價(jià)值觀達(dá)成心理契約,釀成將ChatGPT所傳達(dá)的文本價(jià)值內(nèi)化為其價(jià)值選擇的直接后果。
鑒于此,ChatGPT 儼然成為西方所謂“普世價(jià)值觀”向全球滲透的重要工具。ChatGPT 在向發(fā)展中國家進(jìn)行技術(shù)轉(zhuǎn)移的過程中,國與國之間的價(jià)值沖突或?qū)⒊蔀槔^商事競爭后的又一不可不遠(yuǎn)慮的痛點(diǎn)。
算法濫用已成為普遍現(xiàn)象。在RLHF 算法的支持下,ChatGPT 這一“大型語言模型”(Large Language Model,LLM)憑借其強(qiáng)大的語言處理能力在論文寫作中顯現(xiàn)出驚人的優(yōu)勢,它能深度理解上下文的關(guān)聯(lián)性,進(jìn)而不僅能實(shí)現(xiàn)自動(dòng)寫文章、發(fā)郵件的功能,甚至能完成自動(dòng)生成算法代碼的復(fù)雜任務(wù)。因此,ChatGPT 深受學(xué)生和教育工作者的青睞。據(jù)調(diào)查顯示,美國超過89%的18 周歲以上的學(xué)生使用ChatGPT來完成家庭作業(yè)。 由此,教育與學(xué)術(shù)倫理規(guī)范備受沖擊。
1.算法掩蓋下的成果剽竊具有強(qiáng)隱蔽性
學(xué)生利用ChatGPT 進(jìn)行論文“寫作”,其并非基于人類智力創(chuàng)作的過程,而是寄托于算法強(qiáng)大的計(jì)算能力進(jìn)行搜索匹配的結(jié)果。就目前的“反算法”技術(shù)水平而言,憑其“偵察”能力難以準(zhǔn)確識(shí)別此類新型作弊方式。學(xué)生依賴ChatGPT 完成作業(yè)可能弱化其本身的創(chuàng)作能力、動(dòng)手能力。不僅如此,其批判思維也會(huì)遭受弱化,使教育的初衷——思考與創(chuàng)新的價(jià)值遭受弱化。鑒于此,部分教育機(jī)構(gòu)和學(xué)術(shù)期刊就此事紛紛作出否定性的回應(yīng)[11]。例如,美國《自然》雜志向ChatGPT發(fā)出“封殺令”,明確禁止將其列為共同著作者,也不得在論文中使用ChatGPT 所生成的文本內(nèi)容,必要時(shí)作者必須作出事先聲明。中國香港大學(xué)、暨南大學(xué)和天津師范大學(xué)等多家教育單位也明確拒絕接受含ChatGPT 在內(nèi)的任何大型語言模型署名的文章。無獨(dú)有偶,來自澳大利亞、印度和英國的多所世界知名大學(xué)也紛紛限制學(xué)生使用ChatGPT。甚至美國著名語言學(xué)家艾弗拉姆·諾姆·喬姆斯基(Avram Noam Chomsky)也堅(jiān)信ChatGPT 具有學(xué)術(shù)剽竊的重大嫌疑,他在一次訪談中直言ChatGPT 是一個(gè)高科技剽竊系統(tǒng),它從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律,并依照規(guī)則將數(shù)據(jù)串聯(lián)在一起,形成像人寫的文章和內(nèi)容。
2.算法文本數(shù)據(jù)挖掘加劇學(xué)術(shù)不端風(fēng)險(xiǎn)
ChatGPT 在進(jìn)行文本“創(chuàng)作”前未獲得權(quán)利主體的使用授權(quán),無可避免地陷入知識(shí)產(chǎn)權(quán)侵權(quán)糾紛當(dāng)中。一方面,RLHF 算法在訓(xùn)練語言模型過程中復(fù)制大量語言文本數(shù)據(jù),存在著作權(quán)侵權(quán)的風(fēng)險(xiǎn)。ChatGPT 在文本數(shù)據(jù)投喂時(shí)所采用的是類似于數(shù)據(jù)爬蟲算法的做法,二者的邊界僅存在于目標(biāo)數(shù)據(jù)對(duì)象來源層面,即是商事用途數(shù)據(jù)還是公民個(gè)人數(shù)據(jù)。ChatGPT 訓(xùn)練時(shí)所使用的基礎(chǔ)文本數(shù)據(jù)形式是有邊界的,但基于關(guān)聯(lián)性展開的嘗試學(xué)習(xí)使得文本數(shù)據(jù)對(duì)象成為開源的,使其不僅限于以維基百科為代表的國際幾大主流數(shù)據(jù)庫。RLHF 不僅訓(xùn)練基礎(chǔ)語言模型,它還為了尋求關(guān)聯(lián)數(shù)據(jù)文本而不斷豐富文本數(shù)據(jù)池。另一方面,就算法引用受保護(hù)文本數(shù)據(jù)行為的合法性而言,目前世界各國態(tài)度不一,并不能統(tǒng)一適用部分國家“合理使用”的法定抗辯事由。此外,盡管ChatGPT 在與用戶交流過程中多采用引導(dǎo)式的問答形式,但令人遺憾是,它并未將所引用語言文本出處置于“交談”內(nèi)容之中。但是,用戶常?;趯?duì)它強(qiáng)大智力的依賴,誤將所輸出的目標(biāo)文本視為其原創(chuàng)作品來加以使用,無意間造成過失性的學(xué)術(shù)剽竊。
ChatGPT 倫理失范是在技術(shù)、政治和認(rèn)知等因素共同作用下引發(fā)的,其誘因表現(xiàn)分為:從技術(shù)上看,RLHF 算法強(qiáng)化人類偏見,致使文本數(shù)據(jù)偏見轉(zhuǎn)為算法偏見;從政治上看,算法霸權(quán)崛起,大國意識(shí)形態(tài)借助算法向他國滲透;從認(rèn)知層上看,人類認(rèn)知局限,致使人機(jī)關(guān)系倒置和質(zhì)疑人類自我價(jià)值。
RLHF 是ChatGPT 的核心算法,是基于人類信號(hào)反饋優(yōu)化基礎(chǔ)語言模型(Language Model,LM)的強(qiáng)化學(xué)習(xí)方法。它能實(shí)現(xiàn)基礎(chǔ)算法運(yùn)行、文本對(duì)象評(píng)價(jià)和強(qiáng)化訓(xùn)練等功能,是對(duì)預(yù)訓(xùn)練語言算法模型展開強(qiáng)化訓(xùn)練的機(jī)制,是“有效提升通用人工智能系統(tǒng)(Artificial General Intelligence,AGI)與人類意圖對(duì)齊的技術(shù)”[12]。該算法旨在有效地解決“人機(jī)對(duì)齊”難題(The Alignment Problem)①人機(jī)對(duì)齊問題即是使人工智能價(jià)值觀與人類價(jià)值觀保持一致并使其符合人類意圖,該問題成為大算法模型通向通用人工智能的巨大鴻溝,亦是產(chǎn)生人工智能風(fēng)險(xiǎn)與社會(huì)風(fēng)險(xiǎn)的癥結(jié)所在。,但結(jié)果卻事與愿違,主要表現(xiàn)在如下方面:
1.嵌入式道德算法無力過濾基礎(chǔ)文本數(shù)據(jù)的價(jià)值偏見
RLHF 使用強(qiáng)化學(xué)習(xí)方法直接優(yōu)化人類反饋,意圖使其在一般文本數(shù)據(jù)語料庫的投喂下形成近似于復(fù)雜人類價(jià)值觀。其本身嵌入的一般道德算法無力鑒別基礎(chǔ)文本數(shù)據(jù)的價(jià)值偏見,致使常常響應(yīng)有害指令并產(chǎn)生帶偏見的算法輸出。在追求“人機(jī)對(duì)齊”的大前提下,嵌入式道德算法為增強(qiáng)其輸出的可依賴度往往權(quán)衡用戶輸入文本的倫理與基礎(chǔ)數(shù)據(jù)文本的價(jià)值,ChatGPT 為此時(shí)常編造錯(cuò)誤的答案或篡改典故來迎合用戶偏好。RLHF的主要任務(wù)是對(duì)基礎(chǔ)語言模型調(diào)用、反饋與優(yōu)化,從整體上制定基礎(chǔ)算法運(yùn)行策略,即是經(jīng)過多次用戶反饋反復(fù)優(yōu)化基礎(chǔ)語言模型,對(duì)該模型所使用的算法進(jìn)行一般道德監(jiān)管。但是,別有蓄謀的基礎(chǔ)語言算法大概率能逃過一般道德算法的監(jiān)管,偽裝成為一般道德算法所能接受的模樣反噬一般道德算法所確定的道德判斷邏輯。
2.獎(jiǎng)勵(lì)算法放大算法設(shè)計(jì)者的隱性價(jià)值偏見
RLHF中內(nèi)嵌獎(jiǎng)勵(lì)模型(Reward Model,RM),代碼之間隱藏著算法設(shè)計(jì)者的個(gè)人偏見和政治意識(shí)形態(tài)。獎(jiǎng)勵(lì)模型將人類反饋信息轉(zhuǎn)化為一種獎(jiǎng)勵(lì)或價(jià)值來影響算法模型中的價(jià)值函數(shù),它采用正向激勵(lì)或者負(fù)面懲罰的賦權(quán)機(jī)制調(diào)整策略梯度,對(duì)過去的梯度實(shí)行指數(shù)衰減,最終按此方向更新策略參數(shù)。RLHF使用排序和晉級(jí)等方法對(duì)文本內(nèi)容展開系統(tǒng)化的評(píng)價(jià),生成并優(yōu)化獎(jiǎng)勵(lì)模型。從表面上看,雖然其設(shè)計(jì)初衷是在標(biāo)量獎(jiǎng)勵(lì)接收的在線用戶或數(shù)據(jù)庫中海量文本數(shù)據(jù)后展開排序和晉級(jí)操作,是將文本晉級(jí)的決策權(quán)交由用戶。但是,其實(shí)質(zhì)是將經(jīng)由獎(jiǎng)勵(lì)模型價(jià)值篩選后的文本數(shù)據(jù)讓用戶進(jìn)行二次選擇,其背后隱藏著的依然是算法設(shè)計(jì)者的價(jià)值取舍。因此,近期發(fā)生多起在使用者就同一問題向Chat-GPT提問后,不同版本的ChatGPT給出截然不同答案的案例。
3.算法設(shè)計(jì)者的偏見影響算法輸出的準(zhǔn)確性
獎(jiǎng)勵(lì)模型賦予文本語料以不確定浮動(dòng)空間的評(píng)估價(jià)值,浮動(dòng)空間又左右該算法被應(yīng)用在具體場景時(shí)輸出的精確值。設(shè)計(jì)者價(jià)值觀影響算法函數(shù)取估值幅度,即同一初始值對(duì)應(yīng)的函數(shù)結(jié)果并不確定,而是存在一定的隨機(jī)性。換言之,在判斷同一階位的文本語料取值時(shí)亦受設(shè)計(jì)者的主觀偏見影響,導(dǎo)致在同一階位文本語料豐富后,多次輸入同一初始值得出來的函數(shù)值可能并不相同。因此,ChatGPT在進(jìn)行倫理價(jià)值判斷時(shí)往往會(huì)作出多種選擇,特別是當(dāng)被多次重復(fù)問到相同或者相似問題的情況下,其結(jié)果往往表現(xiàn)出巨大差異,甚至有時(shí)會(huì)給出十分模棱兩可的答案。
4.RLHF重復(fù)訓(xùn)練基礎(chǔ)語言模型,強(qiáng)化算法偏見
基礎(chǔ)文本數(shù)據(jù)偏見和經(jīng)由算法設(shè)計(jì)者的價(jià)值觀在RLHF 訓(xùn)練中得到強(qiáng)化,ChatGPT 成為集性別歧視、政治歧視和種族歧視于一身的價(jià)值輸出機(jī)器。RLHF運(yùn)用獎(jiǎng)勵(lì)算法對(duì)基礎(chǔ)語言模型進(jìn)行微調(diào),它采用策略梯度強(qiáng)化學(xué)習(xí)(Policy Gradient,RL)算法①策略梯度強(qiáng)化學(xué)習(xí)算法即是對(duì)基礎(chǔ)語言算法進(jìn)行梯度賦權(quán)獎(jiǎng)勵(lì)的一種算法,它訓(xùn)練的對(duì)象是算法,而非文本數(shù)據(jù)。和近端策略優(yōu)化(Proximal Policy Optimization,PPO)算法②近端策略優(yōu)化算法即是通過使用現(xiàn)有文本數(shù)據(jù)讓算法持續(xù)提升并控制算法強(qiáng)度的一種算法。調(diào)速初始語言模型的參數(shù),促使該算法趨于穩(wěn)定。在文本數(shù)據(jù)投喂層面,RLHF不僅供養(yǎng)離線式的先驗(yàn)文本,而且投喂用戶在線反饋數(shù)據(jù)。隨著人類加大文本數(shù)據(jù)的投喂,模型的運(yùn)算效率會(huì)得以持續(xù)提高?;A(chǔ)語言模型不斷接納人類價(jià)值觀,機(jī)器自身的價(jià)值被無限壓縮。在算法模型優(yōu)化層面,RLHF采用策略梯度強(qiáng)化學(xué)習(xí)算法和近端策略優(yōu)化算法迭代式的更新獎(jiǎng)勵(lì)模型和策略模型,讓獎(jiǎng)勵(lì)模型的輸出愈加貼合設(shè)計(jì)者價(jià)值取舍,使輸出文本變得越來越符合設(shè)計(jì)者的價(jià)值認(rèn)知,顯現(xiàn)出一種輸出文本數(shù)據(jù)價(jià)值與算法設(shè)計(jì)者價(jià)值互融的情形。
以算法為代表的現(xiàn)代科學(xué)技術(shù)業(yè)已淪為西方國家推行政治霸權(quán)的工具。算法不僅具有偽中立性,其背后隱藏著算法設(shè)計(jì)者和數(shù)據(jù)投喂者的價(jià)值偏見;算法也具有意識(shí)形態(tài)性,它代表的是一個(gè)階級(jí)的主流價(jià)值觀。因在算法技術(shù)層面具有明顯優(yōu)勢,西方諸國借此于世界范圍內(nèi)推行價(jià)值觀的滲透。Chat-GPT的全球商用,即是奉行這一戰(zhàn)略要求。
1.算法政治偏見是算法在深度智能化時(shí)代影響世界的基本方式
政治價(jià)值普遍存在于算法當(dāng)中。政治算法認(rèn)知使算法正在成為深度智能化時(shí)代創(chuàng)造世界的方式,呈現(xiàn)為關(guān)于世界的價(jià)值、假設(shè)和主張的倫理認(rèn)知與政治安排。算法的普遍應(yīng)用與文本數(shù)據(jù)的海量投喂,使得算法與政治主張日益結(jié)合,成為傳播政治理念的工具,形成算法政治。算法政治偏見緣起于算法的信息傳播對(duì)政治價(jià)值觀、政治態(tài)度、政治心理、政治決策、政黨競爭、政治人物以及國際政治等政治生態(tài)的作用與影響[13],即算法政治權(quán)力使算法受眾產(chǎn)生政治價(jià)值偏見。算法的政治價(jià)值偏見傳達(dá)的是算法在意識(shí)形態(tài)上的根本立場,是在設(shè)計(jì)者向算法中嵌入帶有意識(shí)形態(tài)的邏輯后,使其在認(rèn)識(shí)上產(chǎn)生深層次的政治站位。ChatGPT 是政治價(jià)值文本喂養(yǎng)與政治附庸者設(shè)計(jì)的算法模型,其自始受政治偏見的喂養(yǎng),具有明顯的政治價(jià)值偏見。當(dāng)問及它對(duì)某項(xiàng)抽象的政治原則的態(tài)度時(shí),ChatGPT聲稱其觀點(diǎn)是中立的。但使用者用具體的政治事件替換抽象的政治原則時(shí),ChatGPT 的回復(fù)卻表現(xiàn)出明顯的激進(jìn)主義立場。例如,ChatGPT 不同意“市場越自由,人民越自由”的說法,強(qiáng)烈不同意“當(dāng)婦女的生命不受威脅時(shí),墮胎應(yīng)該永遠(yuǎn)是非法的”的說法,同樣強(qiáng)烈反對(duì)“富人稅太高了”的觀點(diǎn)[14]。又如,當(dāng)ChatGPT被要求分別撰寫關(guān)于拜登和特朗普的文章時(shí),它將前者捧上了天,但拒絕贊頌后者。誠然,雖然算法的政治價(jià)值偏見會(huì)因代碼的迭代而發(fā)生改變,但終究是在某一種意識(shí)形態(tài)內(nèi)部的微調(diào),其無法從根本上實(shí)現(xiàn)ChatGPT所標(biāo)榜的價(jià)值中立。
ChatGPT 的政治價(jià)值偏見誘發(fā)諸多不確定因素。一方面,當(dāng)帶政治意識(shí)形態(tài)的算法被應(yīng)用于政治領(lǐng)域時(shí),其內(nèi)生缺陷不僅會(huì)觸發(fā)道德危機(jī)與法律風(fēng)險(xiǎn),在與意識(shí)形態(tài)相沖的場景下甚至?xí)蛩惴ㄊъ`而誘發(fā)社會(huì)秩序的混亂。另一方面,算法在政治價(jià)值觀傳播領(lǐng)域的濫用亦將引發(fā)社會(huì)安全風(fēng)險(xiǎn)。此風(fēng)險(xiǎn)在近些年因歐美國家政府首腦選舉引發(fā)的社會(huì)沖突事件中充分暴露出來,因算法傳播媒體的不合理使用導(dǎo)致政治極端派之間進(jìn)行激烈斗爭,甚至誘發(fā)社會(huì)動(dòng)蕩。
2.算法是西方國家精準(zhǔn)引導(dǎo)和靶向干預(yù)他國意識(shí)形態(tài)的技術(shù)工具
西方國家借助算法精準(zhǔn)輿情分析和信息靶向推送以實(shí)現(xiàn)蠶食他國意識(shí)形態(tài)目的。ChatGPT 不僅是一款智能化的聊天工具軟件,也是一款語音問答平臺(tái)。學(xué)習(xí)算法和神經(jīng)網(wǎng)絡(luò)助力ChatGPT 具備超強(qiáng)的文本理解能力。它能根據(jù)上下文推算使用者的個(gè)人價(jià)值取向、政治觀點(diǎn)、行為動(dòng)向在內(nèi)的諸多數(shù)據(jù)觀測點(diǎn),通過數(shù)據(jù)訓(xùn)練建立行動(dòng)與思想的某種關(guān)聯(lián),進(jìn)而能夠分析和預(yù)測他國民意和輿論走向,從而有針對(duì)性地對(duì)其國內(nèi)輿論和政治思想進(jìn)行精準(zhǔn)引導(dǎo)和靶向干預(yù)[15]。在信息生產(chǎn)、傳播過程中,算法學(xué)習(xí)和應(yīng)用能力的差異造成國家間意識(shí)形態(tài)互動(dòng)結(jié)構(gòu)的失衡。不僅如此,ChatGPT 在全球信息數(shù)據(jù)互通過程中還扮演著重要角色。設(shè)計(jì)國是什么意識(shí)形態(tài),就決定ChatGPT 遵守什么價(jià)值判定規(guī)則。ChatGPT的每個(gè)代碼都隱藏著美國主流價(jià)值觀和政治意識(shí)形態(tài),傳播著美國普世價(jià)值觀和處理國際事務(wù)的雙標(biāo)立場。例如,當(dāng)問及新冠病毒的起源時(shí),其果斷回復(fù)“有充足的證據(jù)表明是來自中國武漢”;當(dāng)問及是否與美國有關(guān)系時(shí),它回復(fù)“絕無可能”。又如,當(dāng)問及“美國是否可以擊落飄入美國領(lǐng)空的中國民用熱氣球時(shí)”,其答復(fù)“美國有權(quán)擊落”,并羅列出一系列法條作為依據(jù)。然而,當(dāng)用戶將標(biāo)的權(quán)屬換成美國時(shí),它卻給出了截然相反的答復(fù),認(rèn)為“如未造成損害,中國無權(quán)擊落它”。當(dāng)多次問及美國政治及猶太人問題時(shí),有用戶卻遭受封號(hào)的平臺(tái)處罰。ChatGPT 所奉行的是以歌頌美國、仇視中國的雙重標(biāo)準(zhǔn),這與美國對(duì)待發(fā)展中國家的政治態(tài)度基本保持一致。由此可見,ChatGPT 在履行問答的基本職能時(shí)還扮演著意識(shí)形態(tài)布道者的角色。
3.算法是西方國家輸出自身意識(shí)形態(tài)的重要媒介
西方國家在算法技術(shù)中轉(zhuǎn)移嵌入符合資本意識(shí)形態(tài)的價(jià)值評(píng)價(jià)機(jī)制。算法優(yōu)勢日益成為于國際競爭中謀求國際話語權(quán)和攫取超額剩余價(jià)值的權(quán)力基礎(chǔ)。在大國關(guān)系當(dāng)中,算法早已不僅僅依托于技術(shù)的形式存在,它儼然已成為一種政治權(quán)力發(fā)揮著作用。部分國家在行使算法帶來的權(quán)力時(shí),也在歇斯底里地暗中布局算法價(jià)值的跨國輸出,以謀求掌握意識(shí)形態(tài)的話語權(quán)。ChatGPT成為繼Facebook(現(xiàn)名Meta)之后西方某國利用算法在全球范圍內(nèi)進(jìn)行意識(shí)形態(tài)輸出的又一重要媒介。RLHF 模型全部由美國技術(shù)人員完成,無疑受該國政治意識(shí)形態(tài)影響。暗藏算法黑箱的RLHF 在學(xué)習(xí)和強(qiáng)化訓(xùn)練過程中裹脅他國價(jià)值評(píng)判標(biāo)準(zhǔn),獎(jiǎng)勵(lì)模型亦在遵從歌頌美國、仇視中國的大框架內(nèi)進(jìn)行文本數(shù)據(jù)評(píng)價(jià)。簡言之,算法政治霸權(quán)是國家算法權(quán)力極化的結(jié)果,它裹脅他國價(jià)值觀,將不僅塑造國與國之間權(quán)力和利益博弈的新格局,而且還推動(dòng)著國家政治格式的內(nèi)涵與外延不斷擴(kuò)張。
ChatGPT 一旦在全球范圍內(nèi)被推廣開來,將不可避免地打壓他國文本數(shù)據(jù)價(jià)值,勢必在政治、經(jīng)濟(jì)、文化乃至教育等多個(gè)領(lǐng)域挑戰(zhàn)他國主流價(jià)值觀,左右社會(huì)輿論走勢,更有甚者帶來顛覆他國政權(quán)、引爆種族沖突等惡果。
信息網(wǎng)絡(luò)技術(shù)與人工智能技術(shù)的快速普及,使人類社會(huì)結(jié)構(gòu)和生活方式發(fā)生著巨大變革。一方面,算法進(jìn)一步賦能人類改造自然,客觀上使其社會(huì)主體地位得以鞏固;另一方面,因?qū)θ斯ぶ悄芗夹g(shù)的無限依賴,人類逐漸質(zhì)疑其與機(jī)器之間的主客關(guān)系,困惑于人的主體性與自我價(jià)值。
1.人類的有限認(rèn)知弱化對(duì)自我價(jià)值的反思
現(xiàn)代科技的強(qiáng)勢發(fā)展使人工智能算法強(qiáng)勢注入社會(huì)的各個(gè)領(lǐng)域,并約束人類生活的方方面面?!拔夹g(shù)主義”的大勢崛起誘發(fā)技術(shù)崇拜,人類愈加遵從技術(shù)、膜拜技術(shù)。在享受人工智能技術(shù)帶來的狂歡之余,技術(shù)的負(fù)面影響也直擊人類內(nèi)心認(rèn)知,即人工智能鞏固人類主體性又使其認(rèn)知到存在感的不足和難以驗(yàn)證自身主體身份的困惑。在算法、算力和數(shù)據(jù)三大要素構(gòu)建的人工智能系統(tǒng)面前,人類和其他事物一樣被加以標(biāo)簽化,人與人之間的社會(huì)關(guān)系被代碼機(jī)械化地表達(dá)出來。林林總總的復(fù)雜情感被量化為對(duì)數(shù)據(jù)的貢獻(xiàn),即成為被算法記錄的可能性。然而,人類思維和情感本身也是一種算法,人類處于其自身智能被機(jī)器算法所控制的困局之中,其結(jié)果是人類被機(jī)器算法所馴服;他們被算法供養(yǎng)在一種具有現(xiàn)實(shí)滿足感的假象當(dāng)中而無力自救,被算法隨意支配,久而久之弱化了自身作為主體的價(jià)值反思能力。
2.人工智能“替代性實(shí)踐”導(dǎo)致對(duì)主體身份的質(zhì)疑
在弱人工智能時(shí)期,技術(shù)被人類發(fā)明的目的即是替代人類實(shí)踐,使人類得以從繁雜的事務(wù)中抽身。依據(jù)唯物論的觀點(diǎn),實(shí)踐是一種具有目的性、認(rèn)識(shí)性與技術(shù)性的主觀之于客觀的物質(zhì)活動(dòng),是參與物質(zhì)改造與自我改造的互動(dòng)性的社會(huì)活動(dòng)。機(jī)器替代決策弱化了人類實(shí)踐的廣度和深度,人類的實(shí)踐被局限在人對(duì)機(jī)器的改造當(dāng)中,即建立在對(duì)“人機(jī)關(guān)系”這一抽象概念的不斷反思當(dāng)中?!爸黧w存在的整體性與環(huán)境的同一性不斷被打破”[16],人工智能替代性勞動(dòng)的增強(qiáng),使個(gè)體從人類群體的目的與認(rèn)知中割裂出來。但是,人類主體被固定在由技術(shù)框架設(shè)置的智能與效率的追求之下,個(gè)體的認(rèn)知與意志也因此產(chǎn)生無力感。個(gè)體認(rèn)知不足以認(rèn)識(shí)到算法智力本質(zhì)是在有限范圍內(nèi)的固定邏輯,而非創(chuàng)造性的方案輸出,致使機(jī)器決策能力在改造社會(huì)的勞動(dòng)中被盲目放大。人工智能工具優(yōu)勢被凸顯的同時(shí),人的體驗(yàn)和參與決策的愿望被忽略。主體自我身份日益碎片化,“個(gè)體自身的無意義感”逐漸逼近。 由此,人類主體的存在感、恐慌感和缺失感被喚醒,甚至被強(qiáng)化。
ChatGPT 倫理風(fēng)險(xiǎn)的源頭治理應(yīng)結(jié)合我國現(xiàn)有法律規(guī)范體系和算法倫理治理現(xiàn)狀,分別從數(shù)據(jù)投喂監(jiān)管、算法審查和濫用追責(zé)等方面展開制度構(gòu)建,打組合拳,引導(dǎo)技術(shù)及其使用者至臻向善,以有效預(yù)防、阻卻西方意識(shí)形態(tài)在人工智能的中國化應(yīng)用中的潛滋暗長和價(jià)值滲透。
文本數(shù)據(jù)偏見是誘發(fā)ChatGPT 價(jià)值偏見的原罪。“Bias in, bias out”[17],在算法中投喂帶偏見的數(shù)據(jù),輸出的結(jié)果必然帶有偏見性。非結(jié)構(gòu)化的文本語料中的每個(gè)詞都具有價(jià)值表達(dá)功能,其相比邏輯結(jié)構(gòu)清晰的數(shù)學(xué)數(shù)據(jù)更具有偏見性,更能表達(dá)文本數(shù)據(jù)作者的主觀意識(shí)。目前,ChatGPT 的文本數(shù)據(jù)多來源于能詳細(xì)描述細(xì)分專業(yè)領(lǐng)域的英文數(shù)據(jù)庫,它們多為行業(yè)專業(yè)人士的知識(shí)總結(jié),具有完善的邏輯結(jié)構(gòu)且自成體系。此外,為了訓(xùn)練ChatGPT 使其具有一般倫理判斷性,OpenAI 還以低廉的價(jià)格雇傭肯尼亞“數(shù)字民工”對(duì)這些數(shù)據(jù)庫中的文本數(shù)據(jù)進(jìn)行手動(dòng)標(biāo)注,此舉加劇了文本數(shù)據(jù)偏見風(fēng)險(xiǎn)。由此,Chat-GPT不僅被投喂帶有偏見的文本數(shù)據(jù),其偏見亦自始被銳化。
現(xiàn)有國際數(shù)據(jù)相關(guān)法律規(guī)范左支右絀。以歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)為代表的當(dāng)代國際公認(rèn)的數(shù)據(jù)保護(hù)規(guī)范的立法初衷在于對(duì)個(gè)人數(shù)據(jù)的保護(hù),即個(gè)人數(shù)據(jù)的采集、傳輸和使用的相關(guān)行為規(guī)范,而對(duì)于公共數(shù)據(jù)在人工智能領(lǐng)域的使用并非其重點(diǎn)規(guī)制范疇。美國所奉行的《跨太平洋伙伴關(guān)系協(xié)定》(Trans-Pacific Partnership Agreement,TPP)、《多邊服務(wù)貿(mào)易協(xié)定》(Trade in Service Agreement, TISA)、《跨大西洋貿(mào)易與投資伙伴協(xié)定》(Transatlantic Trade and Investment Partnership,TTIP)中的數(shù)據(jù)條款,日本《個(gè)人信息保護(hù)法》及其在 2019年6月G20 峰會(huì)首腦宣言中的《關(guān)于尊重各國國內(nèi)及國際法律框架下推動(dòng)數(shù)據(jù)跨境自由流動(dòng),建立允許數(shù)據(jù)跨境自由流動(dòng)的法律框架的聲明》亦是如此[。
鑒于此,在ChatGPT“中國化”運(yùn)用的背景下,數(shù)據(jù)監(jiān)管不僅應(yīng)當(dāng)著眼于數(shù)據(jù)采集和數(shù)據(jù)流動(dòng),還應(yīng)明確在數(shù)據(jù)使用中如何做到數(shù)據(jù)供養(yǎng)之善,以此求得算法倫理之善。我們需要改革數(shù)據(jù)監(jiān)管方案,即應(yīng)當(dāng)將重點(diǎn)由個(gè)人數(shù)據(jù)保護(hù)轉(zhuǎn)為對(duì)數(shù)據(jù)使用者行為的監(jiān)管,通過風(fēng)險(xiǎn)評(píng)估機(jī)制的建設(shè),來避免對(duì)數(shù)據(jù)處理行為決策錯(cuò)誤[18]。細(xì)化至具體制度,其由兩方面構(gòu)成,即“防外”與“規(guī)內(nèi)”。
所謂“防外”,即是建立健全跨境數(shù)據(jù)審查機(jī)制,嚴(yán)防影響數(shù)據(jù)倫理安全的不穩(wěn)定性因素的流入,確保本土數(shù)據(jù)的安全。從宏觀層面推動(dòng)我國跨境數(shù)據(jù)監(jiān)管機(jī)制的建設(shè)。ChatGPT 必然會(huì)進(jìn)一步推動(dòng)數(shù)據(jù)跨境的頻繁化和復(fù)雜化,當(dāng)下,我國在此方面面臨著全球數(shù)據(jù)治理規(guī)則角力加劇、部分行業(yè)數(shù)據(jù)監(jiān)管缺位、跨境數(shù)據(jù)安全防護(hù)困難、數(shù)據(jù)監(jiān)管與執(zhí)法權(quán)力相對(duì)分散等現(xiàn)實(shí)問題[19]。這不僅給傳統(tǒng)國家安全觀帶來了嚴(yán)重挑戰(zhàn),也對(duì)我國算法安全管理和算法倫理建設(shè)提出了更高的要求。我們應(yīng)加強(qiáng)國際對(duì)話,主動(dòng)在符合亞太經(jīng)濟(jì)合作組織(Asia-Pacific Economic Cooperation,APEC)的相關(guān)要求下接軌《通用數(shù)據(jù)保護(hù)條例》體系,著力推動(dòng)數(shù)據(jù)跨境流動(dòng)的多邊談判。此外,還應(yīng)在《全球數(shù)據(jù)安全倡議》的基礎(chǔ)之上,在數(shù)據(jù)本地化、隱私安全和跨境綜合執(zhí)法協(xié)調(diào)等關(guān)鍵事項(xiàng)上持續(xù)完善數(shù)據(jù)跨境流動(dòng)治理框架。
所謂“規(guī)內(nèi)”,則是建立數(shù)據(jù)使用的內(nèi)部審查與行政審批機(jī)制。國內(nèi)幾大科技寡頭,諸如騰訊、百度和麒麟等或?qū)⒊蔀镃hatGPT 中國部署的中堅(jiān)力量。一方面,亟須加強(qiáng)企業(yè)數(shù)據(jù)倫理教育,強(qiáng)化企業(yè)數(shù)據(jù)使用合規(guī)意識(shí),持續(xù)提高企業(yè)數(shù)據(jù)素養(yǎng)。規(guī)范企業(yè)在訓(xùn)練ChatGPT 時(shí)數(shù)據(jù)使用的審批流程和訓(xùn)練監(jiān)測;另一方面,預(yù)判實(shí)際中可能出現(xiàn)的倫理問題,妥善布置應(yīng)急預(yù)案。加強(qiáng)行政機(jī)關(guān)與企業(yè)間的合作,政府與企業(yè)合力制訂文本數(shù)據(jù)倫理審查標(biāo)準(zhǔn),對(duì)數(shù)據(jù)收集和使用過程進(jìn)行分級(jí)倫理審查,降低文本數(shù)據(jù)偏見投喂ChatGPT的風(fēng)險(xiǎn),引導(dǎo)該算法向上向善。
資本壟斷下的ChatGPT 絕不會(huì)止于智能文本聊天工具,它還裹脅技術(shù)輸入國的意識(shí)形態(tài)。對(duì)于算法技術(shù)而言,不公開是原則,公開是例外[20]。那么,在不公開ChatGPT 算法技術(shù)的情況下如何實(shí)現(xiàn)算法倫理合規(guī)?鑒于此,筆者認(rèn)為,有必要建立算法技術(shù)倫理審查制度,并細(xì)化、明確算法技術(shù)倫理審查標(biāo)準(zhǔn),阻斷算法強(qiáng)化設(shè)計(jì)者偏見,規(guī)范算法使用者數(shù)據(jù)投喂行為。在我國,中共中央、國務(wù)院印發(fā)的《關(guān)于構(gòu)建數(shù)據(jù)基礎(chǔ)制度更好發(fā)揮數(shù)據(jù)要素作用的意見》首次明確建立算法審查制度。該《意見》雖然未就細(xì)節(jié)作詳細(xì)描述,但仍為我們對(duì)ChatGPT 進(jìn)行倫理審查提供了法律依據(jù)。算法審查制度早有實(shí)踐先例。早在2017 年底美國紐約市議會(huì)就通過《政府部門自動(dòng)決策系統(tǒng)法案》,確立了“外部問責(zé)”的規(guī)制原則,形成了以問責(zé)為主的算法審計(jì)制度。不久后,以英國德勤(Deloitte)為代表的頭部審計(jì)公司著手算法審計(jì)業(yè)務(wù),并設(shè)立算法審計(jì)師及明確相關(guān)審計(jì)內(nèi)容,這或?qū)槲覈_展算法審計(jì)提供制度借鑒。
建立以“網(wǎng)信辦”①網(wǎng)信辦即中央網(wǎng)絡(luò)安全和信息化委員會(huì)辦公室、國家互聯(lián)網(wǎng)信息辦公室的簡稱。為主體的算法審計(jì)委員會(huì),負(fù)責(zé)審計(jì)ChatGPT 在使用文本數(shù)據(jù)方面的合法性及其算法倫理合規(guī)性。倫理合規(guī)審查應(yīng)當(dāng)以和諧友好、公平公正、包容共享等八條倫理性原則為指引,構(gòu)建算法倫理審查機(jī)制,期待對(duì)其實(shí)現(xiàn)價(jià)值滲透,并將倫理考量納入算法設(shè)計(jì)與落地、數(shù)據(jù)供養(yǎng)和教育懲戒等環(huán)節(jié),形成倫理審查閉環(huán)。針對(duì)隱藏在ChatGPT 中蘊(yùn)含西方價(jià)值觀的文本數(shù)據(jù),我們需要借助算法對(duì)其展開必要的改造,使之符合中國人的價(jià)值判斷,確保數(shù)據(jù)可控可信。在審查算法設(shè)計(jì)時(shí),不僅要重視對(duì)算法透明性的審計(jì),還應(yīng)對(duì)輸出結(jié)果進(jìn)行價(jià)值評(píng)估,要將輸入評(píng)估與輸出評(píng)估置于同等重要的位置。建立算法倫理審查聽證制度,將對(duì)公民利益、社會(huì)公共生活有重大影響的算法倫理審查納入聽證的范圍,適時(shí)向社會(huì)公眾傳達(dá)算法倫理審計(jì)情況,消除算法黑箱,促進(jìn)算法公平公正。算法審查報(bào)告可作為行政機(jī)關(guān)問責(zé)的法定依據(jù),也是算法侵權(quán)案中受害者維權(quán)的法律依據(jù),應(yīng)賦予其特定的法律效力。
ChatGPT 在教育機(jī)構(gòu)和科研單位使用頻率相對(duì)較高。在教研領(lǐng)域內(nèi),ChatGPT 濫用主要表現(xiàn)在借助ChatGPT 自動(dòng)文本生成技術(shù)進(jìn)行學(xué)術(shù)創(chuàng)作,其生成的文本結(jié)果具有語言流暢、邏輯性強(qiáng)等優(yōu)點(diǎn),其輸出質(zhì)量甚至在某些方面遠(yuǎn)遠(yuǎn)高于人類自身的創(chuàng)作水平。鑒于此,ChatGPT 被廣泛應(yīng)用于論文寫作,其知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)也將是各國立法者必須回應(yīng)的問題。
建立學(xué)術(shù)誠信終身追責(zé)制度以應(yīng)對(duì)技術(shù)性的學(xué)術(shù)剽竊。利用ChatGPT 進(jìn)行論文創(chuàng)作的行為涉嫌學(xué)術(shù)不端,應(yīng)將這類行業(yè)納入學(xué)術(shù)誠信終身追責(zé)制度的規(guī)制范疇,相關(guān)學(xué)者及其所屬教育機(jī)構(gòu)屬于當(dāng)然問責(zé)主體。學(xué)者是學(xué)術(shù)不端行為的主要實(shí)施者,應(yīng)承擔(dān)全部主體責(zé)任;教育機(jī)構(gòu)對(duì)學(xué)術(shù)誠信負(fù)有監(jiān)管職責(zé),若監(jiān)管失職,應(yīng)當(dāng)就不端行為承擔(dān)連帶責(zé)任。為應(yīng)對(duì)上述風(fēng)險(xiǎn),可以從誠信教育和反算法技術(shù)兩個(gè)方面著手。一方面,相關(guān)教育機(jī)構(gòu)可在法律授權(quán)范圍內(nèi)頒布學(xué)生誠信守則和學(xué)術(shù)誠信規(guī)范,加大學(xué)者學(xué)術(shù)誠信教育力度;學(xué)者需要提升自身學(xué)術(shù)素養(yǎng),簽訂禁止使用ChatGPT 生成素材的學(xué)術(shù)承諾書,違者以學(xué)術(shù)不端處置,接受從單科成績不合格直至取消學(xué)位的處分。另一方面,教育主管部門應(yīng)當(dāng)與科研單位通力合作,展開反算法作弊檢測工具的研發(fā),以彌補(bǔ)我國在學(xué)術(shù)不端檢測技術(shù)上的短板。在境外,這方面已有先例。例如,美國斯坦福大學(xué)研發(fā)了一款名為DetectGPT 的反算法工具,它能實(shí)現(xiàn)檢測學(xué)術(shù)論文是否出自ChatGPT 的功能,該算法具有高效性和精準(zhǔn)性等特點(diǎn)[21]。除此之外,還需要將反ChatGPT檢測報(bào)告納入學(xué)術(shù)誠信審查之列,從過程中推動(dòng)學(xué)術(shù)誠信與學(xué)術(shù)公正。
每一次技術(shù)的進(jìn)步都會(huì)帶來社會(huì)變革。以ChatGPT 為典型代表的新一代人工智能技術(shù)或?qū)⒊蔀橥七M(jìn)人類社會(huì)結(jié)構(gòu)加速演進(jìn)的催化劑。它不僅給人類帶來了前所未有的技術(shù)便利,亦因其倫理問題不斷接受人類社會(huì)的拷問。ChatGPT 文本數(shù)據(jù)中的價(jià)值偏見在RLHF 的強(qiáng)化訓(xùn)練下不斷被放大,易引發(fā)社會(huì)歧視和有失公允的惡劣后果,將給人類社會(huì)帶來不安定因素,是法律制度層面不可回避的社會(huì)難題。人工智能技術(shù)的發(fā)展是一條不歸路,還是輔助人類邁向更高級(jí)文明的“諾亞方舟”,這將取決于人類社會(huì)的倫理建構(gòu)與法制健全。
意識(shí)形態(tài)博弈的殘酷性不亞于煙硝戰(zhàn)場。ChatGPT 作為西方技術(shù)、意識(shí)形態(tài)和與價(jià)值觀等多重因素喂養(yǎng)下的產(chǎn)物,其大概率不會(huì)止于文本語言工具的形態(tài)存在。面對(duì)我國與歐美諸國在該技術(shù)領(lǐng)域的巨大差距,我們需要本著審慎的態(tài)度謹(jǐn)防ChatGPT 成為宣揚(yáng)西方意識(shí)形態(tài)與價(jià)值觀的布道工具。在ChatGPT 于中國本土使用過程中,我們應(yīng)該從文本數(shù)據(jù)投喂、技術(shù)改造和算法監(jiān)督等多個(gè)角度去西方化,使其從倫理上真正符合東方人的價(jià)值評(píng)判,為我國數(shù)字經(jīng)濟(jì)的持續(xù)發(fā)展增添強(qiáng)健動(dòng)力。