王沛然
內(nèi)容摘要:生成式人工智能基于概率預(yù)測進行涌現(xiàn)創(chuàng)造,而不是基于規(guī)則編碼進行傳統(tǒng)的符號輸出,其標(biāo)志著人工智能在意識能力上已從邏輯思考拓維至經(jīng)驗直覺,正向通用人工智能加速演進。大規(guī)模參數(shù)支持下的壓倒性概率,使機器擺脫了對工程師預(yù)設(shè)邏輯規(guī)則的依賴,但由于深度神經(jīng)網(wǎng)絡(luò)的“直覺”機制難以清晰呈現(xiàn),傳統(tǒng)符號主義時代的可解釋性規(guī)制也將從教義式的規(guī)范信條轉(zhuǎn)變?yōu)閷崿F(xiàn)“模型可信”的工具手段,其并非以算法為中心的完全透明,而是區(qū)分對象、目的、內(nèi)容、效果的模型說明方案。通用人工智能的行為決策主要源于形而下的經(jīng)驗積累而非形而上的超驗規(guī)定,應(yīng)以強調(diào)經(jīng)驗的實用主義哲學(xué)為內(nèi)核,從控制主義轉(zhuǎn)向訓(xùn)導(dǎo)主義的治理范式:圍繞“價值對齊”創(chuàng)新技術(shù)手段和規(guī)范機制,培育機器造福人類的終極動機;加強數(shù)據(jù)生態(tài)規(guī)范化建設(shè),避免不良內(nèi)容侵蝕機器認(rèn)知框架;優(yōu)化應(yīng)用互動環(huán)境,注重場景分類分級監(jiān)管與針對用戶的規(guī)制。
關(guān)鍵詞: 生成式人工智能通用人工智能可解釋人工智能法律規(guī)制價值對齊實用主義哲學(xué)
中圖分類號:DF0 文獻標(biāo)識碼:A 文章編號:1674-4039-(2023)06-0188-198
2023年4月召開的中共中央政治局會議指出:“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風(fēng)險。”ChatGPT是邁向通用人工智能(Artificial2General2Intelligence,以下簡稱AGI)的關(guān)鍵一步,正在為“比人類更聰明”的AGI作準(zhǔn)備。〔12〕AGI是具有廣域泛化能力的系統(tǒng),不同于一般意義上的人工智能,其并非僅在封閉場景下完成特定任務(wù),〔22〕而是具有情境覺知能力〔32〕和自主注意力機制?!?2〕不同于蒸汽革命或電氣革命讓人類從體力勞動中得到釋放, 以ChatGPT為代表的生成式人工智能引發(fā)的是信息生產(chǎn)與知識創(chuàng)造的革命,〔52〕正在把人類精神生產(chǎn)力從人腦生物性限制下解放出來,這不是“手工”的消亡,而是“腦工”的終結(jié)。〔6"〕在AGI的沖擊下,調(diào)整社會生活的規(guī)范系統(tǒng)將面臨重塑。以生成式人工智能的突破進展為契機,AGI有何本質(zhì)不同?法律面臨何種根本挑戰(zhàn)?如何理解當(dāng)前制度的理念內(nèi)核,應(yīng)朝向何方促成治理范式進化? 本文從技術(shù)原理、規(guī)制脈絡(luò)、范式理念三個層面遞次回應(yīng)上述問題。
一、從邏輯思考到經(jīng)驗直覺:AGI意識能力的補全
在傳統(tǒng)人工智能中,開發(fā)者須事先預(yù)想所有可能的情況并將其編碼為特定規(guī)則算法,機器沿著工程師設(shè)計的路線圖,得以在封閉的任務(wù)場域內(nèi)勝任邏輯思考的任務(wù)?;谏疃壬窠?jīng)網(wǎng)絡(luò)的生成式人工智能則具備開放的創(chuàng)造性和想象力,甚至對著作權(quán)法意義上的“獨創(chuàng)性表達”作出主要貢獻?!?"〕語言涌現(xiàn)與藝術(shù)創(chuàng)造被視為靈感的賞賜,這種無法預(yù)測和控制的思維過程不是邏輯思考的面向,而是經(jīng)驗直覺的維度。從生成式人工智能的技術(shù)路線可預(yù)見,AGI的意識能力將由此得到補全。
(一)連接主義與統(tǒng)計路徑的勝利
人工智能技術(shù)史上素有符號主義與連接主義的路線之爭。符號主義主張思維的基本單元是符號,將認(rèn)知描述為符號運算,主要依賴邏輯規(guī)則進行知識表示和分析推理。連接主義旨在模擬人腦生物結(jié)構(gòu),通過人工神經(jīng)網(wǎng)絡(luò)的“刺激—響應(yīng)”連接機制完成任務(wù)?!?"〕從時序上看,符號主義人工智能是第一代人工智能,連接主義人工智能是第二代人工智能?!?"〕
符號主義認(rèn)為,“人類思維的很大一部分是按照推理和猜想規(guī)則對‘詞’進行操作所組成的”,〔10+〕智能行為依賴于物理符號系統(tǒng)。該系統(tǒng)具有輸入、輸出、存儲、復(fù)制符號,以及建立符號結(jié)構(gòu)、條件性遷移等六項功能,從而表現(xiàn)出智能。計算機與人都是物理符號系統(tǒng);按照人類思維操作的過程來編制計算機程序,使計算機模擬人的活動,就是人工智能研究內(nèi)容?!?1"〕給定符號集和操作符號的規(guī)則集,對符號的重組只涉及形式邏輯而不涉及實質(zhì)語義?!?2"〕符號主義的優(yōu)勢在于,通過人類專家對問題的邏輯建模和規(guī)則制定,人工智能決策過程有步驟、可解釋、可追溯。但問題是,無論制定多少規(guī)則,總有情形未被編入代碼。對于定義模糊的問題,以及超出定義范圍的情境,符號主義人工智能無力應(yīng)對。隨著情境復(fù)雜度趨高,大量人工介入不可避免,符號主義人工智能的發(fā)展遭遇瓶頸。
符號主義是自上而下的路徑,連接主義則是自下而上的方法。人腦由數(shù)百億彼此相連的神經(jīng)元組成,通過學(xué)習(xí)修改神經(jīng)元間的連接強度,適應(yīng)變化無常的世界;人工神經(jīng)網(wǎng)絡(luò)以類似方式獲取適應(yīng)性,而互聯(lián)網(wǎng)提供了大規(guī)模多源數(shù)據(jù)供其訓(xùn)練。通過多層次的神經(jīng)元連接,機器自動從大量數(shù)據(jù)中學(xué)習(xí)復(fù)雜特征表示,具有強大的非線性關(guān)系處理能力和自適應(yīng)能力。
符號主義與連接主義的路線之爭反映到自然語言處理領(lǐng)域,具體表現(xiàn)為規(guī)則路徑與統(tǒng)計路徑的技術(shù)分野。〔13+〕符號主義主要使用規(guī)則邏輯,來表達和推理知識,而連接主義主要使用統(tǒng)計方法來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)。生成式人工智能傾向于代表統(tǒng)計方法的勝利:ChatGPT并非按某種形式邏輯搜尋預(yù)設(shè)語句輸出回答;作為基于深度學(xué)習(xí)的語言模型,其生成內(nèi)容并非預(yù)設(shè),而是在大規(guī)模語料庫訓(xùn)練基礎(chǔ)上,根據(jù)上下文預(yù)測所有可能輸出的下一個字符,并選擇概率最大的語句作為最終輸出結(jié)果,這種類似“接龍”生成的語言自然流暢?!?4#〕相比之下,傳統(tǒng)規(guī)則主義方法難以應(yīng)對語言的多樣復(fù)雜性,多顯生硬。當(dāng)然,規(guī)則主義方法在知識圖譜支撐下具有精準(zhǔn)可控的優(yōu)勢,AGI有望將規(guī)則方法與概率方法結(jié)合起來,既保留準(zhǔn)確性、可靠性,又發(fā)揮遷移泛化的通用性、創(chuàng)造性。
(二)機器的直覺:ChatGPT有何不同?
生成式人工智能是否具有意識? 新實用主義哲學(xué)家、計算機科學(xué)家普特南曾提出“缸中之腦”思想實驗:想象一個人的大腦放在缸里,缸中充滿一種特殊液體以使之存活,大腦神經(jīng)末梢同一臺超級計算機相連,這臺計算機可以模擬大腦所受的各種刺激和信號,讓其以為它仍在人體內(nèi)運轉(zhuǎn),大腦的主人具有一切如常的幻覺;缸中之腦雖然沒有身體感覺器官,但確實具有類似感官饋飼的神經(jīng)末梢傳入信號,這些信號在缸中之腦的運算與人類大腦中的運算別無二致,“不承認(rèn)它們具有意識或者智慧是荒謬的”?!?5#〕這表明,意識狀態(tài)不應(yīng)被還原為大腦的生理組織而應(yīng)該被還原為其功能狀態(tài),大腦的物質(zhì)基礎(chǔ)并不是最重要的,〔16#〕由此也強調(diào)了大腦對外部刺激信號的處理而產(chǎn)生的內(nèi)在體驗。圖靈則更注重外觀效果,他認(rèn)為真正重要的是判斷一臺機器能否表現(xiàn)出與人類等同或難以區(qū)分的智能行為?!?7#〕人類無法從第一人稱視角衡量人工智能的內(nèi)在體驗,但在外觀意義上,生成式人工智能的出色表現(xiàn)似乎足以讓人認(rèn)為其具有一定意識能力。這里表述為“意識能力”而非“意識”,主要考慮到生成式人工智能目前只展現(xiàn)出這種潛能的一部分。在人文主義哲學(xué)家那里,意識乃至靈魂是人類面對AGI進攻的最后堡壘。〔18#〕
意識主要有兩種認(rèn)知方式,一種是分析性的理性,另一種是經(jīng)驗性的直覺,前者運用邏輯證據(jù)推導(dǎo)產(chǎn)生,后者基于經(jīng)驗迅速自動形成?!?9#〕如果說傳統(tǒng)基于規(guī)則編碼的人工智能已學(xué)會理性的邏輯思考,那么基于統(tǒng)計預(yù)測的生成式人工智能實則已擁有感性的經(jīng)驗直覺。認(rèn)知心理學(xué)家認(rèn)為,直覺是一種迅速出現(xiàn)在意識中的判斷,這種判斷的深層理由并不能被完全說清楚,但它足夠強烈以至于讓人產(chǎn)生行動,其支撐原理主要是經(jīng)驗法則和大腦進化能力。〔20#〕這種經(jīng)驗與神經(jīng)的互動機制與生成式人工智能使用的概率預(yù)測方法之間有相似之處:直覺是由人腦潛意識對大量經(jīng)驗進行總結(jié)歸納,快速產(chǎn)生判斷或決策,這正如人工神經(jīng)網(wǎng)絡(luò)基于大數(shù)據(jù)統(tǒng)計預(yù)測,生成概率最大的輸出結(jié)果。大模型是直覺機制的運用者:雖然“說不清、道不明”,但在數(shù)以億計的參數(shù)支撐下,面對特定提示詞的啟發(fā),總有一種“感覺”“沖動”促使自己生成某種語句、圖像乃至音視頻,這實際上就是壓倒性概率導(dǎo)向的直覺?!敖柚诖碳し夯袡C體能夠把已有的經(jīng)驗遷移到新的學(xué)習(xí)環(huán)境中去,從而擴大學(xué)習(xí)范圍?!薄?1#〕基于大規(guī)模數(shù)據(jù)訓(xùn)練的直覺“涌現(xiàn)”,正是生成式人工智能的特別之處。
具體應(yīng)用中,符號主義人工智能回應(yīng)法律咨詢時,會抓取用戶指令的關(guān)鍵要素,基于專家預(yù)先設(shè)定的規(guī)則進行模式識別、符號演算和邏輯推理,定位到系統(tǒng)知識圖譜中的特定知識,形成相應(yīng)回答。假如這臺機器賴以支撐的知識圖譜準(zhǔn)確完善,那么其回答中引用的法律條文將與現(xiàn)實中真實條文一字不差。這是因為法律概念與條文已作為“本體”框架固定到知識圖譜中,成為系統(tǒng)內(nèi)部確定知識以支撐邏輯思考?!?2#〕但向ChatGPT詢問某個法律問題,它很可能編造并不存在的法律條文。美國有律師使用ChatGPT輔助訴訟,結(jié)果其憑空捏造了6個虛假判例作為法律淵源,最終釀成大錯?!?3+〕業(yè)界稱之為“機器幻覺”難題。實際上,幻覺就是錯誤的直覺,這正是想象力、創(chuàng)造力的表現(xiàn)。
“意識能夠把某些不太相關(guān)的內(nèi)容煉化掉,是智能的一種體現(xiàn)”,〔24+〕擁有自主注意力的AGI具有更強大的自我統(tǒng)攝性。這種智能不單是基于規(guī)則的邏輯思考能力,還包括基于經(jīng)驗的直覺創(chuàng)造能力。
二、從算法可釋到模型可信:AGI規(guī)制核心的轉(zhuǎn)變
法律發(fā)揮穩(wěn)定規(guī)范預(yù)期的功能, 但日新月異的技術(shù)不斷挑戰(zhàn)著以文本形式固定下來的法律制度。當(dāng)符號主義時代提出的可解釋性成為主流規(guī)制方案時,從本質(zhì)上就難以透明解釋的神經(jīng)網(wǎng)絡(luò)已經(jīng)占據(jù)技術(shù)舞臺的中心。在該歷史進程中,“算法”的概念發(fā)生偏移,包含巨量參數(shù)的大模型成為AGI的核心。由于“直覺”難以解釋,可解釋性規(guī)制也將從一種教義式的規(guī)范信條轉(zhuǎn)變?yōu)閷崿F(xiàn)“模型可信”的工具手段,它不再是全盤托出的透明,而是區(qū)分對象、目的、場景、內(nèi)容的說明方案。
(一)超越以算法為中心的可解釋性規(guī)制
1.算法、模型與可解釋人工智能
在社科法學(xué)知識生產(chǎn)過程中,若沒有尊重相關(guān)學(xué)科的術(shù)語體系,則容易導(dǎo)致討論混亂?!?5+〕人工智能法領(lǐng)域的算法研究汗牛充棟,但有學(xué)者指出:“法學(xué)文獻中層見疊出的‘算法’表述往往脫離技術(shù)事實,在規(guī)范上也無準(zhǔn)確所指,有些甚至是明顯的張冠李戴……大量‘提喻’性的‘算法’,其真實所指是對自然人權(quán)益有直接影響的人工智能系統(tǒng)?!薄?6+〕實際上,在計算機專家眼中,“算法是以某個值或一組值作為輸入,并產(chǎn)生一些值或一組值作為輸出的任何被妥善定義的計算過程”,即“將輸入轉(zhuǎn)化為輸出的一系列計算步驟”。〔27+〕不管是梯度下降算法、反向傳播算法,還是協(xié)同過濾算法,其實都是一套清晰的規(guī)則,“算法=邏輯+控制”。〔288〕由此梳理算法、模型、參數(shù)等概念及其關(guān)系。算法是一組方法或步驟,用于實現(xiàn)某種特定的任務(wù)或解決某個問題。模型是在算法使用數(shù)據(jù)進行訓(xùn)練后輸出的文件,通常是具有特定流程和結(jié)構(gòu)的計算機程序。參數(shù)是模型中需要訓(xùn)練和優(yōu)化的變量,它們的值影響模型輸出結(jié)果,例如GPT-3具有1750億個參數(shù)。
所以,雖然“算法黑箱”是中文法學(xué)界熱詞,但在使用這種提法時應(yīng)當(dāng)明晰其指向。所謂“黑箱”,并不是算法本身不夠透明,而是“AI黑箱”———無法完全理解的人工智能決策過程以及無法精準(zhǔn)預(yù)測的人工智能輸出。〔29+〕其關(guān)鍵在于模型或系統(tǒng)。歐美主要法域相關(guān)法律文件中極少出現(xiàn)技術(shù)細(xì)節(jié)層面的“算法”一詞?!?08〕討論焦點實為“可解釋AI”(Explainable8AI,8簡稱XAI),而非“可解釋算法”。學(xué)界所謂“算法解釋權(quán)”是一個飽受爭議的概念?!?18〕誠然,由于媒體的熱炒,“算法”概念的語義偏移或已難避免,但應(yīng)在不同語境中辨明其外延指向,實現(xiàn)知識推理的體系性和研究成果的實效性。如果法律領(lǐng)域的“算法”與技術(shù)語境的算法,概念口徑存在較大縮放空間,則可能削弱規(guī)制效果。從技術(shù)實質(zhì)考慮,法律規(guī)范應(yīng)將注意力放到數(shù)據(jù)、模型和系統(tǒng)這些指向更為清晰、作用更為關(guān)鍵的層面。
2.符號主義時代的產(chǎn)物———傳統(tǒng)人工智能規(guī)制原理辨析
新一代人工智能的某些“黑箱”囿于技術(shù)約束是無法避免的,但為何主流學(xué)術(shù)界和實務(wù)界仍執(zhí)著于“可解釋性”的規(guī)制思路? 一種可能的解釋是,可解釋性原則在源頭上本是符號主義人工智能時代的產(chǎn)物,由于路徑依賴效應(yīng)延續(xù)至今。從時間上看,可解釋性原則的提出之際正是符號主義人工智能大行其道的時代。20世紀(jì)70至80年代,由人類專家定義和制定規(guī)則的符號主義人工智能發(fā)展鼎盛,著名的系統(tǒng)包括卡內(nèi)基梅隆大學(xué)的XCON(1978年,近1萬條規(guī)則)、斯坦福大學(xué)的MYCIN(1984年,400多條規(guī)則)等?!?22〕這一時期相應(yīng)出現(xiàn)了“可解釋AI”的研究文獻,〔332〕通過解釋系統(tǒng)內(nèi)部的推理規(guī)則,人類希望理解其為何輸出某種特定決策結(jié)果。從效果上看,在輸入的符號與輸出的結(jié)果之間對各個處理步驟進行逐一仔細(xì)的回溯性檢查,這使得人工智能的行為處于人類的高度控制之下。在可行性維度,由于機器內(nèi)部的規(guī)則和知識是由人類專家定義和制定的,它們也更易于人類理解?!?42〕
隨著神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)等復(fù)雜技術(shù)的興起,可解釋性原則的必要性與可行性受到部分學(xué)者的質(zhì)疑。學(xué)者們認(rèn)為,國家安全、社會秩序、私主體權(quán)利可能與之相沖突,并且打開黑箱也并不等同于看懂黑箱內(nèi)的內(nèi)容和解決實際規(guī)制問題,〔352〕這種思路面臨技術(shù)不可行、公開無意義,用戶算計與侵犯知識產(chǎn)權(quán)等現(xiàn)實難題?!?62〕實際上,由于有多重技術(shù)黑箱的疊加,所謂的解釋也可能是牽強附會的便辭巧說,外部觀察者根本難以證偽?!?72〕有學(xué)者則提出“透明層次論”對上述矛盾進行緩釋,如通過柔性規(guī)范推動“經(jīng)由設(shè)計的透明”?!?82〕超越非黑即白的二元對立思維,基于場景主義方法以光譜式多層次透明度應(yīng)對黑箱難題,確實是一條值得肯定的現(xiàn)實路徑;不過這似乎表征著傳統(tǒng)人工智能規(guī)制原理向技術(shù)現(xiàn)實作出的艱難讓步,與之相伴的正是符號主義技術(shù)路線在相關(guān)領(lǐng)域的敗退。透明層次論正是在這樣的妥協(xié)中力求劃定一條堅守的底線。那么,生成式人工智能及其正在孕育的AGI,究竟有哪些可以透明的“層次”? 對此,有必要以大模型為例展開研討。
(二)AGI的規(guī)制難點與應(yīng)對方案
對于具有邏輯確定性的符號主義人工智能而言,關(guān)鍵在于對代碼編寫者的權(quán)力進行控制,防止代碼規(guī)則在轉(zhuǎn)譯現(xiàn)實時脫離藍本?!?92〕但AGI的決策路徑不同,它不一定使用邏輯思考的方式,而是基于經(jīng)驗產(chǎn)生行動的直覺。思考可以很復(fù)雜,但往往條理清晰而得以解釋;直覺可以很簡單,但其支撐理由通常是一片混沌。這既意味著AGI在創(chuàng)造性方面的潛力,也預(yù)示了其規(guī)制難題。
質(zhì)言之,AGI的“直覺”從根本上撼動了傳統(tǒng)人工智能“算法可釋”的規(guī)制原理。一方面,“算法”并不能涵蓋生成式人工智能的內(nèi)核,因為大模型不是單純介于輸入與輸出之間的計算方法,而是“處理框架+大規(guī)模參數(shù)”的集合體。處理框架即模型的整體結(jié)構(gòu)和運行方式,而參數(shù)則負(fù)責(zé)“記憶”模型所學(xué)到的知識,決定了模型的意識能力和生成內(nèi)容的質(zhì)量。以人腦作類比,人們的思維方式、世界知識、技能方法等廣義的“經(jīng)驗”或“記憶”都會塑造或改變大腦的某些特定神經(jīng)回路或連接,其原理即“神經(jīng)可塑性”。〔402〕這些存儲在大腦神經(jīng)元與突觸間的“記憶”會極大地影響人們輸出的語言內(nèi)容和質(zhì)量,正所謂“腹有詩書氣自華”。同樣地,對于人工神經(jīng)網(wǎng)絡(luò)而言,大規(guī)模訓(xùn)練數(shù)據(jù)可以擴充和改變模型的參數(shù),這些參數(shù)在某種意義上代表著機器的“記憶”。可見,無論是技術(shù)意義上作為計算步驟的算法,還是提喻意義上作為處理框架的“算法”,都忽視了模型內(nèi)部龐大參數(shù)所帶來的關(guān)鍵影響。實際上,AGI的規(guī)制落腳點主要在于模型。
另一方面,直覺是一種向“可能”場域的延展,而不僅是就事論事的機械執(zhí)行,算法“可釋”的原初邏輯已然消解。人類思維的不可視性決定了人腦從本質(zhì)上就是一個“黑箱”。模仿人腦構(gòu)建神經(jīng)網(wǎng)絡(luò)的人工智能也天然具有“黑箱”屬性:輸入與輸出之間存在多個隱藏層,第三代人工神經(jīng)網(wǎng)絡(luò)甚至像人腦神經(jīng)元一樣通過脈沖交換信息。〔41&〕面對巨大復(fù)雜計算量和算力的客觀局限,人類也不可能在合理時間內(nèi)審查AGI的全部計算過程,換言之,其無法達到完備的被認(rèn)知狀態(tài)?!?2&〕所以,盡管傳統(tǒng)人工智能的規(guī)制核心在于“算法可釋”,即呈現(xiàn)其內(nèi)部的推理步驟,但AGI的規(guī)制核心并非如此。
從技術(shù)與人的關(guān)系來看,AGI不再像傳統(tǒng)工具一樣是人類“自我身體的延伸”,而是擁有自主智能性的“它者”。作為一種與人面對面相遇的獨立存在,其不透明性導(dǎo)致的是信任難題。規(guī)制AGI的關(guān)鍵在于構(gòu)建足以讓人信任的模型,即實現(xiàn)“模型可信”?!靶湃巍币馕吨┬欧脚c受信方之間存在或多或少的信息不對稱,同時受信方亦展現(xiàn)一定特質(zhì)、披露一定信息,讓施信方在不掌握全盤信息時,仍有底氣將信賴托付出去。信息的披露總是存在顆粒度的極限邊界。例如,人類可以對自己的決策作出解釋,這些解釋可能包括理性論證或指向感性沖動,但并不需要對決策過程中大腦神經(jīng)活動細(xì)節(jié)進行描述。只需要以語言行動等方式為媒介,當(dāng)交互雙方的信息流動突破某個均衡點時,信任即可發(fā)生。國際上備受關(guān)注的“可解釋AI”落實到AGI領(lǐng)域,實質(zhì)在于打造安全可信的模型。可解釋是為了可理解,可理解是為了可信任。解釋不是在算法層面,而是在模型或系統(tǒng)層面;解釋只是邁向“模型可信”的手段之一。所以,解釋并不要求全盤托出,也不是籠統(tǒng)標(biāo)榜透明,而要具體區(qū)分對象、目的、內(nèi)容、效果。
具言之,在解釋對象和目的方面,至少應(yīng)區(qū)分幾種不同的受眾———第三方認(rèn)證審計等技術(shù)專家、監(jiān)管者、商業(yè)合作伙伴、消費者等,每類受眾的知識背景和目標(biāo)訴求都有所不同。技術(shù)專家與監(jiān)管者更側(cè)重于從社會公共利益角度對可能影響網(wǎng)絡(luò)安全和國家安全的產(chǎn)品服務(wù)進行安全性審查?!?3&〕商業(yè)合作伙伴可能傾向于獲知系統(tǒng)的業(yè)務(wù)邏輯與技術(shù)方案,消費者則更希望了解產(chǎn)品服務(wù)的特性以及它對自身所造成的可能影響及其原因。在解釋內(nèi)容方面,針對處理超大規(guī)模參數(shù)的AGI,普通用戶并不需要了解機器每個行為背后的神經(jīng)元構(gòu)成及權(quán)重變化,真正對機器具有較深層次解釋需求的實際上是監(jiān)管者和審計者。〔44&〕經(jīng)濟合作與發(fā)展組織也指出,“透明度一般不會擴展到披露源代碼或其他專有代碼,或共享專有數(shù)據(jù)集,這在技術(shù)上可能過于復(fù)雜,以至于并不具備可行性或有助于理解結(jié)果。源代碼和數(shù)據(jù)集也可能受知識產(chǎn)權(quán)或商業(yè)秘密的保護”?!?5&〕在解釋效果方面,審計者等技術(shù)專家應(yīng)當(dāng)?shù)靡酝ㄟ^對模型架構(gòu)、參數(shù)來源、訓(xùn)練數(shù)據(jù)等方面的詳盡了解,實現(xiàn)對AGI可靠性安全性的審核確認(rèn),而普通用戶則主要是以清晰簡單的語言方式獲知機器運行的基本原理和機制,以及決定輸出結(jié)果的主要因素。實際上,真正重要的是形成“提出理由和反對理由”的意見交換制度,通過不同主體對技術(shù)和決策的具體評價確保個人成為數(shù)字化秩序的主體。〔46&〕
(三)歐盟《人工智能法案》相關(guān)條款分析
人工智能的比較法發(fā)展可以為人工智能規(guī)制脈絡(luò)提供鏡鑒。2023年6月, 歐洲議會投票通過《人工智能法案》,這意味著歐洲議會、歐盟成員國和歐盟委員會將開始“三方談判”確定法案的最終條款。當(dāng)前版本法案最大的特點是采取風(fēng)險分級路徑進行規(guī)制,而風(fēng)險是基于人工智能系統(tǒng)的應(yīng)用場景進行判定的,涉及如下領(lǐng)域的系統(tǒng)則為高風(fēng)險:自然人的生物特征識別和分類,關(guān)鍵基礎(chǔ)設(shè)施的管理和運營,教育和職業(yè)培訓(xùn),就業(yè)、員工管理和獲得自主就業(yè),獲得和享受基本私人服務(wù)以及公共服務(wù)和福利,執(zhí)法,移民、庇護和邊境管制管理,司法行政和民主程序。〔47#〕
AGI如運用于上述領(lǐng)域,亦會歸入高風(fēng)險之列。根據(jù)法案第11條第1款,高風(fēng)險人工智能系統(tǒng)的技術(shù)文件應(yīng)當(dāng)在該系統(tǒng)投放市場或投入使用之前制定,至少應(yīng)包含附件IV所規(guī)定的內(nèi)容。而從附件IV來看,技術(shù)文件包括了人工智能系統(tǒng)的一般描述(如預(yù)期目的、開發(fā)系統(tǒng)的人員、系統(tǒng)投放市場或投入使用的所有形式的描述、運行硬件的描述等),人工智能系統(tǒng)要素及其開發(fā)過程的詳細(xì)說明(如預(yù)訓(xùn)練工具等開發(fā)方法和步驟,基本原理假設(shè)、算法系統(tǒng)邏輯、參數(shù)相關(guān)性等系統(tǒng)設(shè)計規(guī)范,以及系統(tǒng)架構(gòu)描述、使用的驗證和測試程序等),人工智能系統(tǒng)的監(jiān)測、運行和控制的詳細(xì)信息,等等。可見,高風(fēng)險人工智能系統(tǒng)面向監(jiān)管者、審計者的解釋義務(wù)較高,透明顆粒度較細(xì)。不難理解的是,作為公共利益的代表者,要信任高風(fēng)險模型必須掌握更多信息。
法案第13條則針對面向用戶的透明度進行規(guī)定,要求高風(fēng)險人工智能系統(tǒng)的設(shè)計和開發(fā)應(yīng)附有適當(dāng)?shù)氖褂谜f明,其中包括與用戶相關(guān)的、可獲取的、可理解的簡明、完整、正確和清晰的信息。該條第3款還進一步細(xì)化了要說明的內(nèi)容,包括系統(tǒng)的性能特征、功能和局限性等。顯然,面向用戶的說明并不涉及太多的技術(shù)細(xì)節(jié),透明的內(nèi)容和程度達到的是“適當(dāng)”的要求。
值得注意的是,法案在開篇的備忘錄中提及,“對于一些特定的人工智能系統(tǒng),(法案)只提出了最低限度的透明度義務(wù),特別是在使用聊天機器人或‘深度偽造’時”?!?8,〕如果人工智能只是作為聊天機器人而不涉及前述敏感應(yīng)用場景,則供應(yīng)商可能適用法案第52條的透明度義務(wù):使自然人被告知他們正在與人工智能系統(tǒng)進行互動,除非從環(huán)境和使用背景中可以明顯看出這一點;對于情感識別系統(tǒng)或生物識別分類系統(tǒng),應(yīng)將該系統(tǒng)的運作情況告知接觸到該系統(tǒng)的自然人;如果人工智能系統(tǒng)生成或操縱的圖像、音頻或視頻內(nèi)容與現(xiàn)有的人、物、地方或其他實體或事件明顯相似,并會讓人誤以為是真實的,則應(yīng)披露該內(nèi)容是人為生成或操縱的。這意味著,此時的透明度義務(wù)主要指向?qū)θ斯ぶ悄芟到y(tǒng)使用情況的披露,而不涉及在原理或技術(shù)層面的公開。這一方面印證了本文主張的觀點,即生成式人工智能及AGI的規(guī)制核心并非算法可釋, 而是聚焦于使特定主體在特定場景下對模型產(chǎn)生足夠的信任。另一方面也正如學(xué)者所言,將技術(shù)創(chuàng)新與新型技術(shù)風(fēng)險等同、將一項單獨的技術(shù)產(chǎn)品及其風(fēng)險作為新型的治理對象,存在商榷和反思的空間?!?9,〕
三、從控制主義到訓(xùn)導(dǎo)主義:AGI治理范式的躍遷
韋伯有言:“直接支配人類行為的,不是思想,而是物質(zhì)和理想化的利益。但被思想觀念創(chuàng)造出來的‘世界形象’,往往如扳道工一樣,決定著利益動力學(xué)推進行動的軌道?!薄?0#〕技術(shù)發(fā)展伴隨著制度體系的流變,而兩者背后還有一條隱秘的思想史線索。在技術(shù)原理與制度實踐基礎(chǔ)上進行抽象提煉,揭示出人工智能開發(fā)應(yīng)用與治理范式的理念脈絡(luò),為AGI時代的來臨做好思想認(rèn)識上的準(zhǔn)備,意義深遠(yuǎn)。
(一)基于邏輯的控制與基于經(jīng)驗的訓(xùn)導(dǎo)
基于邏輯規(guī)則的符號主義人工智能與基于神經(jīng)網(wǎng)絡(luò)的連接主義人工智能,反映了兩種不同的哲學(xué)觀。前者認(rèn)為人工智能的行為與決策來源于形而上的超驗規(guī)定,只要這些規(guī)定足夠覆蓋現(xiàn)實世界中每一種可能的情況,并且在每種情況中指示人工智能作出類似人類的特定反應(yīng),那么就實現(xiàn)了人工智能作為無限接近人類的本體存在。后者認(rèn)為人工智能的行為與決策來源于形而下的經(jīng)驗積累,只要這些經(jīng)驗足夠豐富多樣,并且讓人工智能通過不斷地試錯和反饋來優(yōu)化自身的參數(shù),那么就可以讓人工智能成為不斷逼近乃至超越人類的能動行為體。
實現(xiàn)AGI的關(guān)鍵在于后者,即基于經(jīng)驗的路線。從定義上看,AGI是可以在多樣化的情景環(huán)境中執(zhí)行多樣化任務(wù)、實現(xiàn)多樣化目標(biāo)的系統(tǒng),它必須有能力處理和應(yīng)對那些其開發(fā)創(chuàng)造者并未預(yù)料到的情況和難題,并且擁有良好的知識總結(jié)提煉能力、知識遷移運用能力。由于人類的理性是有限的,客觀上不可能為機器預(yù)見并設(shè)定所有的可能情景和目標(biāo)路徑,因此基于規(guī)則的符號主義路線難以完成開發(fā)AGI的任務(wù)。生成式人工智能通過預(yù)訓(xùn)練大模型執(zhí)行泛化任務(wù)、涌現(xiàn)創(chuàng)造靈感,為AGI的到來開辟了道路,而其成功的根源在于為機器找到了從多模態(tài)數(shù)據(jù)中自主學(xué)習(xí)經(jīng)驗并迭代成長的機制。
實現(xiàn)智能的技術(shù)路線決定了規(guī)制者如何理解AGI的特征,進而影響對規(guī)范作用方式的設(shè)想,這些意識層面的線索可以整合形成治理范式。針對符號主義人工智能的治理范式,是以基于邏輯的控制為中心,或稱“控制主義”治理范式。符號主義人工智能構(gòu)筑于人為制定的代碼規(guī)則之上,因而人類的規(guī)范系統(tǒng)是要實現(xiàn)對機器內(nèi)部符號邏輯的精準(zhǔn)把控,確保對人工智能的高度控制。換言之,自上而下的規(guī)則設(shè)計將迫使人工智能對特定情境進行特定模式的處理,給定可預(yù)期的輸出。我國很多人工智能治理文件都提出了“安全可控”的治理目標(biāo),涉及算法透明度、算法問責(zé)等具體規(guī)定。這些規(guī)范是控制主義治理范式的集中反映,該范式以確保作為信息處理步驟的“算法”受控為途徑,力圖實現(xiàn)人工智能安全、公平、準(zhǔn)確等目標(biāo)。
但是,生成式人工智能基于深度神經(jīng)網(wǎng)絡(luò)和超大規(guī)模參數(shù),其直覺涌現(xiàn)機制從根本上動搖了“人類可以精確預(yù)測和掌控機器行為”的認(rèn)知。人工智能背后的技術(shù)語言存在某種悖論,即對精準(zhǔn)的執(zhí)念終將導(dǎo)致與執(zhí)念境地相反的結(jié)局?!?1&〕面對生成式人工智能及其正在邁向的AGI,控制主義治理范式將陷入失靈的困境。從技術(shù)原理上看,AGI的行為很難直接精準(zhǔn)地受控制。大模型的涌現(xiàn)創(chuàng)造力是一種直覺機制,其生成原理涉及模型結(jié)構(gòu)與參數(shù)設(shè)置,而相當(dāng)一部分參數(shù)是經(jīng)由大規(guī)模數(shù)據(jù)訓(xùn)練獲取,涉及數(shù)百億、千億乃至更大規(guī)模的數(shù)量級,不同參數(shù)之間的相互作用和權(quán)衡關(guān)系非常復(fù)雜,難以直接控制和精確調(diào)整以實現(xiàn)特定結(jié)果。從治理效果上看,試圖控制生成式人工智能或AGI行為的努力并不能確保良好有效的結(jié)果,反而可能造成資源浪費和機會錯失??刂浦髁x思維的出發(fā)點是安全,但要統(tǒng)籌發(fā)展與安全,就不能因安全考慮而阻礙發(fā)展??刂浦髁x范式下的規(guī)制措施可能對AGI開發(fā)廠商所施加不合理的成本壓力,從而限制技術(shù)創(chuàng)新迭代,導(dǎo)致我國在國際競爭格局中處于被動地位。2023年4月《生成式人工智能服務(wù)管理辦法(征求意見稿)》第4條“利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確,采取措施防止生成虛假信息”體現(xiàn)了控制主義的理念,而在最終正式發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》中更改為“基于服務(wù)類型特點,采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性”,柔化了對人工智能輸出結(jié)果的硬性控制要求,值得肯定。
總之,對于AGI而言,風(fēng)險可控不等于行為可控。涌現(xiàn)創(chuàng)造力正意味著不可預(yù)測性。既然人類在代碼層面對AGI實施全面精準(zhǔn)控制的能力顯示出下降的征兆,則有必要探索以經(jīng)驗訓(xùn)導(dǎo)為中心的方法進路,或稱“訓(xùn)導(dǎo)主義”治理范式。訓(xùn)導(dǎo)主義治理范式注重培育AGI的基礎(chǔ)價值觀,將注意力聚焦于優(yōu)化開發(fā)迭代與應(yīng)用互動環(huán)境,為其提供促使機器向造福人類方向成長的經(jīng)驗數(shù)據(jù),致力于讓AGI成為人類可信賴的助手和伙伴。當(dāng)下技術(shù)界與哲學(xué)社科界的交叉研究越來越強調(diào)“價值對齊”“倫理先行”〔52+〕等議題,實際上反映了這種理念。
(二)實用主義哲學(xué)作為訓(xùn)導(dǎo)主義的內(nèi)核
大模型率先在美國誕生,美國企業(yè)愿意投入巨量資金向模型輸入超大規(guī)模數(shù)據(jù)進行訓(xùn)練,這與北美本土強調(diào)經(jīng)驗的實用主義哲學(xué)不無關(guān)聯(lián)。哲學(xué)上的實用主義是一種“方法”,它拋棄了理性主義的氣質(zhì),要在經(jīng)驗主義占優(yōu)勢的基礎(chǔ)上避開字面上的解決方式、先驗的理由、固定的原則和封閉的體系。〔53#〕實用主義尤其強調(diào)“經(jīng)驗”的重要地位,在實用主義集大成者杜威看來,“人與下等動物不同,因為人保存著他的過去經(jīng)驗”。〔54#〕杜威所言“經(jīng)驗”既指向經(jīng)驗的對象,又指向經(jīng)驗的過程。〔55#〕有機體按照自己構(gòu)造的繁簡向著環(huán)境動作, 結(jié)果環(huán)境所產(chǎn)生的變化又反映到有機體和自身的活動上去,這個動作和感受的密切關(guān)系就形成了所謂的經(jīng)驗?!?6#〕對生成式人工智能和AGI而言,經(jīng)驗就是其賴以升級迭代的訓(xùn)練數(shù)據(jù)。有學(xué)者即稱ChatGPT為“經(jīng)驗主義算法和進化論迭代”〔57#〕的產(chǎn)物。
實用主義視域下的經(jīng)驗有兩個基本特征:第一,經(jīng)驗中包含著思維,即能夠識別所嘗試的事和所發(fā)生的結(jié)果之間的關(guān)系。同樣地,AGI的模型也蘊含著思維框架,處理數(shù)據(jù)時存在輸入與輸出之間的映射關(guān)系。第二,經(jīng)驗即實驗,同時包含主動和被動的因素,主動意義上的經(jīng)驗就是嘗試或者實驗,被動意義上的經(jīng)驗就是承受結(jié)果。〔58#〕同樣地,AGI正是通過獲取大量的數(shù)據(jù)來學(xué)習(xí)和理解世界,并在這個過程中經(jīng)由實驗性反饋不斷調(diào)整和改進模型,逐漸掌握復(fù)雜的任務(wù)能力。實用主義哲學(xué)與AGI具有高度的內(nèi)在契合性,啟發(fā)我們回到實用主義哲學(xué)中探尋治理思路。實際上,杜威不僅是一位哲學(xué)家,他還將實用主義引入教育領(lǐng)域并成為20世紀(jì)重要的教育思想家。AGI的訓(xùn)導(dǎo)主義治理范式,關(guān)鍵就在于杜威教育思想的引入。人類同機器間的交流正在從“代碼—指令傳達”的互動范式升格為“語言—意圖領(lǐng)會”,〔59#〕這將使AGI從工具升格為助手。我們對助手進行訓(xùn)導(dǎo),不對工具進行訓(xùn)導(dǎo)。
訓(xùn)導(dǎo)的重心不是代碼或算法,而在于經(jīng)驗或數(shù)據(jù)。杜威指出:“溝通是經(jīng)驗分享,使經(jīng)驗成為彼此所共有……人與人的相處關(guān)系不論是何種形態(tài),都因為可以提升經(jīng)驗的質(zhì)量而具有意義……每一種社會安排都有教育的作用。”〔60#〕AGI的治理關(guān)鍵就在于通過法律等社會規(guī)范安排,使其在開發(fā)應(yīng)用過程中盡可能吸納符合人類價值觀和道德準(zhǔn)則的經(jīng)驗,成為具有自主善惡是非觀念的人類助手?!敖逃耸墙?jīng)驗的再造或重組,這再造或重組的過程能增添經(jīng)驗的意義,也能使人更有能力引導(dǎo)隨后經(jīng)驗的走向。”〔61#〕在治理AGI過程中,人類世界形成的共同準(zhǔn)則可成為訓(xùn)導(dǎo)的經(jīng)驗素材,這些經(jīng)驗可以影響、塑造和調(diào)教AGI的行為決策傾向,使其有壓倒性的概率直覺自主地作出造福人類的行為。社會主流價值觀是長期進化、全局利益平衡的結(jié)果,AGI有能力發(fā)現(xiàn)和比較不同的價值標(biāo)準(zhǔn)?!?2#〕由此,不僅在完成任務(wù)的技能上,而且在服務(wù)人類的意愿上,AGI“都是基于自我的主體視角而非他者的上帝視角,是主動的經(jīng)驗建構(gòu)而非被動的算法支配,屬于自創(chuàng)生而非被創(chuàng)造”?!?3#〕
訓(xùn)導(dǎo)的媒介是環(huán)境。杜威認(rèn)為:“既然硬生生地灌輸行不通……方法應(yīng)該就是:借環(huán)境的作用引發(fā)一定的反應(yīng)。”〔64#〕教育是以環(huán)境為媒介促成的。在AGI治理中,開發(fā)環(huán)境、應(yīng)用環(huán)境、產(chǎn)業(yè)環(huán)境是法律必須重點關(guān)注的要素。其一,開發(fā)環(huán)境影響AGI的設(shè)計制造,涉及機器如何生產(chǎn)和訓(xùn)練的問題。例如,自2008年美國籌建國家網(wǎng)絡(luò)空間靶場(NCR)以來,研制模擬實戰(zhàn)靶場已經(jīng)成為行業(yè)重點探索的方向。其二,應(yīng)用環(huán)境影響AGI的使用效果,涉及用戶引導(dǎo)、社會效益與風(fēng)險評估等問題。AGI時代是“提示詞”時代,機器的學(xué)習(xí)與創(chuàng)造離不開用戶的主導(dǎo)和參與,應(yīng)通過法律規(guī)范妥善處理人機交互關(guān)系,促成良好的應(yīng)用環(huán)境。其三,產(chǎn)業(yè)環(huán)境影響AGI的發(fā)展趨勢,涉及市場競爭、政策態(tài)度、國際合作等問題?!霸谌蛐畔㈩I(lǐng)域,創(chuàng)新鏈、產(chǎn)業(yè)鏈、價值鏈整合能力越來越成為決定成敗的關(guān)鍵?!薄?5&〕應(yīng)支持AGI產(chǎn)業(yè)聯(lián)盟的組建和發(fā)展,推動強強聯(lián)合、協(xié)同攻關(guān)、有序競爭。法律作為一種規(guī)范性指引,需要對這些環(huán)境因素進行有效的監(jiān)督和引導(dǎo),促進AGI產(chǎn)業(yè)健康、規(guī)范、可持續(xù)發(fā)展。
訓(xùn)導(dǎo)的基礎(chǔ)是人類價值觀的底層嵌入。雖然杜威強調(diào)教育是以環(huán)境為媒介達成,但他也指出,“純粹外在的指導(dǎo)是不可能的。環(huán)境頂多只能做到供給刺激來引發(fā)反應(yīng)。反應(yīng)卻是從個人已經(jīng)具備的意向發(fā)出來的”。〔66&〕AGI的初始信念和底層動機對于機器以何種立場和方式處理經(jīng)驗而言起著基礎(chǔ)性作用。當(dāng)然,語言文本形式的抽象價值信條并不能由機器直接理解和操作,應(yīng)充分認(rèn)識到“心性養(yǎng)成主要是憑借參與共同行為的經(jīng)驗而來”?!?7&〕當(dāng)前技術(shù)界關(guān)注的“實時雙向價值對齊”研究成果體現(xiàn)了這一理念,我國科學(xué)家采用通信學(xué)習(xí)方法研發(fā)具有心智理論的系統(tǒng),使得機器在人類動態(tài)反饋下具有理解人類心理狀態(tài)和合作需求的能力,進而形成以人類為中心、人機兼容的協(xié)作過程?!?8&〕
(三)訓(xùn)導(dǎo)主義治理范式的基本法學(xué)命題
法律規(guī)范體系基于訓(xùn)導(dǎo)理念介入調(diào)整AGI的開發(fā)應(yīng)用,是契合技術(shù)發(fā)展規(guī)律的有效路徑。訓(xùn)導(dǎo)主義治理范式至少包括以下基本命題:
第一,在AGI的開發(fā)訓(xùn)練中,應(yīng)培育其造福人類的終極動機。終極動機和底層信念涉及AGI對自身和世界的基本認(rèn)知,從根本上影響其行為和決策。阿西莫夫曾提出著名的“機器人三定律”,但在計算機專家看來,“定義一套倫理教條并將其作為機器倫理的核心路線,對于靈活而有心智的AGI而言,恐怕是毫無希望的”。〔69&〕道德律令對于AGI而言不具有直接的可操作性,但如果機器缺乏終極動機和底層信念,很可能成為不可信任甚至危險有害的破壞者。道德需要對傾向性進行反思的能力,而傾向性是由進化和經(jīng)歷塑造而成的;要使抽象信條有效運作,應(yīng)以強效價的形式不斷強化與該信條相關(guān)聯(lián)的感覺,在知覺學(xué)習(xí)中讓神經(jīng)網(wǎng)絡(luò)的價值規(guī)則節(jié)點與其他節(jié)點形成緊密連接。〔70+〕但“造福人類”信條的具體表現(xiàn)眾說紛紜,法律規(guī)范必須為AGI的價值對齊過程探尋一套公平的調(diào)整原則和程序機制。
第二,應(yīng)當(dāng)加強AGI訓(xùn)練數(shù)據(jù)的內(nèi)容生態(tài)規(guī)范化建設(shè)?!爸灰プ?shù)據(jù)這個關(guān)鍵,人工智能法律規(guī)制可收到事半功倍的效果。”〔71&〕有學(xué)者發(fā)人深省地追問:“我們的數(shù)據(jù)法律與政策是否符合人工智能時代的特征,什么樣的數(shù)據(jù)法律和政策才能滿足ChatGPT的訓(xùn)練? ”〔72+〕人類可以在社會生活中親身經(jīng)歷事件、獲得真實感受,并以此為成長的經(jīng)驗,但AGI迭代進化的經(jīng)驗在現(xiàn)階段仍主要表現(xiàn)為文本、圖像、音頻、視頻等數(shù)據(jù),因此數(shù)據(jù)環(huán)境建設(shè)至關(guān)重要。以文本為例,數(shù)據(jù)環(huán)境既包括由人類產(chǎn)生的、向機器輸入的數(shù)據(jù),又包括人工智能輸出的數(shù)據(jù),因為當(dāng)前生成式人工智能在互聯(lián)網(wǎng)生成散布的數(shù)據(jù)也可能成為訓(xùn)練數(shù)據(jù)。這一方面要求處理好知識產(chǎn)權(quán)問題?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第7條要求訓(xùn)練數(shù)據(jù)處理活動“涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán)”,仍待解釋的問題是,如果使用受版權(quán)保護的材料來訓(xùn)練大模型,法律應(yīng)當(dāng)如何定性? 若涉及付費,應(yīng)當(dāng)支付單價還是另行協(xié)商? 另一方面要求處理好社交機器人的法律規(guī)制問題。機器可能以自動化的方式生成言論并偽裝成人的言論進入思想市場,〔73+〕降低數(shù)據(jù)內(nèi)容質(zhì)量。因此,應(yīng)強化中文語料庫的規(guī)范化與豐富度建設(shè),避免誤導(dǎo)性、歧視性乃至反社會、反人類的內(nèi)容侵蝕AGI的認(rèn)知框架。
第三,應(yīng)當(dāng)注重AGI應(yīng)用場景分類分級監(jiān)管與針對用戶的規(guī)制。AGI在與環(huán)境的交互過程中獲得數(shù)據(jù)反饋并迭代升級, 同時環(huán)境要素也受影響而改變。應(yīng)對AGI的應(yīng)用場景進行精細(xì)化分類分級監(jiān)管,在不同治理目標(biāo)之間取得平衡。作為前提,對于醫(yī)療、就業(yè)、執(zhí)法和公共管理等涉及公民人格尊嚴(yán)和基本權(quán)利的場景,應(yīng)當(dāng)對AGI的模型可信度和安全性提出更高要求,并配套相應(yīng)的市場準(zhǔn)入與技術(shù)審計制度。劃定高風(fēng)險場景的邊界,可以為企業(yè)在技術(shù)迭代與應(yīng)用場景創(chuàng)新等方面留足空間。此外,應(yīng)當(dāng)合理分配AGI開發(fā)制造者、服務(wù)提供者與用戶之間的法律責(zé)任,并關(guān)注針對用戶的規(guī)制。AGI的法律人格、〔74/〕責(zé)任能力、〔75/〕法律行為〔76O〕和刑法地位〔77/〕等問題已備受關(guān)注,而從生成式人工智能的人機協(xié)作模式還可以預(yù)見,用戶將對AGI的行為決策產(chǎn)生引導(dǎo)性的基礎(chǔ)影響。因此,除了技術(shù)可靠性以外,還須從用戶使用環(huán)境角度采取措施防止AGI的濫用和誤用。例如,用戶應(yīng)當(dāng)對自己輸入的提示詞和指令負(fù)責(zé),避免對生成式人工智能進行惡意誘導(dǎo)式提問、對AGI下達導(dǎo)致違法后果的指令。未來,在AGI執(zhí)行任務(wù)時,用戶可能處于類似監(jiān)護人的地位,其在訓(xùn)導(dǎo)機器過程中負(fù)有一定責(zé)任,這有待在實踐發(fā)展的基礎(chǔ)上進一步深化研究。
結(jié)論
技術(shù)正在使人工智能獲得逼近乃至超越人的能力。過去,我們認(rèn)為語言是人類的天賦,語言的邊界就是思想的邊界。但大模型的成功意味著AGI可以在直覺涌現(xiàn)的意義上掌握語言。在充滿不確定性的現(xiàn)代社會,法學(xué)須從決定論向嵌入蓋然性思維演進。〔78/〕對于AGI而言,算法可釋不是核心,模型可信才是重點。可解釋是為了可理解,可理解是為了可信任。要信任AGI,不應(yīng)訴諸控制,而應(yīng)訴諸訓(xùn)導(dǎo)。實用主義哲學(xué)具有強大的解釋力和指引力,可作為訓(xùn)導(dǎo)主義治理范式的思想內(nèi)核。