○ 楊學(xué)科
(廣東金融學(xué)院 法學(xué)院,廣東 廣州 510521)
現(xiàn)今作為數(shù)字化核心部分的人工智能技術(shù)迅速發(fā)展,云計(jì)算架構(gòu)、深度學(xué)習(xí)、人工神經(jīng)網(wǎng)絡(luò)、進(jìn)化計(jì)算等對當(dāng)前工業(yè)革命的轉(zhuǎn)型和人們的生活產(chǎn)生了潛在或重大影響,人類社會也愈加意識到現(xiàn)存的法律范式可能隨著人工智能技術(shù)的發(fā)展而發(fā)生變化。特別是自動駕駛汽車、機(jī)器人醫(yī)生、機(jī)器人法官正在進(jìn)入現(xiàn)實(shí)生活,人工智能的形象不再是簡單地被人直接操縱或需要不斷干預(yù)其驅(qū)動的計(jì)算機(jī)模擬人類智力,而是日漸成為能夠持續(xù)自主學(xué)習(xí)、自決運(yùn)作、自我迭代升級的積極行動者,這無疑給法學(xué)界打了一支興奮劑,人工智能法學(xué)研究呈現(xiàn)一哄而上、“土匪搶山頭”[1]的態(tài)勢。這在人工智能法學(xué)研究版圖上可以清晰呈現(xiàn)。刑法上人工智能的刑事責(zé)任認(rèn)定,民法上的智能合同、隱私保障、人工智能人格與責(zé)任問題,知識產(chǎn)權(quán)上的人工智能版權(quán)保護(hù),行政法上的無人駕駛/無人機(jī)、自動化行政決策問題,勞動和社會保障法的就業(yè)減少、機(jī)器人稅問題等,都已有一定量的研究成果。但對于人工智能與憲法的研究,筆者所及資料范圍內(nèi),研究成果甚少,理論研究更少。
在人工智能法學(xué)研究上①此部分的文獻(xiàn)梳理,感謝李小立女士的資料查閱、翻譯、整理。,日本十分重視人工智能與憲法的研究。慶應(yīng)義塾大學(xué)教授山本龍彥編著的《AI與憲法》是以日本國憲法的觀點(diǎn)來探討人工智能所存在的問題,涉及人工智能與憲法理論、隱私、民主、選舉和司法等方面。佐藤優(yōu)、木村草太、山川宏所著的《人工智能時(shí)代的憲法理論》涉及人工智能的人權(quán)問題,但并未將人工智能時(shí)代的憲法論述作為重心。這兩本著作是筆者所及資料范圍內(nèi)為數(shù)不多的人工智能與憲法的研究。相對憲法學(xué)界的遲緩反應(yīng),實(shí)務(wù)、政界精英對人工智能的關(guān)注是敏時(shí)而進(jìn),熱力助推,如哈薩克斯坦已有將人工智能技術(shù)引入立法活動的動議。當(dāng)然,人工智能也確實(shí)已被寫進(jìn)憲法當(dāng)中,這就是對岸共和國(U?upis Republic)憲法,對岸共和國是一個(gè)并不被國際認(rèn)可的微型國家,其有點(diǎn)惡作劇的憲法規(guī)定了“人工智能有相信人類社會本質(zhì)是善的權(quán)利”[2]。2018年法國總統(tǒng)伊曼紐爾·馬克龍?jiān)谥聭椃ㄎ瘑T會的講話中,對人工智能憲法議題甚是關(guān)切,認(rèn)為“我們生活在一個(gè)加速的時(shí)期,技術(shù)將帶來憲法層面的新問題。全球化信息社會中的人工智能,機(jī)器人技術(shù),超人類主義,身份保護(hù),隱私保護(hù),是時(shí)代成熟者無疑必須牢記的主題。但這些問題需要仔細(xì)考慮。它們不應(yīng)該被匆忙地處理,而且在未來的社會中,它們需要在議會內(nèi)外進(jìn)行廣泛的、共同的和長期的反思?!盵3]在這方面走得更遠(yuǎn)的是比特國(Bitnation),其宣布使用以太坊智能合約編寫了140行代碼,建立了世界上第一個(gè)虛擬的無國界、去中心化的自治國家憲法,認(rèn)為憲法旨在成為一種共同結(jié)構(gòu),由于公民的加入,這種結(jié)構(gòu)隨著時(shí)間的推移而有機(jī)地增長。為此比特國采取去中心化,不涉及中央機(jī)構(gòu)或政府的自治模式,與現(xiàn)在的代議制民主體系完全不同,這是有趣的民主新形式的憲法試驗(yàn),對未來的憲法動向有預(yù)見啟迪之用[4]。
綜上,人工智能對憲法的影響是客觀存在的,且這種影響已經(jīng)相當(dāng)“后人類化”。這種影響不僅集中在人類世界的憲法實(shí)踐中,還出現(xiàn)了比特國的人工智能憲治實(shí)踐。
人工智能對憲法的挑戰(zhàn),主要是體現(xiàn)在對憲法價(jià)值體系的挑戰(zhàn)。法律是特定價(jià)值體系的表達(dá),也可被認(rèn)為是實(shí)現(xiàn)基本價(jià)值體系的手段和工具。同樣,憲法是以價(jià)值為基礎(chǔ)的法律,人權(quán)、法治和民主三位一體是憲法的核心要素。在人工智能發(fā)展的影響下,憲法的價(jià)值體系面臨人權(quán)消解、法治系統(tǒng)的權(quán)力失衡和數(shù)字民主新可能的問題。
人的尊嚴(yán)被寫進(jìn)了全球近150部憲法和世界絕大多數(shù)人權(quán)文件中。人的尊嚴(yán)作為憲治國家的基礎(chǔ),在憲法和人權(quán)話語中具有無可比擬的重要性。人的尊嚴(yán)常被理解為所有人都具有的人類的獨(dú)特特征,即所有人都具有同等的價(jià)值,而不論其種族、國籍、宗教、膚色、性別、性取向、年齡、婚姻狀況、身體狀況、家庭狀況等任何特征。現(xiàn)代社會,權(quán)利已經(jīng)開始被理解為實(shí)現(xiàn)個(gè)人價(jià)值的工具,人的尊嚴(yán)是權(quán)利的發(fā)源地,這進(jìn)一步加強(qiáng)了人的尊嚴(yán)是一種寶貴的憲法價(jià)值屬性:尊重和保護(hù)人的尊嚴(yán)是構(gòu)成整個(gè)人權(quán)系統(tǒng)的規(guī)范基礎(chǔ)。但大數(shù)據(jù)時(shí)代和算法社會的到來,社會系統(tǒng)的變化,可能對人的尊嚴(yán)帶來前所未有的挑戰(zhàn)。
一般認(rèn)為,人工智能的核心是算法和數(shù)據(jù),它的前提是算法自動研究大量數(shù)據(jù)從而生成答案、預(yù)測和見解。顯然,人工智能的自動化預(yù)測分析會影響人權(quán),對人的平等、隱私、言論、財(cái)產(chǎn)權(quán)等會產(chǎn)生影響,這種影響不是單一的,而是連鎖性的全面影響。下面筆者嘗試以一個(gè)數(shù)字時(shí)代的虛擬人權(quán)倒霉蛋Jinx為例,來列舉人工智能對人權(quán)的部分消極影響。
Jinx,男,高中成績優(yōu)異,一心想就讀室內(nèi)設(shè)計(jì)專業(yè)。一般情況下,Jinx申請本國頂尖名校不是問題,但申請很不順,人工智能錄取系統(tǒng)將女性與室內(nèi)設(shè)計(jì)刻板化等同,都拒絕錄取作為男性的Jinx,最后他被調(diào)劑到一地方大學(xué)學(xué)習(xí)會計(jì)。有書讀就好,Jinx就還算高興地去報(bào)到。因?yàn)槟w色黑,這所大學(xué)的網(wǎng)上報(bào)名認(rèn)證系統(tǒng)將其頭像認(rèn)證為“黑猩猩”,經(jīng)過多次驗(yàn)證才勉強(qiáng)通過。大學(xué)期間,Jinx努力學(xué)習(xí),得到了跟老師出差調(diào)研的機(jī)會,但在坐飛機(jī)時(shí),因?yàn)槠涿峙c某失信人員同名,被拒絕搭乘航班。Jinx的好學(xué),還有來自窮苦家庭的背景,幫助其很快申請到了助學(xué)金。Jinx高興地通過網(wǎng)絡(luò)聊天視頻告訴父母,同時(shí)也得知父親剛被查出心臟病。視頻聊天結(jié)束沒幾分鐘,其手機(jī)goob網(wǎng)頁彈框就推薦了大量可監(jiān)測心率的醫(yī)療智能手環(huán)和進(jìn)口輔酶Q10軟膠囊等網(wǎng)絡(luò)商品,孝順的Jinx很快就用全部助學(xué)金給父親買了這些東西。
因家庭困境,Jinx放棄了保研名額,開始找工作。此時(shí),絕大多數(shù)會計(jì)崗位已被人工智能替代,會計(jì)專業(yè)畢業(yè)就失業(yè)。為尋找出路,Jinx不得不海投簡歷,但這些公司的人事人工智能系統(tǒng)基于其一次將5000多元購買心臟藥物和檢測工具的購物記錄,推斷Jinx有心臟病,都拒絕了其求職申請。Jinx不得不邊兼職打零工,邊自學(xué)室內(nèi)設(shè)計(jì)。幾年后,Jinx覺得自己的室內(nèi)設(shè)計(jì)自學(xué)得不錯(cuò),想融資開個(gè)室內(nèi)設(shè)計(jì)工作室,就打算申請銀行貸款。但銀行的人工智能評信系統(tǒng)基于Jinx多年無業(yè)且心臟不好的狀況,預(yù)測其還款能力不足,拒絕貸款給Jinx。經(jīng)歷了畢業(yè)后的連串打擊,Jinx身體每況愈下,經(jīng)常心悸,不得不借錢買了個(gè)二手智能醫(yī)療助手。此智能醫(yī)療助手比智能醫(yī)療手環(huán)更高級,可以收集身體數(shù)據(jù),并實(shí)時(shí)分析推測身體健康狀況,實(shí)時(shí)語音提示。然而,智能醫(yī)療助手經(jīng)常在公共場合語言提示Jinx:“Darling,請注意,你處于抑郁狀態(tài)”,Jinx得了抑郁癥的消息隨之廣而告之。同時(shí),Jinx長期依賴的微博被封了。因?yàn)镴inx在其微博上批評搜索引擎公司goob,認(rèn)為若沒有它亂搞神經(jīng)營銷,他的人生就不會因人工智能生變,將它稱為goob政府。Jinx不知道goob是一個(gè)網(wǎng)絡(luò)隱晦稱謂,所以,他的微博很快被人工智能網(wǎng)絡(luò)警察以違反相關(guān)法律法規(guī)和《微博舉報(bào)投訴操作細(xì)則》為由封了。唯一能匿名發(fā)表真情實(shí)感的微博沒有了,剩下的處處努力表現(xiàn)出正能量積極向上的朋友圈,對于習(xí)慣微博“都市生活”,沒有小確幸、沒有盼頭奔頭的Jinx,朋友圈這樣的“鄉(xiāng)土社會”明顯不是他的菜。Jinx因此性情大變,認(rèn)為自己如此波折人生都是因?yàn)槿斯ぶ悄?,便將怒火發(fā)泄到一個(gè)無辜的人工智能機(jī)器人身上,將其打爛。Jinx被起訴到法庭,人工智能法官根據(jù)其多年無業(yè)狀態(tài),頂格重罰了Jinx。Jinx在監(jiān)獄里,生無所戀,撞墻自盡。最后,由于未婚,親人也都不在了,就由硅基的人工智能起草了一個(gè)墓志銘:Jinx,一個(gè)0編碼的碳基人。
數(shù)字社會的虛擬人權(quán)倒霉蛋Jinx頗似我國舊社會的“駱駝祥子”,不公正社會不會讓好人有出路,這也正是數(shù)字社會需要防范的。虛擬人權(quán)倒霉蛋Jinx在教育、招聘、醫(yī)療保健、銀行貸款、網(wǎng)絡(luò)購物乃至司法審判等領(lǐng)域的不幸遭遇,也表明人工智能作為預(yù)測分析技術(shù),基于對已有數(shù)據(jù)知識的模仿、整理、概率的預(yù)測,可能會因?yàn)閮?nèi)置性編碼凝視,有限、不相關(guān)或不正確的訓(xùn)練數(shù)據(jù),算法黑箱建模方法或三者的不同組合而造成算法歧視[5]。Jinx的很多遭際都是已經(jīng)發(fā)生的人權(quán)侵害過去時(shí),并真真實(shí)實(shí)地發(fā)生過。虛擬人權(quán)倒霉蛋Jinx故事貫穿的是其失去了對“自我信息”的控制,個(gè)人數(shù)據(jù)被肆意連環(huán)販賣,為算法所預(yù)測分析,Jinx仿佛進(jìn)入了“算法監(jiān)獄”,無法找到工作,無法貸款融資,無法獲得公正審判等,人的隱私權(quán)、平等待遇和不歧視的權(quán)利、獲得公正審判和有效補(bǔ)救的權(quán)利等都直接受到影響。
人的尊嚴(yán)是絕對價(jià)值,而不是可以任意量化和比較的價(jià)值。Jinx最后被硅基的人工智能定義為“一個(gè)0編碼的碳基人”,也并非只是虛幻妄想。在真實(shí)的人工智能編碼中人的形象就是客體的0和1,模糊了任何人和客體(機(jī)器)的差別,人的尊嚴(yán)很難說是受到了尊重,而不是處于被羞辱的狀態(tài)。Jinx的現(xiàn)實(shí)中的人的尊嚴(yán)被人工智能蹂躪,被識別為黑猩猩等,背后人工智能的編碼和解碼又變成了客體的0,在這一編碼和解碼過程中,完整的個(gè)體(in-dividual)被“分格”(dividual)為算法上可區(qū)分的特征數(shù)據(jù),憲法中最重要的意識形態(tài)和核心價(jià)值—人的尊嚴(yán)可以說受到人工智能的雙重挑戰(zhàn)。但是,技術(shù)和人權(quán)的雙重邏輯悖反更值得關(guān)注:一是人工智能的發(fā)展顛覆了人權(quán)法的邏輯,人工智能的客觀性壓制了人的價(jià)值系統(tǒng);二是人工智能發(fā)展中第二個(gè)人權(quán)的邏輯割裂,強(qiáng)者權(quán)力愈強(qiáng),弱者權(quán)力愈弱,分裂了人權(quán)的權(quán)力—權(quán)利的平衡結(jié)構(gòu)[6]。
人權(quán)和統(tǒng)治機(jī)構(gòu)是憲法的兩大支柱。由上可知,隨著人工智能技術(shù)的發(fā)展,憲法的人權(quán)支柱已經(jīng)存在風(fēng)險(xiǎn),憲法的統(tǒng)治機(jī)構(gòu)也開始柱體開裂,權(quán)力分化到非國家行為體,處于國家法治系統(tǒng)之外,算法權(quán)力已經(jīng)成為類似公權(quán)力的準(zhǔn)公權(quán)力,算法之治也成為獨(dú)特的社會秩序形式。
現(xiàn)代憲法圍繞限制公權(quán)力提供了一套權(quán)力平衡機(jī)制。米雷爾·希爾德布蘭特(Mireille Hildebrandt)認(rèn)為,憲治民主通過一種雙重形式的透明度使主權(quán)統(tǒng)治合法化:一是民主參與,人民生活在他們自己制定的規(guī)則之下;二是法治,可以通過一種能夠打開這些規(guī)則解釋黑箱的程序?qū)@些規(guī)則的應(yīng)用提出異議[7]。從中我們可以看出,法治即對權(quán)力的制衡,重心就是治權(quán)。這個(gè)權(quán)力在現(xiàn)代憲法觀念中是最可能危害人的自由的公權(quán)力。然而,在數(shù)字時(shí)代,公權(quán)力不再是尊重人權(quán)和保護(hù)民主的唯一關(guān)注點(diǎn)。法治系統(tǒng)日漸分化,算法也逐漸成為一個(gè)新的子法治系統(tǒng),“代碼就是法律—系統(tǒng)的體系結(jié)構(gòu),以及運(yùn)行它們的代碼和算法,都可以對自由產(chǎn)生強(qiáng)大的影響”[8]。算法和數(shù)據(jù)正在成為數(shù)字社會中新的權(quán)力來源。算法決策系統(tǒng)存在反對憲法的法治價(jià)值觀的可能,現(xiàn)今算法權(quán)力缺乏有效的制衡手段,譬如對于算法黑箱問題,無論技術(shù)還是制度監(jiān)管都沒有完美的解決方案,因而,算法權(quán)力之惡問題尚待解決。
算法權(quán)力影響憲法生態(tài)系統(tǒng)中權(quán)力的平衡,這也是工業(yè)時(shí)代法律需要治理的難題。一方面是權(quán)力分散。傳統(tǒng)的私營公司(特別是數(shù)據(jù)資本主義)開始主張與國家相關(guān)的權(quán)力類型,并解構(gòu)國家權(quán)力,程序代碼和算法決策正在代替行政、司法決策。且有的人工智能技術(shù)日漸增強(qiáng),賦予了非國家行為者特別大的權(quán)力,大型跨國公司本身也是超越國家的,如谷歌、Facebook、微軟等大型跨國科技巨頭,其數(shù)據(jù)信息控制疆域早已超越了既有民族國家的領(lǐng)土界限。另一方面存在著權(quán)力不對稱現(xiàn)象。人工智能分散的基礎(chǔ)架構(gòu)并不一定導(dǎo)致此基礎(chǔ)架構(gòu)內(nèi)的權(quán)力分散,甚至專長于分布式治理的區(qū)塊鏈技術(shù)機(jī)構(gòu)也不例外。與之相反,權(quán)力集中在保存使用數(shù)據(jù)盈利的運(yùn)營商手中,個(gè)人數(shù)據(jù)擁有者卻缺乏權(quán)力,個(gè)人數(shù)據(jù)任“它”宰制,數(shù)據(jù)控制者、企業(yè)與數(shù)據(jù)主體、消費(fèi)者之間存在權(quán)力不對稱。而近現(xiàn)代的憲法智識大多建立在工業(yè)文明時(shí)代公民自由和政治國家基礎(chǔ)之上,對于數(shù)字時(shí)代的數(shù)據(jù)和算法行為未必具有解釋力,數(shù)據(jù)和算法的不透明,加上大型科技公司的監(jiān)視資本主義(Surveillance Capitalism)邏輯,因而存在破壞民主、平等、公平和分配正義等風(fēng)險(xiǎn)。
另外,近現(xiàn)代憲法中的權(quán)力主要是以社會契約論和自然法為基礎(chǔ)建構(gòu)出來的政府權(quán)力,是源于人民信任所委托出來的委托權(quán)力。這種權(quán)力是他賦的,是通過人民權(quán)力的讓渡來實(shí)現(xiàn)權(quán)力的合法性、合理性。然而,算法權(quán)力則是一種自賦權(quán)力,是基于其算法自身的“能力稟賦”來實(shí)現(xiàn)的,算法確實(shí)很“能”,它能有附帶數(shù)據(jù)權(quán)力的高能力,進(jìn)而形成權(quán)重勢大的高權(quán)力,但這主要是一種權(quán)力合法性的證明。然而權(quán)力合法性是很難通過自身去證明,連古代君王都講究通過天賦君權(quán)來實(shí)現(xiàn)權(quán)力合法性的證明,將合法性的來源轉(zhuǎn)移到無法證明的“天”那里??梢姡瑢τ谒惴ǖ淖再x權(quán)力的權(quán)力合法性問題,也是憲法理論上亟待解決的新問題。
權(quán)力沒有制衡就不是法治。雖現(xiàn)階段算法還不甚聰明,但因?yàn)闆]有有效的制衡手段,已給人算法帝國、算法利維坦之感?!稒?quán)力算法》是一本反算法烏托邦的虛構(gòu)小說,對思考未來的算法影響有一定啟發(fā)意義。小說設(shè)想了一個(gè)數(shù)字替代(Digital Alternati)的新興運(yùn)動,這一運(yùn)動要求擺脫政治(沒有政客),建立一個(gè)公平公正的由操作系統(tǒng)運(yùn)行的社會。但絕對權(quán)力導(dǎo)致絕對腐敗,最后建立的卻是令人毛骨悚然的數(shù)字獨(dú)裁[9]。未來人工智能和人類共存將是常態(tài),根據(jù)人工智能機(jī)器人的實(shí)力差異、發(fā)展階段差別,進(jìn)行多層次、差序化的“電子人”權(quán)利賦權(quán),是可行方案。對于司法權(quán)力,未來的算法司法也可能會呈現(xiàn)替代司法的樣態(tài)[10],但這些未來場景預(yù)測的最根本的一條是,人工智能和人類不能互害,對算法權(quán)力要有制衡機(jī)制,阻止和防止法治價(jià)值倒退。
世界大多數(shù)國家憲法將代議制民主作為民主的首選體系。代議制民主出現(xiàn)在驢馬時(shí)代,也就是農(nóng)業(yè)文明向工業(yè)文明轉(zhuǎn)型的時(shí)期,但這一國家主義底色的民主體系,是第二次浪潮政治結(jié)構(gòu)的基礎(chǔ),“是對工業(yè)技術(shù)不平等的確認(rèn),是掛羊頭賣狗肉的冒牌貨?!盵11]10“民主是個(gè)等待21世紀(jì)重新定義的理想”[12]。實(shí)際上,一方面因其體系的時(shí)代局限而日顯落伍;另一方面,在邁向人工智能時(shí)代的轉(zhuǎn)型期,其不得不面對監(jiān)視資本主義的侵蝕和流動式民主(區(qū)塊鏈民主)體系的挑戰(zhàn)。
代議制民主出現(xiàn)在17、18世紀(jì)。當(dāng)時(shí)交通不便,信息傳遞成本昂貴,所以不可能讓所有的人參與決策,只能由知識精英來統(tǒng)治,讓各地區(qū)選舉的代表集中到國家中心的議事機(jī)構(gòu)代為行使民主權(quán)利。因此,代議制民主意味著公民不是直接參加行政管理,而是通過他們的“代表”參加。此外,代議制民主出于維持社會秩序的目的,采取了嚴(yán)格限制大眾決策的思路,在分布式社會(機(jī)器)智慧時(shí)代,公民參與全方位的政治、經(jīng)濟(jì)、文化等決策的訴求在興起,人工智能發(fā)展給人人參與決策帶來機(jī)會:分布式合作,便利的政府記錄與開放數(shù)據(jù),在線反饋、公眾參與、決策,公民競選與活動組織。代議制民主的決策速度緩慢,只適合處理復(fù)雜程度低、相互連接小的事務(wù),已經(jīng)開始不適應(yīng)社會迅猛發(fā)展和創(chuàng)新的速度,以及復(fù)雜和風(fēng)險(xiǎn)社會的綜合的、動態(tài)的、費(fèi)解的、非常極端問題的處理[13]311,320-321。因此,在社會和技術(shù)變化的情況下,代議制民主已經(jīng)出現(xiàn)了“人們的愿望與政治機(jī)構(gòu)響應(yīng)社會需求的能力之間的差距越來越大”[14]的制度危機(jī),代議制魅力驟減。
民主雖為時(shí)代潮流所席卷,時(shí)有波折,然而,民主趨勢未見克減,其常以驚人的力量恢復(fù)活力并運(yùn)轉(zhuǎn)起來,正如學(xué)者伯納德·克里克(Bernard Crick)認(rèn)為的那樣,“民主像永不下沉的筏子,只是被潮水或激流所席卷。一個(gè)人可以用船槳或木板稍微掌舵以保持漂浮,稍微向左或向右調(diào)整前進(jìn)方向,甚至可能稍微放慢或加快速度,但沒有逆轉(zhuǎn)民主潮流的趨勢”[15]。事實(shí)亦是如此,人工智能的發(fā)展,讓復(fù)雜和動態(tài)的決策系統(tǒng)成為可能,給世界帶來最民主和參與性的社會結(jié)構(gòu)的可能。這正如未來學(xué)者托夫勒所預(yù)見的那樣,人工智能科技破壞了舊的政治假設(shè):對直接民主的老一套的反對意見越來越弱,與此同時(shí),對代議制民主的反對卻越來越強(qiáng)烈[11]499。在線參與、在線政府系統(tǒng)的虛擬速度和分布式?jīng)Q策優(yōu)勢、信息流的靈活性給新的流動式民主帶來可能,實(shí)際上,在線參與性民主文化已經(jīng)在集聚,我們使用社交媒體的新浪微博的點(diǎn)贊、騰訊微信的看一看等,都是一種隱性投票,云計(jì)算讓不同群體和組織的動態(tài)審計(jì)和決策成為可能,這比面對面決策更高效[13]314。從這還可以看出人工智能在增強(qiáng)非政治精英能力的同時(shí),也破壞了代議制民主制度中政治精英的穩(wěn)定性,民主出現(xiàn)流動式民主革新的可能。約瑟·拉莫斯認(rèn)為流動式民主是啟蒙運(yùn)動帶來的國家代表“共和”民主體系向新型(后共和)體系轉(zhuǎn)向的指示燈,流動式民主是動態(tài)決策、流動代表制、集體智慧治理,它是基于云計(jì)算軟件系統(tǒng),支持大規(guī)模人員提議、協(xié)商及決策其各方面問題。流動式民主中每個(gè)人都可選擇都可以提出自己的想法,協(xié)商一個(gè)問題或授權(quán)他人投票,此授權(quán)可以隨時(shí)取消[13]336,324,326。他認(rèn)為這給未來的人工智能時(shí)代的民主帶來了新啟示:靈活(傳遞)的投票委托人的權(quán)利,不同問題委托不同人投票的權(quán)利,投票的公正透明化,通過在線平臺形成的法律條款同樣具有約束力[13]326。實(shí)踐中也確有先例。為了應(yīng)對在線民主系統(tǒng)的安全弊端,日本、瑞士、蘇格蘭和美國等都曾實(shí)驗(yàn)在其投票系統(tǒng)中使用區(qū)塊鏈技術(shù),以數(shù)字化、分散化的參與方式,提高選舉透明度,提升系統(tǒng)效率,以保證自由和公正的選舉。這種民主方式超越空間和時(shí)間的局限,提供了一個(gè)開放的民主空間,能在非等級結(jié)構(gòu)的基礎(chǔ)上進(jìn)行平等的交流,是相對代議制的民主決策的缺陷、人民政治冷漠提出的新的民主解決方案,也是更適合人工智能為代表的數(shù)字新時(shí)代的民主模式。因此,直接民主最適合被配置為實(shí)現(xiàn)數(shù)字時(shí)代民主國家的前提條件。
面對人工智能的新時(shí)代,代議制民主有淪為落后的陳舊的民主體系的可能,這是代議制民主的自身時(shí)代局限。但這并不代表民主就是糟粕。民主的好的遺產(chǎn)、精神,自然還要繼承發(fā)展,或以新的、更好的、改善的民主形式出現(xiàn)。一方面,人工智能存在改善、增強(qiáng)民主的方面。對此,未來學(xué)家托馬斯·弗賴在《與未來溝通》中,列數(shù)了八個(gè)方面[16]:由于人工智能可以理解個(gè)人偏好,它可以幫助選民作出決定,并通過擴(kuò)展增加參與;人工智能能夠立即發(fā)現(xiàn)系統(tǒng)中的欺詐和損壞;通過更好的發(fā)現(xiàn)腐敗的方法,人工智能將為電子投票鋪平道路,創(chuàng)造更多便利,并使社會參與更廣泛;人工智能將允許選民“深入調(diào)查”,在做出任何決定之前都能弄清事實(shí)真相;如果做得正確,人工智能將提高決策的質(zhì)量,但不會削弱個(gè)人的作用;人工智能有潛力賦予選民更大的權(quán)力,讓更多的問題出現(xiàn)在社區(qū)投入和公共決策中;人工智能將有能力消除負(fù)面競選、有偏見的報(bào)道和有偏見的論點(diǎn);人工智能有可能降低競選成本,減少對捐助人的依賴,并減少競選過程中的政治利益投機(jī)。
另一方面,現(xiàn)階段以人工智能為首的數(shù)字科技發(fā)展也存在不少新的破壞民主的惡行,即數(shù)字民主的悖論:公共自由和私人控制。民主進(jìn)程至少需要兩種基本機(jī)制:第一種是收集和計(jì)算人民選票的公平和透明的方法;第二種是選民能夠在沒有過度脅迫的情況下權(quán)衡當(dāng)前的問題。這兩個(gè)條件是民主之樹賴以生長的蒼穹,沒有它,民主之樹必將枯萎[17]。
已有的數(shù)字民主實(shí)踐表明,當(dāng)選票以數(shù)字化形式記錄時(shí),惡意行為者就會想方設(shè)法尋找機(jī)會施加影響。一般而言,算法和數(shù)據(jù)在驅(qū)動過程中會塑造意見和信念、引導(dǎo)政治輿論,但這卻容易被別有用心者利用:為控制決定選舉的數(shù)字環(huán)境的話語權(quán),為利潤監(jiān)視收集競選活動中個(gè)人數(shù)據(jù),將智能機(jī)器人偽裝成普通人類賬戶,營銷選舉,用于瞄準(zhǔn)、影響、操縱選民,或制造“過濾泡沫”,或制造公眾支持的幻覺,傳播錯(cuò)誤信息和假新聞。例如在2016年美國總統(tǒng)大選期間,數(shù)據(jù)科學(xué)公司劍橋分析公司(Cambridge Analytica)推出了一項(xiàng)廣泛的廣告活動,根據(jù)選民個(gè)人心理對象進(jìn)行針對性說服。這種監(jiān)視資本主義,匯集行為數(shù)據(jù),營銷選舉,它以最大利潤的全部確定性的承諾為誘惑—犧牲民主,自由和人類的未來,是一種“深刻的反民主的社會力量,或者是一種市場驅(qū)動的政變”[18],威脅著民主最基本的基礎(chǔ):個(gè)人自由和隱私權(quán)。但新興科技提供了另一項(xiàng)技術(shù)—區(qū)塊鏈。區(qū)塊鏈?zhǔn)亲詈玫膮f(xié)議,以保證分散的分類賬,可以證明在線發(fā)生的任何類型的事件,還會讓政府的主權(quán)權(quán)力回歸到投票公眾中的合法持有者手中,還有助于消除當(dāng)選少數(shù)掌握過多權(quán)力,預(yù)防權(quán)力的濫用。因此,需要將數(shù)字民主變革與區(qū)塊鏈等技術(shù)變革聯(lián)系起來,以對抗數(shù)據(jù)化和算法治理的專制傾向和功能蔓延。
面對人工智能的挑戰(zhàn),似乎憲法不堪一擊,人工智能革命的弧線主要是朝著反憲法方向演化。欲思其利,必慮其害,未知的不確定性和破壞性影響,更值得提早籌謀,畢竟按照阿馬拉定律(Amarah's law)“我們傾向于過高估計(jì)技術(shù)在短期內(nèi)的影響,并低估長期效應(yīng)”[19]。未來社會將是人類和人工智能共存的新時(shí)代,這意味著,我們正在進(jìn)入一個(gè)新的憲法時(shí)刻。因此,現(xiàn)階段迫切需要研究如何構(gòu)建適合人工智能時(shí)代的憲法,以及后人類時(shí)代的憲法應(yīng)對問題。
同時(shí),我們需要注意的是,人工智能等數(shù)字技術(shù)催生的流動式民主、比特國憲法等新的憲法實(shí)踐形式,也表明憲法演化到了一個(gè)新的階段。憲法必須被視為“動態(tài)”的而不是“靜態(tài)”的,其與法律現(xiàn)象和社會現(xiàn)象密切相關(guān),憲法如果不采取相應(yīng)的回應(yīng)策略,不但回應(yīng)不了人工智能革命的挑戰(zhàn),還讓憲法人工智能時(shí)代不堪“首憲”之用。所以,在人工智能時(shí)代,憲法必須面對其受人工智能影響的具體語境,保持憲政的基本價(jià)值相一致。因而,在西方,數(shù)字憲治主義應(yīng)運(yùn)而生,“其旨在建立和確保其存在的意識形態(tài),在數(shù)字環(huán)境中保護(hù)基本權(quán)利和平衡權(quán)力的規(guī)范性框架”[20]。
如上所述,面對現(xiàn)有憲法法律體系落后于人工智能等新技術(shù)發(fā)展的現(xiàn)實(shí),將人工智能創(chuàng)新納入和轉(zhuǎn)化為憲法議題的呼聲越來越高。憲法對人工智能挑戰(zhàn)的回應(yīng),可以為未來社會做準(zhǔn)備,特別是為機(jī)器人和人類共同生活的社會建立法律體系提供新方案。憲法如何回應(yīng)人工智能的挑戰(zhàn),如何在人工智能時(shí)代以一種連續(xù)的方式重新詮釋和重振憲法對民主、法治和人權(quán)的核心承諾?結(jié)合人工智能意識產(chǎn)生前后的能力差異,以及社會影響強(qiáng)弱,憲法的戰(zhàn)略回應(yīng)可歸類為短期策略和長期策略:在弱人工智能時(shí)代,短期策略可以是憲法解釋,這一時(shí)期的主要任務(wù)是加強(qiáng)科技憲法的研究;在強(qiáng)人工智能、超人工智能時(shí)代,長期策略應(yīng)該是修改憲法、專門人工智能立憲。
1. 憲法解釋
在第四次工業(yè)革命前夕的數(shù)字社會,以算法和數(shù)據(jù)為基礎(chǔ)的人工智能技術(shù)正在加速社會的革新。在Alpha大勝人類后,機(jī)器人少女索菲亞被授予公民身份,男孩澀谷未來在東京獲得居住權(quán)。人工智能雖被授予了法律人格,但并沒有從根本上解決智能機(jī)器人的憲法地位問題,這就迫切需要對憲法中的“人”進(jìn)行憲法解釋。對憲法規(guī)則的解釋必須將其與現(xiàn)實(shí)相結(jié)合。因此,憲法中的概念、規(guī)則不是一個(gè)預(yù)先完成的決定,而是一個(gè)正在進(jìn)行的決定。解釋憲法中的“人”,也有必要具體考慮“人”的時(shí)代變遷?!叭恕睆囊婚_始就不是一個(gè)預(yù)先完成的固定的概念,如前所述,人工智能在某些國家已經(jīng)開始被接納為“人”的成員。再如歐盟議會要求歐盟委員會考慮為機(jī)器人創(chuàng)造一個(gè)特定的電子人法律地位;新西蘭、印度、厄瓜多爾和哥倫比亞的國家法院或憲法將“人”的概念擴(kuò)展到河流、森林和山脈,以及自然本身[21]。權(quán)利概念呈現(xiàn)擴(kuò)張態(tài)勢,權(quán)利主體范圍擴(kuò)展,人類種族主義的人類物種識別論不再是絕對真理,物種不再是權(quán)利享有的障礙[22]。特別是人工智能的發(fā)展,讓人類、非人類的界限在松動,人工智能技術(shù)的發(fā)展使我們和智能機(jī)器人權(quán)力發(fā)生了位移,這促使我們重新考慮人類與智能機(jī)器人彼此之間的道德和法律責(zé)任。基于“人”的概念的擴(kuò)張,對憲法中“人”的解釋,從發(fā)展的眼光上看,可能不應(yīng)只固定在傳統(tǒng)的規(guī)范的字面意義上而使其不具有預(yù)期的普遍性,而應(yīng)將憲法文本中“人”的社會現(xiàn)實(shí)和潛在意義的動態(tài)性事實(shí)考慮在內(nèi),這樣“人”的概念才會隨著社會的改變而得到更新。
在弱人工智能時(shí)代,除了“人”的概念的憲法解釋外,還有就是如何“本著能解釋的不修改”原則,通過憲法對科學(xué)和技術(shù)規(guī)定的解釋,在憲法框架內(nèi)理解人工智能技術(shù)帶來的變化和發(fā)展。一方面是對科學(xué)技術(shù)的憲法意義和價(jià)值的討論。什么是符合憲法價(jià)值觀的科學(xué)技術(shù)?科學(xué)技術(shù)在憲法中的定位?科學(xué)技術(shù)如何惠及人類?科學(xué)技術(shù)發(fā)展如何與人類的尊嚴(yán)和價(jià)值觀相協(xié)調(diào)?因此如何享受人工智能進(jìn)步及其應(yīng)用的利益將是涉及上面全部憲法議題的中心問題。以我國憲法為例,我國憲法中科學(xué)在立憲者眼中是重要的,要推廣、鼓勵(lì)和教育,要實(shí)現(xiàn)科學(xué)技術(shù)的現(xiàn)代化。我國憲法雖無明文的科學(xué)福利權(quán)的規(guī)定,但規(guī)定了大量享受科學(xué)進(jìn)步及其應(yīng)用所產(chǎn)生利益的國家義務(wù)條款[23]。另一個(gè)方面則是如何控制科學(xué)和技術(shù)對憲法價(jià)值觀的侵蝕。例如對人工智能侵蝕憲法價(jià)值觀有“反向工程”作用的相關(guān)新興權(quán)利的產(chǎn)生,如被遺忘權(quán)、算法解釋權(quán)等,一般無法通過憲法解釋來實(shí)現(xiàn),主要依靠修改憲法的方式來實(shí)現(xiàn)。
2. 修改憲法
在強(qiáng)人工智能時(shí)代,人工智能開始全方位比肩人類智能,人類與機(jī)器無甚差別。彼時(shí)通過修改憲法賦予機(jī)器人權(quán)利的國家可以預(yù)測的是會越來越多。憲法中的任何權(quán)利(力)設(shè)置都應(yīng)處于平衡狀態(tài),任一權(quán)利(力)必須具有相稱性。既然憲法規(guī)定了機(jī)器人的權(quán)利,那么人工智能時(shí)代“人”的基本權(quán)利在憲法中也需要相應(yīng)的修改。前面我們講到了Jinx的“自我信息”數(shù)據(jù)的失控問題,伴隨人工智能的神經(jīng)銜接技術(shù)的進(jìn)步,甚至?xí)霈F(xiàn)威脅個(gè)人隱私、身份和自主權(quán)的可能,神經(jīng)權(quán)保障亟待解決[24]。這些問題不能通過憲法規(guī)范來解決,需要通過承認(rèn)新權(quán)利或現(xiàn)有權(quán)利的新方面來實(shí)現(xiàn),通過修改憲法增設(shè)數(shù)據(jù)權(quán)利、神經(jīng)權(quán)利等,甚至需要修改某些憲法價(jià)值的形式,如用流動式民主替代代議制民主,使得算法權(quán)力成為憲法中的一種準(zhǔn)公權(quán)力,這是憲法對人工智能挑戰(zhàn)的積極適應(yīng)和應(yīng)對。
現(xiàn)今尚處于弱人工智能時(shí)代的數(shù)字(信息)社會,還未達(dá)到必須修改憲法的階段,但是有些國家(地區(qū))已認(rèn)識、預(yù)見到人工智能等科學(xué)技術(shù)帶來社會變革的可能,意欲提前修憲,肯定和謀求憲法中科學(xué)技術(shù)的價(jià)值嬗變和增進(jìn)。如韓國現(xiàn)行憲法將科學(xué)技術(shù)視為單純經(jīng)濟(jì)發(fā)展的工具,對因科學(xué)技術(shù)侵犯基本權(quán)利的行為沒有做出適當(dāng)?shù)膽?yīng)對。針對此,韓國近年來的科技界憲法請?jiān)柑岢觯茖W(xué)技術(shù)不僅要為經(jīng)濟(jì)作出貢獻(xiàn),還要為國民的福利、環(huán)境和文化作出貢獻(xiàn)。最終,總統(tǒng)文在寅提議的《憲法修訂案》除了規(guī)定信息基本權(quán)以外,還提出了“國家為發(fā)展國民經(jīng)濟(jì)和提高國民生活質(zhì)量,鼓勵(lì)基礎(chǔ)學(xué)問并革新科學(xué)技術(shù)”的規(guī)定。有的國家(地區(qū)),如蘇格蘭認(rèn)識到民主的未來應(yīng)該以分布式賬本技術(shù)(又稱區(qū)塊鏈)為基礎(chǔ),已經(jīng)考慮采用最民主的成文憲法形式將區(qū)塊鏈民主確認(rèn),如果此決議通過,蘇格蘭將是世界上第一個(gè)將區(qū)塊鏈民主納入成文憲法的國家(地區(qū))。
然而,如果人工智能在憲法中被賦予權(quán)利,可能享有與人類一樣的完整人格,同時(shí)科學(xué)技術(shù)也在憲法中定位于對國家自主地位和國民福利起基礎(chǔ)性作用的工具,人工智能的目的和工具實(shí)現(xiàn)一體性,就會給人工智能的憲法定位帶來困惑。此時(shí)就需要新的視角來解決此問題。德國《自由漢薩城不來梅州憲法》就提供了有趣而實(shí)用的出發(fā)點(diǎn),其第12條專門規(guī)定:“人高于技術(shù)和機(jī)器。通過法律保護(hù)人的本性和人們的共同生活,國家監(jiān)督和領(lǐng)導(dǎo)以及限制和禁止科學(xué)發(fā)明和技術(shù)機(jī)構(gòu)的使用。人人有權(quán)利保護(hù)與人身相關(guān)的數(shù)據(jù),只有通過法律或者法律在集體或第三人的利益需求時(shí),才可以對這項(xiàng)權(quán)利進(jìn)行限制。人人根據(jù)法律都有咨詢權(quán),咨詢哪些信息被收檔和保存;人人有權(quán)根據(jù)法律有咨詢權(quán),審查涉及本人檔案和信息?!盵25]人高于技術(shù)和機(jī)器,這是德國憲法史上獨(dú)一無二的條款,雖尚未適用于判例法。這是以象征性立法的形式肯定了人與機(jī)器的價(jià)值地位,雖不可能一勞永逸地解決智能機(jī)器人的憲法定位難題,但確定了解決此問題的未來承諾,是一個(gè)可參考的憲法修改范式。
3. 專門人工智能立憲
在超人工智能時(shí)代,人工智能在各領(lǐng)域超越人類。此階段的人工智能也可能會自我思考、有想象力,他們的理想也不再是人類的理想,不需要屈尊于人類的標(biāo)準(zhǔn)。此時(shí)的挑戰(zhàn)在于人類將全部決策權(quán)交給人工智能。前車之鑒就是當(dāng)權(quán)的古羅馬人將思考活動交給希臘奴隸,致使羅馬在思想事業(yè)上變得平庸,喪失獨(dú)立思考力。此階段也可能存在平行的法律系統(tǒng):在人工智能世界,代碼作為人工智能世界的法律,會出現(xiàn)專門的人工智能憲法;人類世界存在自身的法律規(guī)范。兩個(gè)平行的法律系統(tǒng)需要新的社會契約建立信任和維系制衡,這可能造成關(guān)聯(lián)兩個(gè)法律系統(tǒng)的區(qū)塊鏈憲法的產(chǎn)生。
比特國使用以太坊智能合約編寫的虛擬國家憲法,看似站在了激進(jìn)主義的超人類主義立場,實(shí)際上提供了一個(gè)新視角。區(qū)塊鏈技術(shù)的關(guān)鍵特征是安全、透明和記錄數(shù)據(jù)的不可改變,“是一種一個(gè)去中心化的、分布式的、永久以代碼為基礎(chǔ)的交易與智能合約的分類賬簿,這個(gè)系統(tǒng)也能用于人類或跨物種之間,確切地說,這是因?yàn)樗静恍枰チ私狻⑿湃位蚶斫饬硪环?,只要有代碼(機(jī)器的語言)就夠了”[26]462。因此,區(qū)塊鏈技術(shù)作為一個(gè)值得信賴的關(guān)于身份和信息共享的框架,為跨物種交互建立信任模型,可作為兩種法律系統(tǒng)溝通的架構(gòu)。
另外,全球化人工智能的可能威脅來源于權(quán)力的集中,必須設(shè)法構(gòu)筑更普及的民主系統(tǒng),這些系統(tǒng)不僅要納入人類社會,也要納入計(jì)算機(jī)智能[26]8。在上述兩個(gè)法律系統(tǒng)內(nèi)部,區(qū)塊鏈也是民主的積極架構(gòu)。在人類世界中,區(qū)塊鏈技術(shù)可通過使用區(qū)塊鏈智能合約來實(shí)現(xiàn)控制政府行為者,公民同意政府受區(qū)塊鏈上的一套特定規(guī)則約束,從而創(chuàng)建他們的智能憲法,也就賦予了政府明確的權(quán)力,防止政府在這些權(quán)力外行動。一定意義上,就是區(qū)塊鏈在編纂憲法。區(qū)塊鏈以分散存儲數(shù)據(jù)的方式為組織者提供了關(guān)聯(lián)能力,消除了公民信任政府的需要,而且還為共鳴提供了清晰、清廉、有約束力的決策過程,這使得民主更安全、更透明、更有成效、更負(fù)責(zé)任。在人工智能世界中,去中心化的區(qū)塊鏈也能作為人工智能世界的法律架構(gòu),概念化為數(shù)字共識空間的憲法規(guī)則和約束。
當(dāng)涉及風(fēng)險(xiǎn)、復(fù)雜社會中制度功能和社會結(jié)構(gòu)之間一系列錯(cuò)綜復(fù)雜的關(guān)系時(shí),“彈性”是一個(gè)具有說服力的概念?!皬椥浴保≧esilience)的概念源于20世紀(jì)70年代的生態(tài)學(xué)領(lǐng)域,原指應(yīng)對氣候變化和減緩自然災(zāi)害時(shí),“系統(tǒng)能夠較快恢復(fù)到原有狀態(tài),并且保持系統(tǒng)結(jié)構(gòu)和功能的能力”?!皬椥浴北活l繁地重新定義和擴(kuò)展,在人文社會科學(xué)領(lǐng)域所使用的“彈性”概念可以定義為系統(tǒng)吸收沖擊的能力,并通過重組保持系統(tǒng)的功能和形式[27]。“彈性”也為憲法學(xué)界所重視,墨西哥城將“彈性”寫入了憲法,認(rèn)為包容韌性有助于在全球挑戰(zhàn)的背景下創(chuàng)建一個(gè)更公平、準(zhǔn)備更充分的社會。巴西圣保羅法學(xué)院奧斯卡·維爾納·維埃拉(Oscar Vilhena Vieira)及其研究團(tuán)隊(duì)提出了憲法彈性的概念,認(rèn)為在過去30多年中,巴西1988年憲法已修改了106次,一方面表明某種“規(guī)范的不穩(wěn)定性”,其被批評為“拼布床單”①作家內(nèi)莉達(dá)·皮儂(Nelida Pinon)曾寫道:“這個(gè)可憐的巴西憲法像被強(qiáng)奸了上千次的拼布床單。”參見Pinon N.The Republic of Dreams: A Novel.Knopf,1989:273。,但另一方面,此文本表現(xiàn)出巨大的適應(yīng)性,它有極強(qiáng)的抵御能力,使其修改能夠適應(yīng)新的政治、經(jīng)濟(jì)情況,同時(shí)堅(jiān)持堅(jiān)定的規(guī)范性底線,防止了憲法的基本要素被放棄。這種文字上的“彈性”有助于確保政治協(xié)定的穩(wěn)定和長期憲法承諾的逐步實(shí)現(xiàn)。彈性話語提供了一個(gè)概念框架,以重新審視憲法如何應(yīng)對日益復(fù)雜的任務(wù)。不僅如此,它還重新審視了憲法的適應(yīng)性,并提供了一個(gè)看待憲法變化的不同視角[28]。
時(shí)至今日,“彈性”概念已經(jīng)成為一個(gè)包容性的概念,既有在回應(yīng)和恢復(fù)模式上的“復(fù)原”,品格意義上的更快、更有效地反彈的“韌性”能力,還有不限于系統(tǒng)內(nèi)部(包括系統(tǒng)外)的重組、更新和改善所生“紅利”等多種內(nèi)涵。在憲法領(lǐng)域,如何讓憲法預(yù)測和抵御外部沖擊,如何讓憲法適應(yīng)社會變遷乃至急劇轉(zhuǎn)型的刺激和壓力,不至于發(fā)生永久性的破壞而保持其核心價(jià)值以及功能和身份,“彈性”為此提供了新的視角。憲法彈性,一般而言,是憲法應(yīng)對挑戰(zhàn)并最終應(yīng)對真正危機(jī)的能力,主要體現(xiàn)在憲法復(fù)原、憲法韌性和彈性紅利三方面。按照托夫勒社會未來主義的觀點(diǎn),憲法不僅要能夠避免“數(shù)字社會未來的沖擊”,還能借此建立一個(gè)理想的人性化的未來憲法[29]。
1. 憲法復(fù)原
憲法不僅要構(gòu)成憲法,而且要保護(hù)憲法不被廢除。人工智能對憲法的挑戰(zhàn)是系統(tǒng)性的。第一,憲法出現(xiàn)了變革性的推動力,如流動式民主相對于代議制民主的變革。第二,出現(xiàn)了減損性的人權(quán)消解和權(quán)力失衡,這意味著面對挑戰(zhàn),要恢復(fù)憲法的價(jià)值和功能的動態(tài)平衡的正常態(tài)位,憲法不僅要加強(qiáng)規(guī)范,還要在必要時(shí)進(jìn)行修改。第三,憲法的功能實(shí)質(zhì)即基本權(quán)利的保障和權(quán)力的制衡也面臨挑戰(zhàn),算法權(quán)力日漸擴(kuò)張,公民相應(yīng)的新權(quán)利卻未及時(shí)產(chǎn)生,這意味著如果要保證憲法中權(quán)利和權(quán)力的動態(tài)平衡,避免憲法的廢除,就必須相應(yīng)地改變憲法設(shè)計(jì),增加現(xiàn)有的權(quán)利類型,增加限制私權(quán)力的規(guī)范。畢竟憲法仍然是解決法律(包括憲法自身)分歧、協(xié)和社會沖突和消弭轉(zhuǎn)型困難最安全的途徑。但是憲法的修改是存在基本底線的,憲法核心價(jià)值人權(quán)、法治和民主以及基本權(quán)利和權(quán)力的動態(tài)平衡是不能廢除的。也就是說,不能犧牲憲法的核心價(jià)值來滿足變革的需要。
2. 憲法韌性
憲法韌性是指憲法文字靈活有彈性。如前述的巴西憲法面對挑戰(zhàn)所做的多次修改,體現(xiàn)了巴西憲法文字的靈活而富有彈性,其給憲法應(yīng)對人工智能科技挑戰(zhàn)的啟示是,憲法文字盡量要靈活有彈性,這也是憲法的韌性品質(zhì)。有彈性的憲法文本,通過憲法解釋、憲法修改的途徑就可以很好地應(yīng)對今天和未來的挑戰(zhàn)。反面例子是《大韓民國憲法》第127條第1款:“國家應(yīng)通過科學(xué)技術(shù)的革新、情報(bào)及人力開發(fā)來努力于國民經(jīng)濟(jì)的發(fā)展?!边@一條款將科學(xué)技術(shù)與國民經(jīng)濟(jì)綁定,將憲法中的科學(xué)技術(shù)束縛于國家經(jīng)濟(jì)增長理論,讓其成為國民經(jīng)濟(jì)的工具,具有鮮明的韓國國民經(jīng)濟(jì)振興的背景和時(shí)代特征。但這種“技術(shù)-經(jīng)濟(jì)”立法范式忽視了“科學(xué)發(fā)展,經(jīng)濟(jì)一般就會發(fā)展,還包括國民的福利、環(huán)境和文化等等也會更好”的規(guī)律。伴隨第四次工業(yè)革命的到來,科學(xué)技術(shù)單純?yōu)榻?jīng)濟(jì)發(fā)展服務(wù)的定位,是沒有彈性的規(guī)定,對第四次工業(yè)革命的科學(xué)技術(shù)發(fā)展沒有解釋力。現(xiàn)在的科學(xué)技術(shù)已經(jīng)不只是工具,像人工智能還可能成為“人”,讓“人”為經(jīng)濟(jì)服務(wù)的邏輯是存在問題的。而像對岸共和國憲法那樣將人工智能寫進(jìn)憲法也存在一定的問題,并沒有解決人工智能的人格問題。如果只是單純地為科學(xué)技術(shù)定位,這樣的條款可能跟不上社會的成長和需求,無疑是一個(gè)“自殺協(xié)定”,這里涉及憲法條文的可持續(xù)問題:憲法必須兼顧必要的穩(wěn)定性和適應(yīng)所有新情況和新需求的可能性。人工智能雖說是一個(gè)影響未來的技術(shù),但未來的新興技術(shù)更多是以技術(shù)群的方式發(fā)展成新的匯聚技術(shù)(納米、生物、信息、認(rèn)知),人工智能雖對人權(quán)等有所影響,但還未破壞人的主體性,有的只是人的主動賦權(quán)?,F(xiàn)今已真正對人的主體性產(chǎn)生影響的是神經(jīng)科技,其已經(jīng)開始真實(shí)影響人的神經(jīng)權(quán),對人的主體性、身份等產(chǎn)生了影響。憲法修改應(yīng)該以冷靜和深思熟慮的方式進(jìn)行,而不只是應(yīng)對當(dāng)前的挑戰(zhàn)和危機(jī)。沒有必要的修改只會為下一次的修改創(chuàng)造機(jī)會。畢竟,憲法的持久性需要制憲者的智慧,制憲者的智慧會助力憲法的韌性。
3.彈性紅利
洛克菲勒基金會前主席朱迪思·羅丹(Judith Rodin)發(fā)明了彈性紅利一詞,認(rèn)為一方面彈性紅利使個(gè)人、社區(qū)和組織能夠更有效地抵御突發(fā)事件,并使他們能夠改善當(dāng)前的系統(tǒng)和情況,但另一方面,彈性紅利也使它們能夠建立新的關(guān)系,采取新的努力和舉措,并尋找新的機(jī)會,這些機(jī)會可能是以前從未想象過的[30]。彈性紅利不僅可以讓憲法恢復(fù)其功能實(shí)質(zhì),還能對憲法外的經(jīng)濟(jì)社會文化結(jié)構(gòu)有所改善、促進(jìn),并分得彈性紅利,從另一方面證明憲法彈性的價(jià)值。
面對人工智能的挑戰(zhàn),憲法在自身框架內(nèi),針對人工智能發(fā)展的不同階段,可以分別采取憲法解釋、修改憲法、專門立憲的策略。這些策略都可以構(gòu)建憲法的彈性,但有一條基本底線就是彈性憲法是法治、民主、人權(quán)享有絕對價(jià)值的憲法,憲法中權(quán)利和權(quán)力的動態(tài)平衡不因人工智能等新興科技的挑戰(zhàn)而消損。彈性紅利的作用,不止于化解風(fēng)險(xiǎn),憲法在措置人工智能科技風(fēng)險(xiǎn)中,彈性紅利可以作為催化劑化風(fēng)險(xiǎn)為機(jī)會,為憲法帶來新的益處,譬如流動式民主相對于代議制民主是牽引未來民主變革的可能愿景。專門立憲也可能是算法自治的最好方法,“讓人們自己選擇,除非我們比他們更了解他們的利益”[31]。這就需要憲法在保持其身份的同時(shí),承認(rèn)世界的不確定性,針對過去的憲治文明,要揭示憲治規(guī)律,面對不確定性的未來,要預(yù)測憲治趨勢。
人工智能對憲法的挑戰(zhàn),看似是無法克服的挑戰(zhàn),但如何調(diào)整一個(gè)新的憲法世界,對憲法而言,是其無法回避的時(shí)代責(zé)任。面對人工智能的憲法挑戰(zhàn),應(yīng)將彈性理論與憲法應(yīng)對聯(lián)系起來。在這種新的思考模板中,彈性憲法的構(gòu)建是主動應(yīng)對人工智能挑戰(zhàn)的策略,這一策略既為應(yīng)對人工智能的系統(tǒng)性憲法價(jià)值破壞做好積極準(zhǔn)備,又為應(yīng)對人工智能的破壞性而產(chǎn)生憲法價(jià)值新形式提供機(jī)會。