王曉梅,何 麗
人工智能信任問題是人工智能發(fā)展中的重大課題之一。2021 年7 月,中國信通院、京東探索研究院聯(lián)合發(fā)布《可信人工智能白皮書》[1],指出人工智能技術(shù)風(fēng)險(xiǎn)引發(fā)信任危機(jī),其內(nèi)容涉及算法安全導(dǎo)致的應(yīng)用風(fēng)險(xiǎn)、黑箱模型導(dǎo)致算法不透明、數(shù)據(jù)歧視導(dǎo)致智能決策偏見、系統(tǒng)決策復(fù)雜導(dǎo)致責(zé)任事故主體難以界定和數(shù)據(jù)濫用導(dǎo)致隱私泄露風(fēng)險(xiǎn)等五個(gè)方面??尚湃斯ぶ悄芤?guī)范無疑是可信人工智能的重要內(nèi)容,通過建構(gòu)可信倫理規(guī)范以化解人工智能發(fā)展面臨的信任風(fēng)險(xiǎn)是一種可行方案,但規(guī)范的建構(gòu)本身依然面臨深刻挑戰(zhàn)。
倫理規(guī)范必須是可信的,這是可信人工智能框架設(shè)計(jì)的應(yīng)有之義,也是其有效性的主要來源。只有充分反映并增進(jìn)公眾利益的規(guī)范才是可信的,才能為公眾普遍接受并自覺遵守。然而,現(xiàn)代社會(huì)如同一個(gè)技術(shù)鐵籠,新型的控制與人工智能、大數(shù)據(jù)等高新技術(shù)緊密結(jié)合,進(jìn)一步擴(kuò)大了技術(shù)鴻溝,影響公眾參與技術(shù)規(guī)則的制定,阻礙公眾利益的實(shí)現(xiàn),對(duì)可信倫理規(guī)范的建構(gòu)造成了挑戰(zhàn)。芬伯格提出的技術(shù)代碼是一種可信的倫理規(guī)范,是調(diào)節(jié)多方利益的動(dòng)態(tài)平衡機(jī)制,其通過提升技術(shù)設(shè)計(jì)中的公眾參與度避免利益格局失衡,推動(dòng)倫理規(guī)范體現(xiàn)民主價(jià)值。
人工智能的內(nèi)在本質(zhì)和發(fā)展趨勢(shì)存在侵犯?jìng)€(gè)人隱私、弱化人的自主性、模糊人的道德責(zé)任、威脅人的存在意義和價(jià)值等倫理風(fēng)險(xiǎn)[2](128)。如何規(guī)避道德風(fēng)險(xiǎn),確保人類始終有能力控制人工智能的最終發(fā)展,成為學(xué)界和業(yè)界的一大課題,可控人工智能(Trustworthy AI)的概念因此得以提出,為其設(shè)計(jì)某種“阿喀琉斯之踵”勢(shì)在必行。對(duì)人工智能可知、可管、可控的強(qiáng)調(diào)源自對(duì)它不確定、不可預(yù)期性和不信任的恐懼?!靶湃问侨祟惣叭祟惿鐣?huì)開發(fā)、推廣以及利用人工智能的先決條件”[3],倘若社會(huì)對(duì)人工智能缺乏必要的信任而將其視為潛在危險(xiǎn),那么人工智能就不可能得到有效的推廣與使用,它所能帶來的經(jīng)濟(jì)與社會(huì)效益也將無法實(shí)現(xiàn)。在人們對(duì)人工智能的態(tài)度由消極防范到積極引導(dǎo)的轉(zhuǎn)變過程中,可信人工智能的構(gòu)想逐漸成形?!翱尚湃斯ぶ悄軅惱砜蚣堋保‥thics Guidelines For Trustwor?thy AI)[3]不僅延續(xù)了在技術(shù)層面防范安全風(fēng)險(xiǎn)的傳統(tǒng)思路,更提出了通過價(jià)值內(nèi)嵌規(guī)避道德風(fēng)險(xiǎn)的倫理要求,包括技術(shù)可信(主要指技術(shù)穩(wěn)健性)與倫理可信。信任原是作為主體的人對(duì)信任對(duì)象的揣度,是人對(duì)處于全知與無知之間的不確定性狀態(tài)所表達(dá)的一種由衷期望或積極態(tài)度。信任一般發(fā)生在人與人之間,通過對(duì)技術(shù)進(jìn)行人格化與具象化理解[4](446),亦可將信任延伸至技術(shù)中并進(jìn)一步追問倫理規(guī)范的可信與否。倫理規(guī)范負(fù)荷規(guī)范(與技術(shù))設(shè)計(jì)者的設(shè)計(jì)意圖與價(jià)值理念,為技術(shù)活動(dòng)提供方向引領(lǐng)與行為指南,直接影響技術(shù)活動(dòng)的設(shè)計(jì)、生產(chǎn)、使用等各個(gè)環(huán)節(jié),可信是其應(yīng)有之義。
信任關(guān)涉利益。不論是心理層面的信任感,還是倫理層面的道德感,抑或作為一種理性決策,都隱含著主體對(duì)某個(gè)層面的利益維度的考究。哈丁(Russel Hardin)是專門從利益出發(fā)研究信任的學(xué)者之一。他認(rèn)為在眾多的信任關(guān)系中,關(guān)鍵要點(diǎn)在于包覆利益(encapsulated interest)[5](3-9)。信任只發(fā)生在主體通過滿足對(duì)象的利益可以實(shí)現(xiàn)自身利益的條件下。信任主體與信任對(duì)象的利益相互纏繞,兩者是利益共同體。利益對(duì)信任具有更強(qiáng)大的解釋力,物質(zhì)要求與精神需求最終都能被納入其中。可信是建立在保障信任主體利益之上的。尤斯拉納(Eric M.Uslaner)同樣認(rèn)為,當(dāng)自己利益與他人利益不沖突時(shí),更容易信任對(duì)方。他的工作的創(chuàng)新性在于進(jìn)一步指出信任具有民主氣質(zhì),它與社會(huì)公平之間存在聯(lián)系,“通過促進(jìn)平等,能間接地提高信任”[6](221),不平等會(huì)導(dǎo)致對(duì)群體外的恐懼和怨恨心理,“加劇了仇外和反對(duì)道德主義信任的情緒”[6](254)。換言之,利益不僅要得到保障,其分配也應(yīng)彰顯公平。
這一結(jié)論在可信倫理規(guī)范的討論中同樣適用。盡管倫理規(guī)范有不同的層次和種類,譬如行業(yè)規(guī)范、安全標(biāo)準(zhǔn)等存在不同的適用對(duì)象與作用范圍,但針對(duì)面向全社會(huì)的人工智能技術(shù)提出的倫理規(guī)范應(yīng)該面向社會(huì)公眾。可信倫理規(guī)范應(yīng)當(dāng)合乎公眾利益,引導(dǎo)構(gòu)建平衡客觀的利益格局,充分發(fā)揮人工智能等高新技術(shù)的解放作用,使人們盡可能地?cái)[脫技術(shù)的宰制與奴役,最終實(shí)現(xiàn)自由全面的發(fā)展。
可信倫理規(guī)范的建構(gòu)并非一帆風(fēng)順,在現(xiàn)實(shí)中面臨一系列的挑戰(zhàn)。信任本身所固有的不確定性問題與人們對(duì)規(guī)范可信性的質(zhì)疑相互糾纏。技術(shù)、資本與知本三位一體式的深度結(jié)合不斷增強(qiáng)優(yōu)勢(shì)群體在規(guī)范制定中的權(quán)威。人工智能等高新技術(shù)導(dǎo)致的民主技術(shù)化問題不斷消解公眾參與規(guī)范設(shè)計(jì)的自主性。優(yōu)勢(shì)群體與公眾在人工智能的技術(shù)設(shè)計(jì)、研發(fā)和應(yīng)用的規(guī)則制定中的權(quán)力比例失衡,公眾的利益并未得到充分的、公平的表達(dá)。
信任存在風(fēng)險(xiǎn),這種風(fēng)險(xiǎn)很大程度上源自未來的不確定性。一方面,未來的情狀難以預(yù)測(cè),信任主體始終難以掌握足夠的客觀依據(jù);另一方面,踐行較之承諾必然是滯后的,被信任者能否實(shí)踐可信的行為并不能完全確定。因此,人們對(duì)規(guī)范的可信性提出質(zhì)疑:是否真的存在一種倫理規(guī)范可以有效指引人工智能等高新技術(shù)規(guī)避所有潛在的風(fēng)險(xiǎn)?相對(duì)滯后的規(guī)范可以緊跟技術(shù)迭代的步伐嗎?規(guī)范是否會(huì)限制技術(shù)發(fā)展,違背發(fā)展的初衷?[7](8)除卻對(duì)倫理規(guī)范的存在論意義上的質(zhì)疑,利益格局的持續(xù)失衡也是可信倫理規(guī)范建構(gòu)的一大挑戰(zhàn)。這種失衡體現(xiàn)在規(guī)范的制定中,表現(xiàn)為優(yōu)勢(shì)群體的話語權(quán)與決策權(quán)不斷加強(qiáng)而公眾的呼聲卻日益減弱。
一方面,技術(shù)、資本、知本的深度結(jié)合賦予優(yōu)勢(shì)群體操作自主性(operational autonomy)[8](75)與技術(shù)權(quán)力。資本家在各種可替代的合理化中實(shí)施戰(zhàn)略性選擇的權(quán)力,他們甚至在做出某種選擇時(shí)不考慮習(xí)俗、慣例、工人的嗜好等外在因素,也不考慮他們的抉擇將對(duì)工人家庭產(chǎn)生何種影響。溫納(Langdon Winner)記述的“瓊斯海灘”[9](121-136)這一經(jīng)典案例很好地佐證了這一點(diǎn):社會(huì)的上流階層可以自由地進(jìn)入瓊斯海灘,而經(jīng)濟(jì)弱勢(shì)群體尤其是黑人卻因?yàn)橘囈猿俗墓财嚫哂跇蛄号c通往海灘的道路之間的凈高而被攔截在外?!凹夹g(shù)裝置體現(xiàn)了某種規(guī)范共識(shí)”[10](89-91),設(shè)計(jì)者的嫌貧愛富與種族偏見作為隱藏的倫理維度滲入這項(xiàng)工程之中,看似簡(jiǎn)單的設(shè)計(jì)卻不正當(dāng)?shù)叵拗屏艘粋€(gè)階層的自由。知識(shí)鴻溝與數(shù)字鴻溝等概念表征出(高新)技術(shù)針對(duì)不同對(duì)象所產(chǎn)生的迥異的賦能結(jié)果。表面上似乎所有人均可從技術(shù)進(jìn)步中受惠,但實(shí)際上總有一些人享受著更多的好處甚至操縱了技術(shù)利益的分配?,F(xiàn)有的大多數(shù)技術(shù)體系都建立在等級(jí)之上,它們通過各種途徑去實(shí)現(xiàn)資本所有者與技術(shù)專家等特殊群體的利益制度化、合法化,卻回避了其他社會(huì)成員的利益訴求。資本掌控者與技術(shù)精英掌握住技術(shù)及技術(shù)的解釋權(quán)也就掌握住了這種技術(shù)權(quán)力,并借此獲得了一個(gè)凌駕于社會(huì)之上的位置,“使他們得以從這個(gè)位置居高臨下地觀察和控制社會(huì)”[8](84)。
人工智能無疑放大了這種技術(shù)權(quán)力且有破壞傳統(tǒng)民主根基的可能。數(shù)據(jù)主義大行其道,使人類一切社會(huì)行為皆可數(shù)據(jù)化。這被應(yīng)用于政治極有可能產(chǎn)生兩種后果:西方傳統(tǒng)的代議制民主選舉被人工智能牽制、高科技巨頭公司運(yùn)用大數(shù)據(jù)相關(guān)技術(shù)干預(yù)政治權(quán)力。就前者而言,人工智能可依托海量數(shù)據(jù)與超級(jí)算法實(shí)現(xiàn)競(jìng)選方案的“精準(zhǔn)投放”,通過滿足不同個(gè)體的訴求獲得普遍的支持。盡管在某種程度上提高了競(jìng)選效率,但是借助信息手段操縱民意卻違背了民主選舉的初衷;就后者而言,科技巨頭公司或以人工智能等高新技術(shù)為政治砝碼,比純粹的財(cái)團(tuán)更深層次地介入政府運(yùn)作的各個(gè)方面。當(dāng)公眾不再具備經(jīng)濟(jì)與政治上的影響力量,“民眾的未來只能依賴一小群精英心懷仁慈”[11](77)。通過自由的民主辯論和平等對(duì)話來達(dá)成共識(shí)或?qū)崿F(xiàn)決策目標(biāo)會(huì)被認(rèn)為費(fèi)時(shí)費(fèi)力且成效不明顯而漸次被取締,技術(shù)專家的合理決策將代替公眾意志的民主實(shí)踐,所謂的技術(shù)共識(shí)背后是權(quán)力控制的真相。
另一方面,公眾參與人工智能技術(shù)設(shè)計(jì)、研發(fā)和應(yīng)用等規(guī)范制定的自主性幾乎被消解殆盡。首先,現(xiàn)代技術(shù)及其所適配的規(guī)則日益滲透進(jìn)社會(huì)生產(chǎn)生活的各個(gè)方面。為了追求流程清晰化、利益最大化,資本家與技術(shù)專家總是傾向于通過層層分工將工作簡(jiǎn)化為容易習(xí)得的機(jī)械步驟,令公眾在各自的工作領(lǐng)域被“去除技能”而隨時(shí)可以被取代。公眾由于知識(shí)和能力的局限無力理解和掌握生產(chǎn)實(shí)際,從而喪失了在技術(shù)設(shè)計(jì)中的話語權(quán)。其次,系統(tǒng)信任成為公眾的被動(dòng)選擇。伴隨著經(jīng)濟(jì)發(fā)展與社會(huì)轉(zhuǎn)型,特別是在“數(shù)字轉(zhuǎn)向”(digital turn)[12](566-569)的背景下,一方面,技術(shù)正在從根本上改變我們的生活環(huán)境;另一方面,在我們沒有意識(shí)到的情況下,它們也在改變我們自己[13](196-203)。廣泛應(yīng)用于熟人社會(huì)的人格信任已不敷使用,精細(xì)化的分工與廣泛的聯(lián)系增加了個(gè)體對(duì)他人的依賴,公眾不得不擴(kuò)大信任的儲(chǔ)備,選擇相信社會(huì)制度、規(guī)范和專業(yè)知識(shí)。這種信任是“產(chǎn)生于在無知或缺乏信息時(shí)的盲目信任”[14](19),其產(chǎn)生既非由于公眾參與了社會(huì)決策的全過程,也不是因?yàn)楣姄碛屑夹g(shù)專家、社會(huì)精英所具備的知識(shí)體系與資源稟賦,而是由于公眾在資本與知本方面的匱乏。盡管公眾也逐漸對(duì)專家有所懷疑,卻被動(dòng)地陷入了不信任卻又不得不信任的境地。公眾面對(duì)前所未有的現(xiàn)代生存焦慮,選擇的能動(dòng)性空間被極大地壓縮。人們不斷總結(jié)前人經(jīng)驗(yàn)卻不斷發(fā)現(xiàn)經(jīng)驗(yàn)已經(jīng)過時(shí),不斷學(xué)習(xí)知識(shí)卻不斷發(fā)現(xiàn)跟不上知識(shí)更新的步伐。財(cái)富不斷流動(dòng),變故層出不窮,風(fēng)險(xiǎn)不期而至。作為絕對(duì)中介物的金錢被視作緩解焦慮的良藥,成為現(xiàn)代人奮斗一生的首要目標(biāo)。物質(zhì)與精神的倒置使得大多數(shù)公眾根本無暇顧及科技的進(jìn)展和規(guī)范的制定。最后,不斷走向庸俗的大眾文化日漸摧毀公眾的反思精神。政治、教育等公共領(lǐng)域慢慢以娛樂的方式出現(xiàn),不斷走向膚淺。人們自我反思的能力遭遇危險(xiǎn)的退步,否定批判的精神受到來自各方的壓抑,淪為單向度的人,心甘情愿地成為“娛樂至死的物種”[15](162)。
可信倫理規(guī)范不僅需要應(yīng)對(duì)“是否存在”的詰問,更應(yīng)該就“誰來制定”“為誰制定”等問題作出清楚的闡釋。盡管資本主義社會(huì)的技術(shù)與管理發(fā)生了深刻變革,但階層分化、利益固化等各種類型的不平等在當(dāng)代并沒有被解決,反而隨著時(shí)間的推移愈發(fā)嚴(yán)重??尚艂惱硪?guī)范的建構(gòu)任重道遠(yuǎn)。哈貝馬斯曾試圖通過對(duì)話來協(xié)商形成“滿足每個(gè)參與者的利益的規(guī)范”[16](65),可他卻將這種民主對(duì)話機(jī)制局限在技術(shù)專家與政治家之間,選擇的顯然是一種自上而下、單向度的直線式技術(shù)民主化道路。與之相反,技術(shù)代碼則將自下而上地沖破層層結(jié)構(gòu)性桎梏,在技術(shù)世界內(nèi)部尋求解放的張力,找到技術(shù)與自由達(dá)成和解的可能。
芬伯格從技術(shù)的角度對(duì)技術(shù)壟斷與技術(shù)霸權(quán)下資本主義民主的偽善這一現(xiàn)代性病癥進(jìn)行了診斷,將其癥結(jié)歸因于“將社會(huì)中的大多數(shù)人排除在技術(shù)決策之外”[8](3),技術(shù)中濃縮著的是優(yōu)勢(shì)群體的利益。為此,他呼吁一種根本性的、自下而上的民主轉(zhuǎn)化,“優(yōu)先考慮那些被排斥的價(jià)值和表達(dá)這些價(jià)值的公眾”[8](22)。只有對(duì)技術(shù)進(jìn)行民主化改造,才能釋放公眾被忽略的利益和被壓抑的潛能。為了回答技術(shù)民主化何以可能的問題,芬伯格提出了技術(shù)代碼的概念。
根據(jù)芬伯格的闡釋,技術(shù)代碼是一種聚合了技術(shù)需求與社會(huì)需求的“技術(shù)合理性”[8](76)。在技術(shù)設(shè)計(jì)中,技術(shù)要素是必然存在的,否則不成其為技術(shù),但那些社會(huì)要素也非常重要,一旦審美、倫理、文化等特性凝固為最終的代碼內(nèi)嵌于具體技術(shù),便會(huì)成為技術(shù)的內(nèi)在組成部分,這些“組成部分”到底是什么,建構(gòu)主義者有時(shí)稱之為“黑箱”,因?yàn)橐坏┘夹g(shù)的定義被普遍接受,人們就不會(huì)質(zhì)疑技術(shù)的“內(nèi)部”是什么,這使得一切合理化[10](5)。譬如,顧客在挑選冰箱時(shí)往往更重視性能與價(jià)格,卻理所當(dāng)然地忽略了冰箱容積等技術(shù)指標(biāo),這些技術(shù)指標(biāo)的背后有現(xiàn)代家庭的規(guī)模大小、飲食習(xí)慣等社會(huì)文化因素的沉淀。
技術(shù)代碼是動(dòng)態(tài)建構(gòu)的,它的生成及發(fā)揮作用的重要機(jī)制涉及兩級(jí)工具化。初級(jí)工具化實(shí)際上是技術(shù)代碼的解構(gòu)過程,即按照有用性將技術(shù)體系中相對(duì)穩(wěn)定的部分譬如自然原料、技術(shù)知識(shí)等相對(duì)中立的技術(shù)要素提取出來,使其成為價(jià)值無涉的存在,也可以將其視作一種功能化過程;次級(jí)工具化則主要在于解釋和表達(dá)價(jià)值、文化與規(guī)范等。建構(gòu)的過程也是現(xiàn)實(shí)社會(huì)中的倫理文化特質(zhì)與技術(shù)要素再度融合的過程,承載著新的利益與價(jià)值的技術(shù)代碼在此過程中生成。技術(shù)代碼的動(dòng)態(tài)建構(gòu)過程使得它并非一成不變,如果資本主義的技術(shù)霸權(quán)可以在此建立,那么民主的技術(shù)設(shè)計(jì)亦可在此形成,技術(shù)代碼最終的性質(zhì)取決于新生技術(shù)代碼所沉淀的文化特質(zhì)。不難理解,資本家總是設(shè)法讓技術(shù)盡可能狹窄到初級(jí)工具化上,如此才能使得技術(shù)與價(jià)值相分離,使工人淪為機(jī)器體系的某個(gè)部件,以實(shí)現(xiàn)高效管理和粗暴控制,“這樣的帶有偏見的技術(shù)代碼使得設(shè)計(jì)趨向于集權(quán)化和等級(jí)制,會(huì)系統(tǒng)地削弱能動(dòng)性和參與積極性以及交往理性”[10](87)。技術(shù)代碼的生成場(chǎng)景和應(yīng)用場(chǎng)景部分決定了技術(shù)的性質(zhì),社會(huì)主義的技術(shù)代碼跟資本主義的技術(shù)代碼不一樣,它會(huì)更傾向于全面地顧及道德倫理、人和技術(shù)的可持續(xù)發(fā)展等因素,將創(chuàng)造機(jī)會(huì)讓更多利益相關(guān)主體參與進(jìn)技術(shù)決策過程,這就在一定程度上避免了技術(shù)壟斷導(dǎo)致技術(shù)規(guī)范可信度被削弱的情況,為技術(shù)設(shè)計(jì)的民主化創(chuàng)造了更和諧的氛圍。
技術(shù)代碼具有倫理意蘊(yùn)與規(guī)范屬性。就理論內(nèi)涵而言,技術(shù)代碼與倫理規(guī)范一樣,涉及價(jià)值的形成與沉淀,其解構(gòu)與重構(gòu)過程就是價(jià)值生成與沉淀的過程;就價(jià)值旨趣而言,技術(shù)代碼的要義便在于通過喚醒公眾對(duì)技術(shù)設(shè)計(jì)的參與,實(shí)現(xiàn)技術(shù)設(shè)計(jì)全過程民主,使技術(shù)充分反映并實(shí)現(xiàn)公眾的利益訴求,使公眾免于被技術(shù)規(guī)訓(xùn)與型構(gòu);就作用路徑而言,技術(shù)代碼的提出意味著揚(yáng)棄過去認(rèn)為倫理問題只產(chǎn)生于產(chǎn)品的社會(huì)使用中的看法,更加重視技術(shù)設(shè)計(jì)過程。事實(shí)上,技術(shù)與倫理的沖突在人工智能發(fā)展的各個(gè)階段均會(huì)出現(xiàn),在技術(shù)設(shè)計(jì)之始便注入價(jià)值有利于從源頭規(guī)避倫理風(fēng)險(xiǎn)。簡(jiǎn)言之,技術(shù)設(shè)計(jì)的過程要突破“設(shè)計(jì)—使用”的二分法,將倫理內(nèi)置于技術(shù)以及內(nèi)嵌于技術(shù)設(shè)計(jì)的全過程。
技術(shù)代碼的動(dòng)態(tài)建構(gòu)特性與自下而上的作用路徑為可信倫理規(guī)范的建構(gòu)提供一種新的視野。其一,動(dòng)態(tài)建構(gòu)的規(guī)范可有效應(yīng)對(duì)技術(shù)的不確定風(fēng)險(xiǎn)。人工智能等高新技術(shù)的發(fā)展是曲折而復(fù)雜、難以被全面把控的,以不變應(yīng)萬變的傳統(tǒng)思路未必持續(xù)有效,一種更值得提倡的態(tài)度是因勢(shì)而變、以變制變。動(dòng)態(tài)建構(gòu)的規(guī)范遵循開放的設(shè)計(jì)理念,其權(quán)宜性、可修正性能在一定程度上克服傳統(tǒng)規(guī)范相對(duì)滯后的局限,更加切合實(shí)際。笛卡爾的“權(quán)宜道德”、胡比希(Christoph Hubig)的“倫理帳篷”對(duì)此曾有過討論,可以為現(xiàn)階段的問題提供相對(duì)穩(wěn)定的倫理規(guī)范和共識(shí)。當(dāng)然,這些規(guī)范不是一經(jīng)修訂就永遠(yuǎn)不變的,我們可以根據(jù)現(xiàn)實(shí)需要對(duì)它加以與時(shí)俱進(jìn)地修正,而修正的標(biāo)準(zhǔn)就在公眾的利益訴求之中。一旦在技術(shù)使用中出現(xiàn)新的問題,公眾即可通過次級(jí)工具化在技術(shù)設(shè)計(jì)中添加新產(chǎn)生的利益訴求,使現(xiàn)實(shí)問題得到積極回應(yīng)。
其二,規(guī)范作為一種利益平衡機(jī)制可避免利益格局固化,自下而上、源源不斷地釋放沖破等級(jí)的張力,這就大大增強(qiáng)了它的可信度。在現(xiàn)有的利益格局中,一方面,政府、資本掌控者甚或技術(shù)專家等優(yōu)勢(shì)群體更有可能成為技術(shù)的既得利益者,他們的價(jià)值標(biāo)準(zhǔn)、文化元素、利益關(guān)系能更容易地滲透進(jìn)技術(shù)系統(tǒng)中而得到較為充分的滿足。而另一方面,公眾因?yàn)檫h(yuǎn)離技術(shù)系統(tǒng)而無法參與技術(shù)規(guī)范制定等過程,所以他們的價(jià)值和利益等會(huì)受到忽視、壓抑。一旦他們意識(shí)到這個(gè)事實(shí),那么技術(shù)體系內(nèi)所有的操作都會(huì)失去可信度,技術(shù)的民主化也失去了它的有效性。因此,倘若想使技術(shù)的民主化有效,那么就必須對(duì)技術(shù)設(shè)計(jì)中的資本掌控者、政府管理者、技術(shù)專家等優(yōu)勢(shì)群體與公眾的權(quán)力配比作出調(diào)整。某種程度而言,代碼的沉淀、規(guī)范的制定便是利益交鋒的過程,多元價(jià)值主體在其中對(duì)話交流,為潛在利益的實(shí)現(xiàn)提供可能,避免利益的固化,這就使得多元主體的利益趨向于達(dá)致一種動(dòng)態(tài)平衡。一方面,為了充分考慮和平衡各方利益,代碼需不斷在多元主體之間來回理解、釋義并向各主體表達(dá),如此一來,優(yōu)勢(shì)群體的操作自主性越大,作為弱勢(shì)群體的公眾顛覆內(nèi)嵌著固化利益的代碼的潛力就越大;另一方面,利益的社會(huì)歷史性決定了公眾的利益訴求會(huì)隨著社會(huì)的發(fā)展而發(fā)生變化,這就要求技術(shù)代碼對(duì)現(xiàn)實(shí)問題作出回應(yīng)。這種動(dòng)態(tài)平衡過程使得技術(shù)功能是可變的,它可以強(qiáng)化階級(jí)統(tǒng)治,也可以構(gòu)筑民主體系,這就使得技術(shù)擁有了變革的張力。
人工智能的可持續(xù)發(fā)展離不開社會(huì)的信任與支持,如何提升人工智能的可信度成為學(xué)界與業(yè)界共同關(guān)注的問題??尚湃斯ぶ悄懿粌H需要以技術(shù)安全為支撐,更以可信倫理規(guī)范為保障。然而,在現(xiàn)實(shí)的規(guī)范的制定中,名義上的公眾利益往往被優(yōu)勢(shì)群體的利益取代,背離公平、正義等應(yīng)有的價(jià)值內(nèi)涵,削弱了規(guī)范的可信性。人工智能等高新技術(shù)的不確定性風(fēng)險(xiǎn)也令可信倫理規(guī)范本身的存在遭到質(zhì)疑。芬伯格提出的技術(shù)代碼以其動(dòng)態(tài)建構(gòu)的生成方式開拓了在不確定性時(shí)代構(gòu)建新型倫理規(guī)范的新視野,以其自下而上的作用路徑從技術(shù)世界內(nèi)部尋求解放的張力,通過擴(kuò)大公眾參與避免了規(guī)范制定中利益格局的固化,為公眾潛能的釋放預(yù)留了空間,為應(yīng)對(duì)可信倫理規(guī)范建構(gòu)的挑戰(zhàn)提供了學(xué)理支持。
公眾可以從微觀與宏觀兩個(gè)不同的層面參與人工智能相關(guān)技術(shù)設(shè)計(jì)[17](121-129),進(jìn)而將代表自身利益的倫理、文化等元素嵌入技術(shù)代碼。就微觀層面而言,存在以下幾種具體途徑:第一,不同的利益群體可以通過技術(shù)論爭(zhēng)尋求盡可能滿足多元主體利益的技術(shù)方案(譬如環(huán)保運(yùn)動(dòng)中不同的利益訴求能夠?qū)棺h及政策制定起調(diào)節(jié)作用等);第二,包括技術(shù)設(shè)計(jì)者、使用者在內(nèi)的多元價(jià)值主體可以參與到技術(shù)設(shè)計(jì)的全過程,展開創(chuàng)新對(duì)話,鼓勵(lì)參與式設(shè)計(jì),加強(qiáng)彼此的溝通和交流(譬如婦女參與分娩技術(shù)的設(shè)計(jì)、艾滋病人對(duì)臨床治療方案提出建議等);第三,對(duì)技術(shù)進(jìn)行創(chuàng)造性再利用,使最初設(shè)計(jì)中未能釋放的技術(shù)潛能更多地顯現(xiàn)出來并最終實(shí)現(xiàn)。在宏觀層面上,可以嘗試技術(shù)代議制,將這些微觀層面的互動(dòng)成熟化、體系化。技術(shù)代議制是在傳統(tǒng)代議制民主的基礎(chǔ)上推演而來的,它不是選舉某個(gè)特定的人物,而是將不同利益群體提出的社會(huì)的和政治的訴求集中、整合起來并將其嵌入特定的代碼中,最終實(shí)現(xiàn)一種社會(huì)力量的平衡[17](142)。
當(dāng)然,技術(shù)代碼只是為可信倫理規(guī)范的建構(gòu)提供一種思考進(jìn)路,并不能解決所有問題。公眾的利益如何有效界定?群體利益是否不該被保護(hù)?[18](155-175)公眾具備參與技術(shù)設(shè)計(jì)的能力嗎?技術(shù)精英會(huì)主動(dòng)承擔(dān)社會(huì)責(zé)任嗎?這些問題都有待進(jìn)一步追問與回答。但有一點(diǎn)是值得向往的:斯諾筆下的“兩種文化”①參看C.P.斯諾著:《兩種文化》,陳克艱、秦小虎譯,上海科學(xué)技術(shù)出版社2003 年版。將會(huì)在全社會(huì)的共同努力下逐漸消弭,人們將從技術(shù)的束縛中解放出來,走向更加光明美好的未來。