譚九生,李 猛
(湘潭大學(xué) 公共管理學(xué)院,湖南 湘潭 411105)
“人機(jī)融合智能注重人、機(jī)、環(huán)境系統(tǒng)三者的交互作用,它既不同于人類智能也不同于機(jī)器智能,而是聯(lián)系物理系統(tǒng)和生物系統(tǒng)的新一代智能科學(xué)體系。”[1]人機(jī)融合智能充分發(fā)揮人類智慧與機(jī)器智能各自的優(yōu)勢(shì),并在兩者之間尋找一種平衡狀態(tài),讓無序的人與有序的機(jī)器結(jié)合起來,達(dá)到安全、高效、敏捷的智能融合結(jié)果。人機(jī)融合智能帶來生活的便利和享受,也帶來了行為模式、生活理念的深刻影響和改變,但科技越是高歌猛進(jìn),越應(yīng)思考倫理風(fēng)險(xiǎn)問題。學(xué)界對(duì)人機(jī)融合智能倫理風(fēng)險(xiǎn)的研究分為宏觀和微觀兩個(gè)層次。有些學(xué)者從宏觀層面上認(rèn)為倫理風(fēng)險(xiǎn)是未來人機(jī)融合研究的重點(diǎn)[2],從設(shè)計(jì)層面防范人機(jī)融合倫理風(fēng)險(xiǎn)[3]。有的學(xué)者從微觀視角剖析人機(jī)融合中認(rèn)知不一致和責(zé)任歸屬問題[4]、人機(jī)融合人工智能會(huì)分享人的主體地位[5]、人機(jī)融合后人類會(huì)嚴(yán)重依賴機(jī)器[6]。從已有研究來看,有關(guān)人機(jī)融合智能倫理風(fēng)險(xiǎn)的研究不斷拓展,為治理人機(jī)融合倫理風(fēng)險(xiǎn)奠定了基礎(chǔ),但仍有值得商榷之處:一是現(xiàn)有對(duì)人機(jī)融合智能倫理風(fēng)險(xiǎn)的研究仍然遵循以往人工智能倫理風(fēng)險(xiǎn)的傳統(tǒng)路徑,并未針對(duì)人機(jī)融合智能的特殊性進(jìn)行闡釋;二是人機(jī)融合智能倫理風(fēng)險(xiǎn)的治理措施缺乏彈性,未根據(jù)人—機(jī)—環(huán)境三者關(guān)系提出建議,適應(yīng)性治理缺位。本文聚焦于人機(jī)融合智能倫理風(fēng)險(xiǎn)樣態(tài),追溯倫理風(fēng)險(xiǎn)生成的機(jī)理,以適應(yīng)性治理為理論基礎(chǔ),探索人機(jī)融合智能倫理風(fēng)險(xiǎn)治理的實(shí)踐路徑。
人機(jī)融合智能充分利用人的智慧和機(jī)器智能,為當(dāng)前的治理難點(diǎn)、痛點(diǎn)、堵點(diǎn)問題提供了創(chuàng)新的解決方案。然而,人機(jī)融合智能非但沒有得到道德倫理的擁護(hù),反而其自身的合理性和合法性遭到了公眾的質(zhì)疑和批評(píng)。人機(jī)融合智能得不到公眾信任的原因主要在于其蘊(yùn)含著巨大的倫理風(fēng)險(xiǎn)。
安全是指沒有危險(xiǎn)、不受威脅、不出事故。安全和風(fēng)險(xiǎn)是對(duì)立統(tǒng)一的關(guān)系,風(fēng)險(xiǎn)是可能的危害,安全是可以接受的危險(xiǎn),可見安全一詞具有相對(duì)性。根據(jù)人機(jī)融合智能的影響面,可以將安全風(fēng)險(xiǎn)劃分為個(gè)體安全風(fēng)險(xiǎn)和國(guó)家安全風(fēng)險(xiǎn)。人機(jī)融合智能應(yīng)用危害人的生理系統(tǒng),這是最直接和最現(xiàn)實(shí)的問題。作為人機(jī)融合智能應(yīng)用的典范——無人駕駛汽車,其設(shè)計(jì)的初衷是讓人類從煩悶的駕駛中解脫出來,將更多的精力轉(zhuǎn)向休閑娛樂活動(dòng),但近年來無人駕駛汽車交通事故頻發(fā),嚴(yán)重?fù)p害人的身體健康。例如,2021年特斯拉女車主車頂維權(quán)事件,此次交通事故造成車主父親輕微腦震蕩,母親身上出現(xiàn)多處軟組織損傷。腦機(jī)接口技術(shù)是人機(jī)融合智能的關(guān)鍵技術(shù),它是“通過植入電極、利用腦電、腦磁等技術(shù),采集人類進(jìn)行認(rèn)知活動(dòng)時(shí)腦電信號(hào),利用這種信號(hào)來指導(dǎo)外部設(shè)備工作。”[7]腦機(jī)接口技術(shù)能夠幫助有交流障礙的人,收集腦電信號(hào)完成語言的輸入,與其他人進(jìn)行交流。但使用腦機(jī)接口技術(shù),人體可能會(huì)產(chǎn)生排異反應(yīng),對(duì)大腦組織造成局部創(chuàng)傷。當(dāng)人的安全問題無法在現(xiàn)有的社會(huì)框架下妥善解決,人的安全風(fēng)險(xiǎn)便會(huì)升級(jí)為國(guó)家安全風(fēng)險(xiǎn)。在評(píng)估一國(guó)綜合國(guó)力中科學(xué)技術(shù)發(fā)展水平是重要組成部分,技術(shù)本該是維護(hù)國(guó)家安全的重要工具,但技術(shù)的深入嵌入也會(huì)催生一種國(guó)家安全悖論,即人機(jī)融合智能不僅對(duì)國(guó)家安全具有極強(qiáng)的“破壁效應(yīng)”,而且技術(shù)的應(yīng)用可能超出預(yù)期的設(shè)想。國(guó)家傳統(tǒng)安全討論的首要議題是軍事安全和戰(zhàn)略平衡,人機(jī)融合智能在軍事上的應(yīng)用將會(huì)打破國(guó)家間力量的對(duì)比,加劇國(guó)家間軍事競(jìng)爭(zhēng)。軍事領(lǐng)域中引入人機(jī)融合智能具有不確定性,智能技術(shù)嵌入軍事戰(zhàn)場(chǎng),超出傳統(tǒng)軍事行動(dòng)的范圍,非常規(guī)的軍事行動(dòng)使戰(zhàn)爭(zhēng)與沖突的界限模糊?,F(xiàn)有的全球軍事協(xié)議并未將人機(jī)融合智能包括在內(nèi),各方也未對(duì)這一議題形成共識(shí),全球規(guī)制的缺失導(dǎo)致人機(jī)融合智能軍事應(yīng)用的無序競(jìng)爭(zhēng)[8]。
隱私一般指?jìng)€(gè)人免于被打擾和干預(yù)的權(quán)利。人機(jī)融合智能對(duì)數(shù)據(jù)的收集和使用涉及大量的隱私問題,其全面而詳細(xì)的記錄隱私,存在隱私泄露的風(fēng)險(xiǎn)。當(dāng)隱私暴露在他人面前時(shí),個(gè)體性及其權(quán)利就可能受到威脅。
1.人機(jī)融合技術(shù)本身帶來隱私風(fēng)險(xiǎn)。得益于深度學(xué)習(xí)等多項(xiàng)前沿技術(shù)的突破,自然語言處理取得了快速發(fā)展,機(jī)器已經(jīng)可以判別句子中存在的情感。人機(jī)交流中原始語言通過模型轉(zhuǎn)化為機(jī)器能夠理解的通用語言,文本的特征在傳輸過程中容易被人獲取,或者緩存在云端,服務(wù)方通過分析文本特征以竊取用戶的隱私信息[9]。人類無法掌握自己的隱私,自己的私人信息甚至被實(shí)時(shí)監(jiān)控,個(gè)人隱私可能會(huì)陷入“圓形監(jiān)獄”的困境,每個(gè)人都成為“透明人”。
2.應(yīng)用帶來的隱私風(fēng)險(xiǎn)。人工智能的研發(fā)和應(yīng)用中,服務(wù)方根據(jù)用戶協(xié)議獲取消費(fèi)者的瀏覽記錄和位置信息,通過數(shù)據(jù)挖掘技術(shù)從繁雜和模糊的數(shù)據(jù)中,分析用戶的消費(fèi)偏好,個(gè)性化推送商品,誘導(dǎo)用戶購(gòu)物,增加消費(fèi)的額外需求。例如,智能廣告的出現(xiàn)潛移默化地改變了人的主觀選擇,智能算法依據(jù)深度學(xué)習(xí)提取有用的數(shù)據(jù),對(duì)用戶進(jìn)行“精準(zhǔn)畫像”,定向推送信息,甚至比用戶更加了解他們自己。不法分子通過非正當(dāng)手段獲取用戶數(shù)據(jù),利用深度偽造技術(shù)實(shí)現(xiàn)對(duì)圖像、視頻的修改,達(dá)到虛假信息的“以假亂真”,對(duì)用戶進(jìn)行精準(zhǔn)詐騙。機(jī)器憑借它的高效和價(jià)值中取得人們的信任,倘若智能技術(shù)不再安全,人們便不再信任它,人機(jī)間關(guān)系將逐漸惡化。
公平意味著人們享有平等的發(fā)展權(quán)利。人機(jī)融合智能的應(yīng)用可能產(chǎn)生強(qiáng)權(quán)異化效應(yīng),嚴(yán)重影響社會(huì)發(fā)展的均衡性和公平性。智能機(jī)器高效地提供公共服務(wù),卻不能公平分配服務(wù)。一方面加劇了勞動(dòng)的分化。智能機(jī)器可以替代簡(jiǎn)單勞動(dòng)的從業(yè)者,造成一定規(guī)模的失業(yè),產(chǎn)生一批“無用階層”。復(fù)雜勞動(dòng)的工作也正逐漸地被機(jī)器取代,甚至需具備創(chuàng)造性思維的工作也將被機(jī)器所代替。人機(jī)融合中與機(jī)器合作的人須是經(jīng)過專業(yè)訓(xùn)練的人,于是形成了就業(yè)的技術(shù)性壁壘。智能技術(shù)將社會(huì)財(cái)富聚集到少數(shù)技術(shù)精英手中,導(dǎo)致收入分配的不均衡,教育程度低的人在收入分配資源中處于劣勢(shì)地位。因使用成本和機(jī)會(huì)不均等,導(dǎo)致“數(shù)字鴻溝”和“發(fā)展鴻溝”擴(kuò)大,構(gòu)成了新的就業(yè)不平等,引發(fā)激烈的社會(huì)矛盾。另一方面引發(fā)社會(huì)階層的分化。隨著腦機(jī)接口技術(shù)的成熟,個(gè)體的認(rèn)知能力隨著技術(shù)的應(yīng)用而顯示出明著的變化,所帶來的不公平問題凸顯。腦機(jī)接口技術(shù)由于種種限制,只有少數(shù)人能夠使用,造成人的認(rèn)知能力不平等,影響個(gè)人收入和社會(huì)地位,在個(gè)人權(quán)利方面顯示出明顯的差異。這些不平等還會(huì)傳遞到下一代身上,影響孩子的身體素質(zhì)以及認(rèn)知水平,貧富階層間形成一道隱形的鴻溝。算法顯示出創(chuàng)造者和使用者的價(jià)值偏好,機(jī)器會(huì)逐漸習(xí)得人類決策在年齡和性別上的偏見。例如,2015年,芝加哥法院使用的一個(gè)犯罪風(fēng)險(xiǎn)評(píng)估算法COMPAS,被證明對(duì)黑人造成了系統(tǒng)性歧視。算法歧視對(duì)于社會(huì)弱勢(shì)群體產(chǎn)生嚴(yán)重負(fù)面后果,對(duì)于人的不公平,進(jìn)而加劇社會(huì)階層的分化,破壞社會(huì)的公平正義。
責(zé)任意味著對(duì)自己行為承擔(dān)后果。人與機(jī)器之間的合作是社會(huì)治理智慧化的表現(xiàn),其中責(zé)任歸屬問題十分重要,但集體行為的特性使得責(zé)任很難區(qū)分[10]。人類在與機(jī)器的接駁中逐步替代了傳統(tǒng)的人際關(guān)系,機(jī)器的自主性導(dǎo)致責(zé)任主體不明,沖擊現(xiàn)有的責(zé)任體系。
1.人機(jī)融合智能技術(shù)設(shè)計(jì)中的責(zé)任失當(dāng)。在傳統(tǒng)的責(zé)任倫理中,設(shè)計(jì)者是清晰的責(zé)任倫理主體,現(xiàn)代機(jī)器復(fù)雜的內(nèi)部結(jié)構(gòu)且算法設(shè)計(jì)的系統(tǒng)性特征,設(shè)計(jì)者之間產(chǎn)生利益的糾纏,使得責(zé)任邊界難以確定。傳統(tǒng)責(zé)任倫理偏好事后的規(guī)范,當(dāng)決策失誤時(shí),決策者權(quán)利—責(zé)任關(guān)系十分明晰。在人與機(jī)器共生的關(guān)系中,決策者與機(jī)器的責(zé)任限度成為難題。當(dāng)人與機(jī)器面臨決策倫理困境時(shí),是機(jī)器提供的數(shù)據(jù)和信息影響了人的判斷,還是作為決策者主觀選擇性機(jī)器所提供的資料而導(dǎo)致的最終結(jié)果,責(zé)任限度如何才能準(zhǔn)確厘清?
2.人機(jī)融合智能應(yīng)用中的責(zé)任歸屬困難。無人駕駛有別于傳統(tǒng)的人車關(guān)系,打破傳統(tǒng)責(zé)任倫理規(guī)則,導(dǎo)致責(zé)任認(rèn)定和劃分的難度大增。交通規(guī)則的違背是傳統(tǒng)交通事故責(zé)任評(píng)判的關(guān)鍵標(biāo)準(zhǔn),當(dāng)無人駕駛汽車發(fā)生交通事故時(shí),人和汽車是誰違反了交通規(guī)則,傳統(tǒng)評(píng)判標(biāo)準(zhǔn)不適用于無人駕駛。軍事智能在戰(zhàn)場(chǎng)上逐漸應(yīng)用,無人作戰(zhàn)成為軍事熱點(diǎn)。機(jī)器作戰(zhàn)存在失控的潛在風(fēng)險(xiǎn),戰(zhàn)爭(zhēng)正義問題受到懷疑,軍事智能責(zé)任邊界如何確定?戰(zhàn)爭(zhēng)機(jī)器犯下罪行,機(jī)器和軍人各承擔(dān)怎樣的責(zé)任,軍人如何展現(xiàn)自身的價(jià)值和存在感?“軍事智能一定程度上造成責(zé)任的規(guī)避與轉(zhuǎn)嫁,削弱軍人職業(yè)的社會(huì)認(rèn)可和道德價(jià)值?!盵11]
人機(jī)融合智能發(fā)展到今,產(chǎn)生了各種負(fù)面影響,其消極面引起了學(xué)界的關(guān)注,同時(shí)普羅大眾面對(duì)威脅產(chǎn)生了恐慌。正視人機(jī)融合智能帶來的倫理風(fēng)險(xiǎn)并且究其根源,才能促使其良性發(fā)展,推進(jìn)治理能力和治理體系的現(xiàn)代化。
智能機(jī)器的決策依賴于數(shù)據(jù)和算法,數(shù)據(jù)決定決策所能抵達(dá)的深度,算法決定計(jì)算得到的最優(yōu)解。在機(jī)器自主學(xué)習(xí)技術(shù)架構(gòu)下,大數(shù)據(jù)與算法的不確定性容易產(chǎn)生倫理風(fēng)險(xiǎn)。
1.數(shù)據(jù)的不確定性。數(shù)據(jù)是人工智能的血液,智能機(jī)器從繁雜的數(shù)據(jù)中尋找規(guī)律,從而進(jìn)行科學(xué)的決策。數(shù)據(jù)本質(zhì)上是價(jià)值觀的縮影和映射,容易產(chǎn)生社會(huì)偏見。數(shù)據(jù)本身的代表性對(duì)機(jī)器決策的科學(xué)化具有保障作用,現(xiàn)實(shí)中有意選擇數(shù)據(jù),簡(jiǎn)化數(shù)據(jù)關(guān)系,增加了機(jī)器決策的不確定性。機(jī)器數(shù)據(jù)的設(shè)計(jì)開始于訓(xùn)練數(shù)據(jù)的選擇,這是產(chǎn)生不公平的第一個(gè)環(huán)節(jié)。智能機(jī)器利用數(shù)據(jù)不斷進(jìn)行學(xué)習(xí)訓(xùn)練,選擇的數(shù)據(jù)不同,智能系統(tǒng)的偏好也會(huì)不同。如果不能確保數(shù)據(jù)的“代表性”,種族主義和性別歧視可能會(huì)偷偷溜進(jìn)機(jī)器決策之中。智能系統(tǒng)從繁雜的數(shù)據(jù)中尋找相關(guān)關(guān)系,替代了傳統(tǒng)的因果關(guān)系。相關(guān)關(guān)系替代因果關(guān)系是對(duì)問題的簡(jiǎn)單化,相關(guān)關(guān)系強(qiáng)調(diào)的是一種概率預(yù)測(cè),這樣得出的研究成果和決策活動(dòng)與社會(huì)事實(shí)很難精準(zhǔn)吻合。
2.算法的不確定性。算法是“上帝之眼”,算法自身的不確定性易形成“算法黑箱”和“算法歧視”,威脅公民人身自由和生命財(cái)產(chǎn)安全。算法就像一個(gè)“黑箱”,輸入的數(shù)據(jù)和輸出的結(jié)果,存在公眾難以解釋的“隱層”,用戶甚至開發(fā)者難以洞悉其因果關(guān)系?!昂谙涞牟煌该餍约半y以解釋,極易引發(fā)社會(huì)公眾對(duì)決策合理性的擔(dān)憂,從而引發(fā)政府的信任危機(jī)?!盵12]以對(duì)社會(huì)弱勢(shì)群體的歧視為例,低收入家庭申請(qǐng)住房貸款時(shí),可能被智能算法認(rèn)定存在較高的違約概率,拒絕向貧困家庭提供貸款。弱勢(shì)群體本應(yīng)受到政府更多的關(guān)懷,但算法“算計(jì)”社會(huì)弱勢(shì)群體,不能得到政府救助,威脅國(guó)家政治的民主。
人機(jī)融合智能的發(fā)展尚處于初級(jí)階段,人與智能機(jī)器是主客體關(guān)系,智能機(jī)器尚未具有自覺性,不能成為獨(dú)立的主體?!叭恕痹趥惱硎Х冬F(xiàn)象中屬于主要因素,剖析倫理風(fēng)險(xiǎn)中“人”的因素需要從創(chuàng)新主體和使用主體入手。一方面責(zé)任倫理失范?,F(xiàn)代社會(huì)科技文明高度發(fā)達(dá),人對(duì)工具理性的過度崇拜使在某種程度上使人喪失了自身的主體地位。
1.技術(shù)創(chuàng)新主體責(zé)任倫理失范。責(zé)任倫理是是個(gè)人、集體對(duì)其行為負(fù)責(zé)進(jìn)而采取行動(dòng)的規(guī)則。技術(shù)創(chuàng)新主體容易受到政治的影響,為了迎合政治和經(jīng)濟(jì)利益,做出不正確決策,違背責(zé)任倫理的規(guī)范,將會(huì)產(chǎn)生災(zāi)難性后果。倫理風(fēng)險(xiǎn)的產(chǎn)生不僅要?dú)w咎于技術(shù)設(shè)計(jì)者,技術(shù)的使用者也有著不可推卸的責(zé)任。人工智能因其自身的不確定性,嵌入到政府治理中來會(huì)產(chǎn)生歧視現(xiàn)象,使用主體若絕對(duì)信任智能機(jī)器,完全依賴機(jī)器做出的決策,將逐漸被智能技術(shù)奴役,最終喪失人的主體性地位。
2.責(zé)任角色失準(zhǔn)。人機(jī)融合智能本身的專業(yè)性、系統(tǒng)性特征決定了不可能像過去那樣由一個(gè)或幾個(gè)獨(dú)立的人完成,相反需要更多的人團(tuán)隊(duì)分工合作來創(chuàng)新,個(gè)體的行為活動(dòng)與整體科技活動(dòng)的現(xiàn)代化交織在一起,每個(gè)人都是人機(jī)融合智能活動(dòng)鏈條的某個(gè)環(huán)節(jié)。于是每個(gè)人都應(yīng)該對(duì)結(jié)果負(fù)責(zé),但每個(gè)人又不需要負(fù)責(zé)。責(zé)任被分?jǐn)偟蕉鄠€(gè)主體,使得責(zé)任歸屬愈加復(fù)雜,責(zé)任倫理主體難以定位。社會(huì)歷史條件的有限性,人類獲得的知識(shí)受到所屬時(shí)代條件的限制。智能機(jī)器一方的高速發(fā)展,人類一方在特定階段認(rèn)知能力有限,人類無法感知倫理風(fēng)險(xiǎn)及預(yù)測(cè)風(fēng)險(xiǎn)發(fā)生的概率。與此同時(shí),倫理風(fēng)險(xiǎn)具有隱蔽性和未來性等特點(diǎn),導(dǎo)致倫理風(fēng)險(xiǎn)的擴(kuò)散超出人類認(rèn)知范圍,風(fēng)險(xiǎn)主體披上了“隱性斗篷”,人類無法確定直接的責(zé)任主體。
科學(xué)技術(shù)猛烈沖擊著人類社會(huì),科學(xué)理應(yīng)使得世界的可預(yù)測(cè)性增強(qiáng),但卻帶來了新的不確定性,社會(huì)中倫理關(guān)系失衡現(xiàn)象涌現(xiàn),風(fēng)險(xiǎn)社會(huì)悄然來臨。人機(jī)融合智能倫理風(fēng)險(xiǎn)生成在風(fēng)險(xiǎn)社會(huì)的環(huán)境中,傳統(tǒng)倫理規(guī)范與現(xiàn)代倫理風(fēng)險(xiǎn)之間的張力,致使倫理風(fēng)險(xiǎn)在全球擴(kuò)展。
1.“昨天”的風(fēng)俗規(guī)范失效。古老的風(fēng)俗有著悠久的歷史,風(fēng)俗形成之后便擁有相對(duì)的穩(wěn)定性。傳統(tǒng)倫理規(guī)范面對(duì)高速發(fā)展的人機(jī)融合智能,顯示出明顯的滯后性。人機(jī)融合智能的工具理性與風(fēng)俗的價(jià)值理性兩者摩擦強(qiáng)烈,風(fēng)俗的價(jià)值調(diào)節(jié)作用在人機(jī)融合的技術(shù)權(quán)威面前處于劣勢(shì),傳統(tǒng)倫理規(guī)范技術(shù)威脅無能為力,處處退讓。價(jià)值本身不會(huì)改變,傳統(tǒng)風(fēng)俗并沒有消失,只是對(duì)現(xiàn)代社會(huì)失去了規(guī)范作用,它們有屬于自己的時(shí)代。
2.“明天”的倫理規(guī)范尚未建立。傳統(tǒng)倫理規(guī)范失效,新的倫理規(guī)范尚未建立,導(dǎo)致倫理風(fēng)險(xiǎn)頻發(fā)。人機(jī)融合技術(shù)具有內(nèi)在的不確定性,衍生出的倫理風(fēng)險(xiǎn)具有高度隱蔽性、不可預(yù)測(cè)性、極端危害性等錯(cuò)綜復(fù)雜的特征。從時(shí)間范圍上看,不僅影響當(dāng)代人的發(fā)展,而且也會(huì)對(duì)未來子孫后代產(chǎn)生危害。從空間范圍來看,人機(jī)融合引發(fā)的倫理風(fēng)險(xiǎn)跨越了國(guó)界,以隱私泄露為例,日本、中國(guó)、美國(guó)、英國(guó)均爆發(fā)出用戶隱私泄露的事件?,F(xiàn)代倫理風(fēng)險(xiǎn)的規(guī)范是全球性問題,必須以全人類這個(gè)整體來構(gòu)建倫理規(guī)范,倫理責(zé)任歸因而應(yīng)具有前瞻性,呈現(xiàn)超個(gè)體性特征。實(shí)際上,傳統(tǒng)倫理規(guī)范以個(gè)體為中心,認(rèn)為個(gè)體才能承擔(dān)倫理責(zé)任,倫理責(zé)任歸因呈現(xiàn)個(gè)體特征,缺乏整體性的倫理規(guī)范。
人機(jī)融合智能倫理風(fēng)險(xiǎn)的治理并沒有一勞永逸的方案,只能折衷權(quán)衡。折衷權(quán)衡本質(zhì)是適應(yīng)性治理,治理風(fēng)險(xiǎn)的理想形態(tài)無法預(yù)想,只能根據(jù)治理情境的變化不斷調(diào)整。適應(yīng)性治理是在適應(yīng)性管理和適應(yīng)性共管基礎(chǔ)上的理論升華,其首先應(yīng)用于復(fù)雜社會(huì)—生態(tài)系統(tǒng)的管理。2003年迪茨(Dietz)等學(xué)者在《科學(xué)》期刊上首次提出適應(yīng)性治理一詞[13]。經(jīng)過奧斯特羅姆(Ostrom)和福爾柯(Folke)等學(xué)者的發(fā)展,起初應(yīng)用于環(huán)境管理領(lǐng)域的理論被引入到公共事務(wù)治理領(lǐng)域,原因是公共事務(wù)和社會(huì)—生態(tài)系統(tǒng)在很多方面高度相似。
適應(yīng)性治理的核心要義包括情境特征制約著治理主體行為的選擇。行動(dòng)受到情境的影響,要求行動(dòng)與情境的“恰當(dāng)性”匹配[14];制度是彈性治理再生產(chǎn)的結(jié)構(gòu)性條件;彈性是事物運(yùn)動(dòng)但不變的本質(zhì)[15];制度是行動(dòng)的結(jié)果也是運(yùn)行的中介[16],彈性治理離不開制度的作用。適應(yīng)性治理的關(guān)鍵是“干中學(xué)(Learning by Doing)”。干中學(xué)是在實(shí)踐中學(xué)習(xí),它是一種集成式的差異化知識(shí)系統(tǒng)(Synthesis of Different Knowledge Systems)。適應(yīng)性治理強(qiáng)調(diào)地方知識(shí)和各類專業(yè)知識(shí)的汲取,這樣外部的知識(shí)就可以快速進(jìn)入治理系統(tǒng),推動(dòng)因地制宜的實(shí)現(xiàn)[17]和自組織的多中心治理。奧斯特羅姆在“公共池塘資源管理”研究中提出“自組織(Self-organizations)”,是在市場(chǎng)化和政府管理之外的第三途徑[18]。自組織要求各利益相關(guān)者共同參與公共資源管理,強(qiáng)調(diào)多元利益主體和以其作為中心節(jié)點(diǎn)的互動(dòng)關(guān)系。
1.情境治理滿足技術(shù)的持續(xù)創(chuàng)新。智能機(jī)器發(fā)展到一定階段,機(jī)器逐漸具有自主性,倫理風(fēng)險(xiǎn)治理需要針對(duì)“機(jī)器”和“人”兩大主體展開。隨著技術(shù)創(chuàng)新“具身性”被改變。人機(jī)融合倫理風(fēng)險(xiǎn)的治理不僅包括“肉體”還包括“機(jī)體”,增加了治理的難度。適應(yīng)性治理要求治理行動(dòng)與情境相匹配,治理主體根據(jù)技術(shù)發(fā)展階段,依據(jù)技術(shù)環(huán)境的特征,因地制宜地采取行動(dòng)。適應(yīng)性治理顯現(xiàn)出應(yīng)對(duì)不確定性的能力,使得治理制度與倫理風(fēng)險(xiǎn)的治理情境和治理目標(biāo)之間保持足夠的靈活性,有效預(yù)防和應(yīng)對(duì)人機(jī)融合智能創(chuàng)新導(dǎo)致的倫理風(fēng)險(xiǎn)變化。
2.學(xué)習(xí)型治理應(yīng)對(duì)倫理風(fēng)險(xiǎn)的復(fù)雜性。技術(shù)倫理風(fēng)險(xiǎn)呈現(xiàn)高度隱蔽性、不可預(yù)測(cè)性、極端危害性等錯(cuò)綜復(fù)雜的特征。在空間上,現(xiàn)代社會(huì)是全球化的社會(huì),風(fēng)險(xiǎn)自由地在世界各地暢通無阻,隱藏在我們生活的每個(gè)角落。在時(shí)間上,倫理風(fēng)險(xiǎn)具有代際特征,當(dāng)代人和未來子孫后代均受倫理風(fēng)險(xiǎn)的影響。適應(yīng)性治理在深入觀察和識(shí)別的基礎(chǔ)上,主張通過動(dòng)態(tài)調(diào)節(jié)和適應(yīng)性學(xué)習(xí),增強(qiáng)治理效能。治理主體在變化的環(huán)境中,不斷總結(jié)實(shí)踐經(jīng)驗(yàn),通過科學(xué)的管理程序,實(shí)現(xiàn)政府治理的持續(xù)創(chuàng)新,持續(xù)提升治理水平。
3.協(xié)同治理調(diào)節(jié)參與主體的廣泛性。人機(jī)融合智能的廣泛應(yīng)用,政府不再獨(dú)享決策權(quán)威,技術(shù)開始賦能社團(tuán)、公眾、企業(yè),他們發(fā)揮各自優(yōu)勢(shì)自發(fā)組成決策聯(lián)盟,影響政府決策。多元利益相關(guān)者呈現(xiàn)顯著的利益差異,他們互相博弈,導(dǎo)致矛盾突出。從治理系統(tǒng)的角度看,需要改變以往單一的模式,轉(zhuǎn)而發(fā)揮服務(wù)、組織和引導(dǎo)的功能,“形成一種彈性、分層和尊重地方知識(shí)的適應(yīng)性治理模式?!盵19]適應(yīng)性治理注重政府、市場(chǎng)和社會(huì)等利益相關(guān)者的多元互動(dòng),從而趨向高效、公平、合理的多元協(xié)同治理。
4.彈性治理適應(yīng)風(fēng)險(xiǎn)社會(huì)的來臨。風(fēng)險(xiǎn)社會(huì)的明顯特征是未來決定現(xiàn)在,需要考慮今天對(duì)明天的影響?,F(xiàn)代社會(huì)的系統(tǒng)性功能,孕育了倫理風(fēng)險(xiǎn)的系統(tǒng)性。適應(yīng)性治理的“彈性”是指社會(huì)需求和倫理風(fēng)險(xiǎn)的動(dòng)態(tài)演變中,反復(fù)不斷地彈性調(diào)整,賦予治理制度足夠的彈性空間和彈性功能,有效應(yīng)對(duì)治理中各種復(fù)雜和突發(fā)狀況。彈性化的治理要求具有“恰當(dāng)性”的制度,管理體制要具有足夠的韌性和靈活性,以解決“公地的悲劇”的難題,以制度彈性契合風(fēng)險(xiǎn)社會(huì)治理體系的內(nèi)在要求。
2003年,德國(guó)學(xué)者Tomas Hallstr首次提出“負(fù)責(zé)任創(chuàng)新(Responsible Research and Innovation, RRI)”概念,他認(rèn)為應(yīng)在更寬泛、更普遍的技術(shù)發(fā)展背景下建立“負(fù)責(zé)任創(chuàng)新”的一般框架,對(duì)系統(tǒng)創(chuàng)新進(jìn)行技術(shù)和管理的風(fēng)險(xiǎn)評(píng)估[20]。負(fù)責(zé)任創(chuàng)新要求在科技創(chuàng)新活動(dòng)中加入社會(huì)倫理因素的影響,它為新興科技的發(fā)展提供了具有實(shí)踐效力的倫理框架。人機(jī)融合智能需要持續(xù)創(chuàng)新,但要以負(fù)責(zé)任的態(tài)度保障技術(shù)安全,消除機(jī)器自身的不確定性,規(guī)范人機(jī)融合智能的發(fā)展。
1.加快人機(jī)融合智能技術(shù)的突圍。政府應(yīng)強(qiáng)調(diào)人機(jī)融合智能的戰(zhàn)略性發(fā)展,加快人機(jī)融合智能關(guān)鍵技術(shù)上的突圍,加大互聯(lián)網(wǎng)、大數(shù)據(jù)、硬件裝備等基礎(chǔ)設(shè)施的投入,鞏固人機(jī)融合智能的發(fā)展基礎(chǔ)。社會(huì)各界應(yīng)加大人機(jī)融合智能領(lǐng)域引才和人才培養(yǎng)力度,警惕可能帶來的就業(yè)風(fēng)險(xiǎn),并且關(guān)注人機(jī)融合智能關(guān)鍵安全領(lǐng)域的發(fā)展。例如,增強(qiáng)算法的透明性、注重?cái)?shù)據(jù)的代表性、促進(jìn)人機(jī)相互理解等。最后打破技術(shù)精英壟斷,推進(jìn)政府?dāng)?shù)據(jù)、企業(yè)數(shù)據(jù)開放共享、避免數(shù)據(jù)泄露、保護(hù)個(gè)人隱私。
2.人機(jī)融合智能的情境治理。人機(jī)融合智能的持續(xù)創(chuàng)新增加了技術(shù)的復(fù)雜性,給公共管理者的治理帶來了難題。情景性治理人機(jī)融合智能倫理風(fēng)險(xiǎn),意味著政府在可預(yù)見的技術(shù)發(fā)展的后果下,政府有意采取必要措施預(yù)防科技的負(fù)作用。從戰(zhàn)略的高度審視人機(jī)融合智能的發(fā)展,在遵循客觀規(guī)律的基礎(chǔ)上,考慮技術(shù)的未來狀況,更好地規(guī)范智能技術(shù)的發(fā)展。情境性治理要求政府立足于實(shí)踐,“超越一般哲學(xué)停留于科學(xué)認(rèn)識(shí)論、抽象人性論的局限,表現(xiàn)出深入到資本統(tǒng)治與技術(shù)控制的歷史深度的批判性優(yōu)勢(shì)?!盵21]政府既要采取一般性的倫理規(guī)范,又要通過對(duì)人機(jī)融合智能風(fēng)險(xiǎn)的防備,要建立一種面向未來又約束現(xiàn)代、以人為本的,可持續(xù)發(fā)展的倫理觀。
在保持總體的位置形狀不變[10]情況下,開運(yùn)算能夠去除孤立的小點(diǎn)、小橋和毛刺,可以利用開運(yùn)算的作用來避免眼睛與睫毛或眼角陰影粘連,使表征人眼瞳孔的連通域能夠更好地獨(dú)立出來。處理效果如圖7所示。
3.完善人機(jī)融合智能的風(fēng)險(xiǎn)評(píng)估機(jī)制。政府對(duì)短期顯現(xiàn)的“利益攸關(guān)”風(fēng)險(xiǎn)關(guān)注較多,長(zhǎng)期潛在風(fēng)險(xiǎn)的關(guān)注處于薄弱環(huán)節(jié),完善風(fēng)險(xiǎn)評(píng)估的機(jī)制迫在眉睫。一方面,對(duì)產(chǎn)品的研發(fā)到使用做到全流程監(jiān)管。在技術(shù)設(shè)計(jì)階段中,應(yīng)明確技術(shù)研發(fā)的邊界,對(duì)于不確定性的技術(shù)應(yīng)全面禁止,預(yù)測(cè)各項(xiàng)技術(shù)錯(cuò)誤發(fā)生的概率。例如,算法程序上做出合乎道德倫理的設(shè)計(jì),并且反復(fù)試驗(yàn)。在技術(shù)應(yīng)用階段中,重視公眾的風(fēng)險(xiǎn)感知,重點(diǎn)考慮使用主體的心理、感知和需求,理解使用者對(duì)人機(jī)融合智能風(fēng)險(xiǎn)的認(rèn)知。另一方面,創(chuàng)新風(fēng)險(xiǎn)評(píng)估模式。堅(jiān)持技術(shù)專家、社會(huì)專家、人民群眾“三結(jié)合”的評(píng)估主體,強(qiáng)調(diào)定性和定量相結(jié)合的評(píng)估方法,評(píng)估內(nèi)容上注重以人為本并結(jié)合實(shí)際,以風(fēng)險(xiǎn)信息的雙向流動(dòng)為基礎(chǔ),形成專家與公眾認(rèn)知統(tǒng)一的評(píng)估過程[22],最終形成以“預(yù)警安全”為核心的風(fēng)險(xiǎn)防控模型,建立風(fēng)險(xiǎn)識(shí)別、監(jiān)測(cè)、預(yù)警、決策和反饋的風(fēng)險(xiǎn)防控機(jī)制,達(dá)到能夠識(shí)別風(fēng)險(xiǎn),判斷風(fēng)險(xiǎn)多大,通過什么手段防控的目的。
人機(jī)融合智能的倫理風(fēng)險(xiǎn)的產(chǎn)生,既有自身不確定性和復(fù)雜性的客觀因素,同時(shí)也有活動(dòng)主體心理上對(duì)技術(shù)負(fù)效應(yīng)的預(yù)測(cè)和判斷。參與主體的主觀判斷影響技術(shù)活動(dòng)和倫理風(fēng)險(xiǎn)的道德選擇,也關(guān)系到對(duì)倫理風(fēng)險(xiǎn)的應(yīng)對(duì),提高參與主體責(zé)任意識(shí)和風(fēng)險(xiǎn)感知能力是規(guī)避倫理風(fēng)險(xiǎn)的關(guān)鍵因素。
1.提升設(shè)計(jì)主體的責(zé)任意識(shí)。技術(shù)的設(shè)計(jì)者在技術(shù)發(fā)展過程中處于核心地位,即使道德責(zé)任難以追究,他們?nèi)匀灰袚?dān)責(zé)任。設(shè)計(jì)主體的自我良知使他們對(duì)從事的科技活動(dòng)的善惡性質(zhì)有明確的意識(shí),能夠分辨出什么能做,什么不能做,從而劃定技術(shù)研發(fā)的邊界。當(dāng)研發(fā)人員在個(gè)人利益與國(guó)家利益發(fā)生沖突時(shí),如何選擇是困難的事情,在矛盾沖突中法律的規(guī)制作用滯后,自覺的責(zé)任意識(shí)監(jiān)管顯示前瞻性。技術(shù)設(shè)計(jì)主體在道德認(rèn)知、道德自律、責(zé)任意識(shí)及道德實(shí)踐等方面的自我完善和自我提升對(duì)于倫理風(fēng)險(xiǎn)的規(guī)避有著重大的現(xiàn)實(shí)意義[23]。設(shè)計(jì)主體需要本著負(fù)責(zé)任的原則去研究人機(jī)融合智能,內(nèi)化為自身的道德自律,嚴(yán)謹(jǐn)對(duì)待研究對(duì)象的選擇與研究方法的使用,公開研究的全過程,隨時(shí)接受監(jiān)督。
2.提升公眾對(duì)風(fēng)險(xiǎn)的感知能力。公眾對(duì)人機(jī)融合技術(shù)產(chǎn)生恐慌,原因在于公眾對(duì)倫理風(fēng)險(xiǎn)認(rèn)知較少甚至存在盲區(qū)。因此,必須提升公眾對(duì)風(fēng)險(xiǎn)的感知能力,形成對(duì)風(fēng)險(xiǎn)的正確觀念。在思想上,加強(qiáng)公民倫理風(fēng)險(xiǎn)的教育。通過向公眾普及人機(jī)融合智能的知識(shí),充分了解技術(shù)的積極和消極影響,形成對(duì)技術(shù)冷靜和客觀的態(tài)度。幫助公眾了解科技倫理和道德標(biāo)準(zhǔn),提高公眾的倫理素養(yǎng),增強(qiáng)倫理觀念。在行動(dòng)上,促使科學(xué)技術(shù)面向公眾開放。打破技術(shù)“黑箱”賦予專家的特權(quán),保障公民的知情權(quán)。一方面,擴(kuò)大公眾決策的參與,另一方面,加快政府和企業(yè)信息共享。在輿論上,引導(dǎo)公民多樣化的價(jià)值判斷。媒體等輿論方應(yīng)通過對(duì)技術(shù)的全方位多維度宣傳,引導(dǎo)公眾對(duì)其形成多樣性價(jià)值評(píng)判,形成人們對(duì)于技術(shù)采取多樣性選擇[24]。
3.推進(jìn)倫理風(fēng)險(xiǎn)治理的國(guó)際交流學(xué)習(xí)。全球正在進(jìn)入不確定性的“風(fēng)險(xiǎn)社會(huì)”時(shí)代,風(fēng)險(xiǎn)成為現(xiàn)代社會(huì)的主要特征,倫理風(fēng)險(xiǎn)的治理呼吁世界各國(guó)共同參與。首先,積極參與全球風(fēng)險(xiǎn)治理。在全球化浪潮中,中國(guó)始終是一個(gè)負(fù)責(zé)任大國(guó)的形象,深深融入到全球治理體系中,成為全球風(fēng)險(xiǎn)治理的重要參與者。中國(guó)要充分發(fā)揮自身制度優(yōu)勢(shì),在風(fēng)險(xiǎn)治理的價(jià)值理念、治理目標(biāo)、治理路徑和治理機(jī)制上形成中國(guó)方案,為國(guó)際社會(huì)借鑒和參考。從風(fēng)險(xiǎn)治理的實(shí)踐中,充分認(rèn)識(shí)倫理風(fēng)險(xiǎn),提高風(fēng)險(xiǎn)治理能力。其次,注重國(guó)際交流學(xué)習(xí)。人機(jī)融合智能技術(shù)在中國(guó)起步較晚,其科技倫理風(fēng)險(xiǎn)防控上處于薄弱環(huán)節(jié),應(yīng)合理吸收歐美政府風(fēng)險(xiǎn)治理的實(shí)踐經(jīng)驗(yàn)。例如,英國(guó)的漸進(jìn)整體型風(fēng)險(xiǎn)治理、加拿大的綜合風(fēng)險(xiǎn)治理、美國(guó)的國(guó)家安全型風(fēng)險(xiǎn)治理等。積極參加人機(jī)融合智能研討會(huì),討論技術(shù)的發(fā)展前景,推進(jìn)技術(shù)倫理規(guī)制和立法。
倫理風(fēng)險(xiǎn)的協(xié)同治理,要發(fā)揮政府在治理中的主導(dǎo)作用,注重協(xié)同組織的培育,規(guī)范協(xié)同治理范式,進(jìn)行倫理關(guān)系的協(xié)同調(diào)適,構(gòu)建新型人機(jī)融合倫理關(guān)系。
1.建立多元協(xié)同組織。在現(xiàn)代社會(huì)中,政府不是唯一的治理權(quán)威,需要與企業(yè)、社會(huì)團(tuán)體、公民等其他治理權(quán)威合作,攜手應(yīng)對(duì)技術(shù)倫理風(fēng)險(xiǎn)的挑戰(zhàn)。一方面,鼓勵(lì)多元主體參與。政府在風(fēng)險(xiǎn)治理中處于領(lǐng)導(dǎo)核心作用,其他參與主體同樣起著重要作用,要充分發(fā)揮它們各自的治理優(yōu)勢(shì),鼓勵(lì)多元主體的廣泛參與。通過社會(huì)參與機(jī)制的拓寬,促進(jìn)共同參與,加強(qiáng)對(duì)話協(xié)商,尋找倫理風(fēng)險(xiǎn)的合理解決方案;積極引導(dǎo)公眾、企業(yè)參與倫理規(guī)則的制定;研究機(jī)構(gòu)倡導(dǎo)負(fù)責(zé)任的技術(shù)創(chuàng)新,使其成為第三方監(jiān)管組織。另一方面,建立“國(guó)際人機(jī)融合智能倫理委員會(huì)?!备鲊?guó)政府、跨國(guó)企業(yè)、社會(huì)組織、學(xué)者要共建人機(jī)融合智能道德委員會(huì),委員會(huì)的建立要以客觀中立為基礎(chǔ)。道德委員會(huì)積極組織人機(jī)融合智能設(shè)計(jì)的道德對(duì)話,并將其制度化,賦予委員會(huì)相對(duì)獨(dú)立性,使其活動(dòng)不受干擾。
2.規(guī)范協(xié)同治理范式。協(xié)同治理范式的規(guī)范是倫理風(fēng)險(xiǎn)治理的制度保證,“自組織的行為關(guān)鍵靠制度,必須根據(jù)多方信任且默契的某種規(guī)則,各司其責(zé),而又協(xié)調(diào)統(tǒng)一,自動(dòng)地形成有序結(jié)構(gòu)?!盵25]一是組織間基于透明的信息網(wǎng)絡(luò),進(jìn)行信息資源的共享,克服有限理性的不足,共同參與公共政策的制定。透明的參與機(jī)制是合作的前提,信任機(jī)制是協(xié)同治理的關(guān)鍵。政府與其他參與主體在尊重各自利益的基礎(chǔ)上采取行動(dòng)。通過多次博弈與積極對(duì)話,形成共同的價(jià)值取向,基于信任的伙伴關(guān)系,擺脫集體行動(dòng)的困境。二是當(dāng)多元主體之間發(fā)生矛盾,導(dǎo)致無法共同治理倫理風(fēng)險(xiǎn)時(shí),便需要協(xié)調(diào)和制裁機(jī)制的保障。每個(gè)組織都有自身追求的利益,自身利益受到侵犯,便會(huì)產(chǎn)生沖突,甚至威脅協(xié)同組織的生存。應(yīng)建立協(xié)調(diào)組織間關(guān)系的委員會(huì),其中政府在其中發(fā)揮著重要作用;制定詳細(xì)的懲罰機(jī)制,當(dāng)某一組織侵犯其他主體利益時(shí),按照相關(guān)要求實(shí)施仲裁。
3.構(gòu)建人類命運(yùn)共同體的倫理關(guān)系。人機(jī)融合技術(shù)不僅影響著資本市場(chǎng),而且影響到人類的共同利益,倫理風(fēng)險(xiǎn)更是將人機(jī)融合和人類命運(yùn)聯(lián)系起來。首先,建立整體性的倫理觀。倫理風(fēng)險(xiǎn)的治理需要超越文化、制度、價(jià)值等因素的要求,超越倫理風(fēng)險(xiǎn)治理中的工具理性,“在人類的心理結(jié)構(gòu)上構(gòu)建世界意識(shí)和共同價(jià)值觀”[26],實(shí)現(xiàn)倫理風(fēng)險(xiǎn)治理中的價(jià)值理性。需要提倡一種遠(yuǎn)距離的倫理、面向未來的倫理,即關(guān)注自然、關(guān)注未來、關(guān)注生命、關(guān)注人類將來的生存的可能性、關(guān)注人對(duì)自然所承擔(dān)的責(zé)任。其次,建立以人為本的倫理觀。當(dāng)前人機(jī)融合智能倫理風(fēng)險(xiǎn)的責(zé)任主體是人,隨著技術(shù)向更高階段發(fā)展,機(jī)器也可以成為責(zé)任的承擔(dān)者,建立怎樣的倫理關(guān)系成為難題。人機(jī)融合倫理關(guān)系要注重人的主導(dǎo)作用,強(qiáng)調(diào)機(jī)器的輔助角色。在設(shè)計(jì)層面上要嚴(yán)格防范智能機(jī)器對(duì)人類的威脅,引導(dǎo)技術(shù)向著人類積極的方面發(fā)展,達(dá)到“善智”的最終效果。
倫理風(fēng)險(xiǎn)的復(fù)雜性使得官僚制組織引以為豪的技術(shù)性優(yōu)勢(shì)式微,原因在于傳統(tǒng)治理模式的固定化、線性化的治理機(jī)制無法應(yīng)對(duì)復(fù)雜多變,非線性的風(fēng)險(xiǎn)情境。公共部門需要建立“恰當(dāng)性”的政府治理機(jī)制,構(gòu)建人機(jī)融合智能相適應(yīng)的治理結(jié)構(gòu),增加制度的包容性、靈活性和彈性要素,有效防范倫理風(fēng)險(xiǎn)的沖擊。
1.建立可塑性的政府治理架構(gòu)。政府要達(dá)到倫理風(fēng)險(xiǎn)的適應(yīng)性治理目標(biāo),韌性的組織架構(gòu)必不可少。傳統(tǒng)條塊分割的治理模式,無法應(yīng)對(duì)倫理風(fēng)險(xiǎn)治理的復(fù)雜性,迫切需要優(yōu)化政府組織架構(gòu),增強(qiáng)組織的可塑性,契合人機(jī)融合智能技術(shù)。一是優(yōu)化政府決策模式。決策在政府治理中居于首要地位,倫理風(fēng)險(xiǎn)治理對(duì)政府決策提出了更高的要求,必須拋棄以往經(jīng)驗(yàn)型的決策方式。公務(wù)人員要跳出部門中心主義的狹隘觀念,推進(jìn)跨政府部門信息資源共享,打破“數(shù)據(jù)煙囪”,建立跨層級(jí)和跨部門的政府決策模式;同時(shí)吸引多元利益相關(guān)者的廣泛參與,集合集體智慧,增強(qiáng)決策的科學(xué)性和民主性。二是重塑政府組織架構(gòu)。倫理風(fēng)險(xiǎn)的治理需要突破單風(fēng)險(xiǎn)治理視角,多維度識(shí)別和綜合治理風(fēng)險(xiǎn)成為應(yīng)有之義。在明確各職能邊界的基礎(chǔ)上,集中權(quán)力和資源對(duì)技術(shù)場(chǎng)景和倫理情境分門別類靈活準(zhǔn)入,實(shí)現(xiàn)部門間、層級(jí)間、府際間參與的規(guī)制和協(xié)調(diào),加強(qiáng)政府與科技企業(yè)和社會(huì)力量的溝通合作。
2.創(chuàng)新政府治理制度?;趥惱盹L(fēng)險(xiǎn)治理的復(fù)雜性,政府應(yīng)建立新的治理路徑,形成新的規(guī)則、機(jī)制和制度,用硬性的制度約束行為失當(dāng),規(guī)范人機(jī)融合智能技術(shù)以及參與主體。首先,完善責(zé)任追究制度??扑苟ɡ硪?guī)定只要產(chǎn)權(quán)明晰,并且交易成本為零,無論將財(cái)產(chǎn)權(quán)賦予誰,市場(chǎng)均衡的最終結(jié)果都是有效率的。這一理論同樣適用于倫理風(fēng)險(xiǎn)的治理,只要明晰風(fēng)險(xiǎn)的所有權(quán),并且保證信息的公開透明,便能有效治理倫理風(fēng)險(xiǎn)。確定風(fēng)險(xiǎn)的所有權(quán)是風(fēng)險(xiǎn)責(zé)任分擔(dān)的前提,要明確組織和個(gè)人承擔(dān)的責(zé)任,追溯風(fēng)險(xiǎn)責(zé)任主體。增加技術(shù)的透性,“使用大多數(shù)人均能理解的語言向公眾解讀技術(shù),破解算法黑箱的責(zé)任模糊?!盵27]其次,建立智能技術(shù)監(jiān)管體系。人機(jī)融合智能能否成為法律主體?這是一直困擾著學(xué)者的難題。政府應(yīng)順應(yīng)時(shí)代的要求,探索智能機(jī)器的“法律人”內(nèi)涵,明確相關(guān)權(quán)利與義務(wù)歸屬,改進(jìn)人機(jī)融合的問責(zé)機(jī)制。協(xié)同組織對(duì)技術(shù)進(jìn)行階段性評(píng)估,及時(shí)發(fā)現(xiàn)問題,建立智能技術(shù)的監(jiān)管體系,以技術(shù)“對(duì)付”技術(shù)。例如,利用區(qū)塊鏈的共識(shí)機(jī)制保障數(shù)據(jù)的真實(shí)性,實(shí)現(xiàn)問責(zé)方式由事后問責(zé)向事前評(píng)估的轉(zhuǎn)變。
3.完善保障機(jī)制。面對(duì)科技的負(fù)面效應(yīng),政府作為負(fù)責(zé)任的主體,必須承擔(dān)起保護(hù)公民免受技術(shù)沖擊的責(zé)任,平衡好技術(shù)創(chuàng)新與風(fēng)險(xiǎn)規(guī)避的關(guān)系。一是保障人的安全。智能機(jī)器僅是歷史開拓的工具,即使發(fā)展到具有意識(shí),可以獨(dú)立決策,也必須遵守“機(jī)器人三定律”,奉行“不傷害”原則。政府要完善人機(jī)融合智能的法律政策體系,制定人機(jī)融合的技術(shù)標(biāo)準(zhǔn)來規(guī)避倫理風(fēng)險(xiǎn),明確智能機(jī)器的責(zé)任機(jī)制、倫理原則以及監(jiān)管原則,提供原則性和方向性的指引,保證規(guī)制的穩(wěn)定性和權(quán)威性[28]。二是構(gòu)建技術(shù)沖擊的社會(huì)保障制度。智能機(jī)器的創(chuàng)新與人類安全的渴望存在一種緊張的關(guān)系,社會(huì)保障制度可以緩解緊張關(guān)系,促使技術(shù)發(fā)展不會(huì)因風(fēng)險(xiǎn)而被剝奪。政府需要制定社會(huì)政策,將技術(shù)沖擊的社會(huì)救濟(jì)和再分配政策列入政府工作議程;鼓勵(lì)針對(duì)新興技術(shù)的社會(huì)保險(xiǎn)體制建立,從而更好地規(guī)避風(fēng)險(xiǎn),使人們從保險(xiǎn)中獲得安全感。