• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      在“功利”與“道義”之間:中國人工智能立法的科學(xué)性探析

      2022-04-20 18:36王榮余
      關(guān)鍵詞:功利主義功利人工智能

      摘要:人工智能的立法挑戰(zhàn)兼具“功利”與“道義”雙重屬性,這要求立法超越近代以來的“科技—經(jīng)濟(jì)”立法范式,而轉(zhuǎn)型至“在功利與道義之間”,并以此引領(lǐng)和保障人工智能立法的科學(xué)性。其中,道義論約束設(shè)定了基本門檻,人工智能活動(dòng)只有在經(jīng)過道義論檢驗(yàn)之后才能轉(zhuǎn)向功利性考量,否則就將是否定性評價(jià)。具體而言,立法必須注重人工智能在“安全問題”、“權(quán)利問題”以及“人性問題”三領(lǐng)域構(gòu)成的道義論挑戰(zhàn),并以此為基礎(chǔ)在人工智能的研究和開發(fā)、運(yùn)用和轉(zhuǎn)化階段進(jìn)行鼓勵(lì)、支持和引導(dǎo)的立法選擇,同時(shí)輔以事前、事中與事后評估的管理和監(jiān)督。在具體問題的抉擇上,立法科學(xué)性要求立法者必須充分發(fā)揮好“在功利與道義之間”的立法技藝,最終實(shí)現(xiàn)功利與道義的雙贏。

      關(guān)鍵詞:人工智能;科學(xué)立法;道義論;功利主義

      收稿日期:2020-03-15

      基金項(xiàng)目:國家社科基金后期資助項(xiàng)目“人權(quán)話語的中國表達(dá)與體系建構(gòu)”(20FFXB042);重慶市哲學(xué)社會(huì)科學(xué)重大規(guī)劃項(xiàng)目“權(quán)利的制度之維”(2021ZDZJ04)

      作者簡介:王榮余,西南政法大學(xué)哲學(xué)系,博士,主要從事法哲學(xué)、制度法理論和科技倫理研究,E-mail:vincentry0322@yeah.net。

      一、問題的提出:人工智能立法的范式轉(zhuǎn)型

      隨著信息技術(shù)和生物科技的迭代發(fā)展,“第四次工業(yè)革命”正逐步成為一個(gè)被廣泛接受的事實(shí)。其中,信息技術(shù)經(jīng)由“世界互聯(lián)網(wǎng)化”和“大數(shù)據(jù)”兩個(gè)階段的發(fā)展而開始轉(zhuǎn)向以機(jī)器學(xué)習(xí)和算法等技術(shù)為基礎(chǔ)的“人工智能時(shí)代”。2016年3月,智能機(jī)器人AlphaGo以4∶ 1的戰(zhàn)績擊敗世界圍棋冠軍李世石,這預(yù)示著“人工智能進(jìn)入突破階段”,2016年成為人工智能的元年〔1〕。自此以后,人工智能(Artificial Intelligence,AI)的討論總是籠罩著一種潛在的憂慮,霍金、比爾·蓋茨等人便表達(dá)了這樣的不安。中國法學(xué)界關(guān)于人工智能法律責(zé)任問題的討論更是直接性地表達(dá)出“規(guī)制”意味,而對于其中較為棘手的人工智能體的法律主體地位問題也是要么忙于肯定要么忙于否定。何以如此?其原因就在于與一般的科技實(shí)踐引發(fā)的風(fēng)險(xiǎn)不同,人工智能這一事物本身便具有特殊性,主要表現(xiàn)在自身潛在擁有的“認(rèn)識(shí)能力”和“控制能力”使其有可能會(huì)超越科技與人之間傳統(tǒng)的“手段—目的”或“客體—主體”關(guān)系框架。這即是說,在人工智能時(shí)代,作為地球主宰的“人”可能會(huì)淪為人工智能的“對象”,學(xué)界當(dāng)前所討論的“大數(shù)據(jù)殺熟”以及“算法權(quán)力”等議題便是一個(gè)重要的表征。無論是對人們的外在行為還是內(nèi)在尊嚴(yán),這都是我們無法忍受的。更根本的是,如果這一挑戰(zhàn)成真的話,那問題就不再是“智能機(jī)器人能否具有法律主體地位”等問題,而是“我們是不是人”以及“我們憑什么是人”〔2〕。當(dāng)代哲學(xué)前沿關(guān)于神經(jīng)生物學(xué)、意向性以及自由意志等問題的討論便涉及對諸如此類問題的嘗試性解答〔3〕。此類評論并非危言聳聽,雷·庫茲韋爾就認(rèn)為,在2045年前后會(huì)出現(xiàn)人工智能的一個(gè)“奇點(diǎn)”,而跨過這個(gè)點(diǎn)人工智能就將會(huì)超越人類的智慧〔4〕。即便“奇點(diǎn)”何時(shí)來臨尚無共識(shí),但人工智能時(shí)代的步步逼近卻是一個(gè)不爭的事實(shí),而隨著“強(qiáng)人工智能”或“智慧人工智能”的到來和挑戰(zhàn),如何通過法律手段更好地應(yīng)對這一潛在的“實(shí)質(zhì)性危機(jī)”,這是我們當(dāng)前應(yīng)予進(jìn)行討論的課題。

      法律的功能在于“以各種各樣的方式,導(dǎo)引、計(jì)劃和控制人們的生活”〔5〕,而“立法”則是處理人工智能及其與人之間關(guān)系的首要環(huán)節(jié)。由于人工智能可能引發(fā)的實(shí)質(zhì)性挑戰(zhàn)與固有科技立法思維之間存在較大的出入,既有范式便面臨著轉(zhuǎn)型的現(xiàn)實(shí)需要?,F(xiàn)行“科技法”,包括《中華人民共和國科學(xué)技術(shù)進(jìn)步法》以及《中華人民共和國促進(jìn)科技成果轉(zhuǎn)化法》在內(nèi)的諸法律,都受到了近代以來科技立法中“技術(shù)—經(jīng)濟(jì)”范式的影響。該立法范式的一個(gè)主要表現(xiàn)在于,以鼓勵(lì)、刺激科技的經(jīng)濟(jì)實(shí)用價(jià)值為目標(biāo),而對科技引發(fā)的社會(huì)問題則只是附帶性地提及〔6〕。更明確地講,它比較側(cè)重科技經(jīng)濟(jì)主義這一維度,旗幟鮮明地以效率為導(dǎo)向。這不僅輕視了人工智能科技可能引發(fā)的前所未有的“價(jià)值關(guān)切”,更導(dǎo)致了技術(shù)的自主化滋生,即技術(shù)在這種自主性結(jié)構(gòu)中為所欲為,進(jìn)而發(fā)展為失去人的控制的主體化僭越〔6〕。這種后果恰恰是法律試圖極力避免的情形。對于立法者而言,這都內(nèi)在地要求他們進(jìn)行立法西南交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)第23卷第2期王榮余在“功利”與“道義”之間:中國人工智能立法的科學(xué)性探析范式的轉(zhuǎn)型,即轉(zhuǎn)向“在功利與道義之間”的新范式,這是為保障人工智能立法科學(xué)性而對立法者提出的新要求。

      2017年7月,國務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》)提出了“三步走”的戰(zhàn)略布局,明確在部分領(lǐng)域初步建成人工智能倫理規(guī)范和政策法規(guī)的第一步戰(zhàn)略要求。在“從規(guī)劃到立法”的這一時(shí)期內(nèi),尋求立法的科學(xué)性繼而進(jìn)行科學(xué)立法將是立法者的關(guān)鍵任務(wù),而如何保障立法的科學(xué)性更是關(guān)鍵中的關(guān)鍵。然而,當(dāng)前關(guān)于人工智能立法的既有討論主要集中于部門法領(lǐng)域,但由于人工智能所引發(fā)之挑戰(zhàn)的根本性和實(shí)質(zhì)性,部門法學(xué)者基于法律教義學(xué)所提供的說明性理論實(shí)際上就將變得有限〔7〕。這意味著,關(guān)于人工智能立法科學(xué)性的一般性討論必須轉(zhuǎn)入一般法理學(xué)層面來進(jìn)行,并以此為基礎(chǔ)提供一種規(guī)范性路徑,也正是在這個(gè)意義上,我們需要借助規(guī)范倫理學(xué)的資源,尤其是功利論和道義論。具體而言,就中國的具體語境來看,人工智能領(lǐng)域的立法遵從什么樣的原則來體現(xiàn)科學(xué)性?立法活動(dòng)如何合理地處理人工智能所涉及的倫理風(fēng)險(xiǎn)與經(jīng)濟(jì)發(fā)展問題,以及應(yīng)如何展現(xiàn)道義論約束和功利論刺激?這是本文試圖通過新立法范式進(jìn)行回答并試圖從哲學(xué)和法學(xué)層面展開論證的問題,但在此之前,本文將首先考察一個(gè)在當(dāng)下學(xué)界討論不充分的論題,并以立法思維進(jìn)行重新審視。

      二、一個(gè)不充分的討論:人工智能體的法律主體地位

      人工智能體法律主體地位的相關(guān)討論旨在回答兩個(gè)基本問題,一是能否賦予其法律主體地位,二是相應(yīng)的理由說明。就后者而言,既有討論主要圍繞“法人擬制”與“人畜關(guān)系”展開,但這對立法又意味著什么呢?

      對于物理層面上的“人”,我們可以從多個(gè)方面予以審視,如生物學(xué)、人類學(xué)、哲學(xué)、社會(huì)學(xué),法學(xué)只是其中的視角之一。一般而言,一個(gè)對象要成為法律意義上的“人”,必須滿足“事實(shí)”與“規(guī)范”兩方面的條件:前者要求它必須是具備意志能力的客體,這是法律賦予其法律主體資格的不充分的邏輯前提;后者則要求該客體擁有享受權(quán)利和履行義務(wù)的法律資格,這最終將取決于立法層面的考量。因而,非生物意義上的“人”完全有機(jī)會(huì)成為“法律意義上的人”,而生物意義上的“人”也完全可能無法成為法律意義上的人,如古代的奴隸〔8〕。這在很大程度上可以解釋為什么“法人”能夠具備法律主體資格——盡管它肯定不是生物意義上的人,就規(guī)范層面而言,這一認(rèn)定是完全可能的,只不過必須注意的是,規(guī)范層面的認(rèn)定必須有事實(shí)層面的支持。由于法人的意志能力實(shí)際上能夠通過“法律擬制”的立法技術(shù)與自然人相聯(lián)結(jié)來予以克服,從而基于“實(shí)體屏蔽”“清算保護(hù)”等便利考量,“法人”就完全可以成為“法律上的人”。這實(shí)際上是在提醒我們,最終承擔(dān)法律責(zé)任的仍是生物意義上的人,在“揭開公司的面紗”時(shí),提供實(shí)質(zhì)性責(zé)任保證的不是法人而是生物意義上有血有肉的自然人。當(dāng)然,基于同樣的理由,以“人畜關(guān)系”展開的說明同樣否定諸如大猩猩等靈長類動(dòng)物的法律主體資格。因?yàn)閯?dòng)物不具有對于“應(yīng)當(dāng)如何”的規(guī)范認(rèn)知能力——即便一些動(dòng)物可能具備規(guī)律性地進(jìn)行學(xué)習(xí)的能力,但正如有學(xué)者所說的那樣,或許正是由于缺乏那1%的規(guī)范認(rèn)知能力,使得它們永遠(yuǎn)無法成為真正的人〔9〕。

      此類關(guān)于人工智能體法律主體地位的否定性論證是有說服力的,至少它強(qiáng)調(diào)了“事實(shí)”維度的不可能性,遵從了“從事實(shí)到規(guī)范”的路徑。但或許正是如此,它輕視乃至忽略了法律自身的性質(zhì),即法律是一種制度性事實(shí)〔10〕。法律的這種性質(zhì)使得“法律主體”具有了他者不曾擁有的規(guī)范意味。就此而言,即便能夠證明人工智能體在事實(shí)層面最終無法具有“規(guī)范性認(rèn)知”,但這仍然無法排除人工智能體可以通過訴諸“法人”那樣的立法技術(shù)而被賦予法律主體資格的可能性。法律語言具有一種“構(gòu)成性規(guī)則”意義上的宣告式言語行為的能力,當(dāng)它進(jìn)行“X在C中算作Y”的表達(dá)時(shí),它就賦予了C以Y的地位功能。比如說,當(dāng)法律以宣告式語言表達(dá)“這張紙算作一張一百元的人民幣”時(shí),它就賦予了這張紙(C)以一百元人民幣(Y)的功能地位,這張紙也就不再是純粹的一張紙,而成為法定貨幣。法律作為一種制度性事實(shí),也即是一套構(gòu)成性規(guī)則體系,這種體系有創(chuàng)立其他制度性事實(shí)的可能,這即是“語言向世界”的適應(yīng)指向〔11〕。這要求我們法律人更加地關(guān)注法律自身的性質(zhì)與邏輯,而不要過多地糾纏在純粹事實(shí)的繁雜表象之中。更何況,人工智能是否具有規(guī)范性能力在目前看來仍是一個(gè)未知的事實(shí),我們沒有必要先入為主地進(jìn)行否定性預(yù)設(shè)。因此,人工智能體能否被賦予主體資格,這首先不是一個(gè)事實(shí)問題,而是一個(gè)“是否應(yīng)當(dāng)賦予其法律主體資格”的規(guī)范性問題。這與賦予法人的法律主體資格之歷史是完全一致的,只有在考慮了是否應(yīng)當(dāng)賦予法人以主體地位之后,我們才會(huì)進(jìn)一步技術(shù)化地處理其中的事實(shí)承擔(dān)問題。“由規(guī)范到事實(shí)”而不是“由事實(shí)到規(guī)范”更契合法律思維,立法思維尤其如此,其中,尤為重要的是法律如何為人們在人工智能問題上設(shè)定行動(dòng)理由,因而是一個(gè)關(guān)乎實(shí)踐理性的問題。

      立法者不是人工智能的理論專家,但這根本不妨礙法律為該領(lǐng)域設(shè)定行動(dòng)理由的實(shí)踐權(quán)威〔12〕。從規(guī)范上講,人工智能諸問題肇始于立法,而立法的背后則涉及立法者“應(yīng)當(dāng)如何進(jìn)行選擇”的規(guī)范倫理學(xué)問題。面對人工智能這一情勢,借鑒規(guī)范倫理學(xué)的研究成就,“在功利與道義之間”則為如何行動(dòng)和選擇提供了指引,下文將對此分別做出哲學(xué)和法學(xué)層面的論證,這種外部論證對包括法律主體地位在內(nèi)的人工智能立法的討論具有重要的方法論意義。

      三、“功利”與“道義”:人工智能立法科學(xué)性的哲學(xué)論證

      人工智能立法的科學(xué)性至少蘊(yùn)含著法律條文具備明確性、公開、不溯及既往且能為人所遵守等程序法治的基本原則〔13〕,但由于人工智能問題具有前文所說的那種特殊性,這使得相關(guān)立法在遵循基本的法治考量因素之下還必須更明確地認(rèn)識(shí)到其中所涉及的兩個(gè)關(guān)鍵性問題:其一是人工智能所可能引發(fā)的道德倫理問題,即道義維度;其二是人工智能及其立法與科技發(fā)展或經(jīng)濟(jì)進(jìn)步之間的共變關(guān)系,即功利維度。如果近代科技立法中的“技術(shù)—經(jīng)濟(jì)”思維本質(zhì)上是一種經(jīng)濟(jì)目的導(dǎo)向從而側(cè)重功利進(jìn)路的話,那么未來人工智能的科學(xué)立法則必須明確地參考道義維度,二者共同構(gòu)成人工智能立法轉(zhuǎn)型的新方向,繼而成為其新的思維框架。

      (一)功利論的內(nèi)在要求

      功利論是規(guī)范倫理學(xué)中目的論的典型代表,在當(dāng)代具有各種不同的形式和分支,后果主義便是其中最為重要的一種。后果主義理論由兩方面內(nèi)容構(gòu)成:(1)根本的價(jià)值;(2)達(dá)致這一價(jià)值的適當(dāng)進(jìn)路〔14〕。前者是特定的價(jià)值理論,它認(rèn)為價(jià)值內(nèi)在地包涵于事物/事態(tài)之中,實(shí)現(xiàn)這種價(jià)值就必定能夠促使這一事物/事態(tài)的實(shí)現(xiàn);后者是特定的正確選擇理論,它認(rèn)為,如果一個(gè)行動(dòng)促進(jìn)了更好的可能事物/事態(tài)的實(shí)現(xiàn)(比較意義上的),那這一行動(dòng)的正確性便得到了辯護(hù)〔15〕。標(biāo)準(zhǔn)后果主義(standard consequentialism)的理論形態(tài)據(jù)此向我們承諾了這樣一件事情:通過評價(jià)事物/事態(tài)對其價(jià)值的促進(jìn),我們便獲得了最終的辯護(hù)根據(jù),不管這是道德辯護(hù)、法律辯護(hù)還是其他類型的辯護(hù)事項(xiàng),它都能夠得到適用。根據(jù)“一般形式的客觀的整全后果主義”的觀點(diǎn),對象的意向、品格特征、動(dòng)機(jī)等或行為的道德屬性都可以依據(jù)客觀后果主義的標(biāo)準(zhǔn)來進(jìn)行評價(jià)〔14〕,這使得后果主義的理論承諾會(huì)更加地具有吸引力。

      在此理論路徑之下,三方面的特質(zhì)型塑著后果主義。首先,它所指的價(jià)值內(nèi)在地具有整體利益的傾向,即功利主義所說的“最大多數(shù)人的最大幸?!薄?6〕。比如,就賦予人工智能體主體資格的立法動(dòng)議而言,它必須首先證明賦予其主體資格比不賦予其資格能夠帶來整體上的更大利益。德國工程與機(jī)器人協(xié)會(huì)(VDMA)也正是以此為指引論證說,立法者不應(yīng)通過頒布規(guī)制措施來阻礙工業(yè)4.0的可能發(fā)展,因?yàn)槿斯ぶ悄軙?huì)給人更多的益處而非不利〔17〕。在此判斷下,便隱含著人工智能法律主體的證成語境,美國的《人工智能未來法案2017》(Future of Artificial Intelligence Act of 2017)亦是作了如此判斷。其次,它將行為所獲得的效果作為評價(jià)的標(biāo)準(zhǔn),因而結(jié)果本身只是手段而不是目的,它是朝向未來的可欲手段。在這個(gè)意義上,“判斷道德意義上的正當(dāng)、不正當(dāng)或盡義務(wù)等基本的或最終的標(biāo)準(zhǔn)是非道德價(jià)值,這種非道德價(jià)值是作為行為的結(jié)果而存在的。最終的直接或間接的要求必須是產(chǎn)生大量的善,更確切地說,是產(chǎn)生的善超過惡。因此,在任何有效的選擇中,一個(gè)行為是正當(dāng)?shù)?,?dāng)且僅當(dāng)它或它的指導(dǎo)準(zhǔn)則能夠促成或趨向于促成的善至少超過惡;反之則是不正當(dāng)?shù)摹薄?8〕。最后,它認(rèn)為“善”優(yōu)先于“正當(dāng)”。在道德評價(jià)過程中,“正當(dāng)”表現(xiàn)為康德式的“絕對命令”,即“要只按照你同時(shí)認(rèn)為也能成為普遍規(guī)律的準(zhǔn)則去行動(dòng)”〔19〕。與之不同,“善”則凸顯為它的誘人的可欲性,在此之下并無絕對的命令或義務(wù),而只有相對義務(wù)。善優(yōu)先于正當(dāng)便是要求著眼于最大利益。

      功利或后果是一個(gè)帶有評價(jià)性質(zhì)的規(guī)范性概念,備受指責(zé)之處主要在于,它所承諾的“功利價(jià)值”如何辨識(shí)以及客觀性評價(jià)基礎(chǔ)如何還原。極端的功利主義不利于社會(huì)基本善的形成,更不適合人工智能這一情勢的特殊性,因而要完整地進(jìn)行評價(jià),我們還必須引入“道義論”。

      (二)道義論的內(nèi)在要求

      一般而言,“道義論約束”往往是通過一些否定性的方式來予以陳述和表達(dá)的道德理由,是對實(shí)踐活動(dòng)所提出的禁為性理由。因而,道義論從根本上關(guān)注的是開展這類行動(dòng)的不可允許性問題〔20〕。道義論與功利論極為不同。首先,道義論以觀念形態(tài)的義務(wù)和應(yīng)當(dāng)為出發(fā)點(diǎn),“要求個(gè)人應(yīng)當(dāng)按照某種主觀上既定的原則或主觀上認(rèn)定屬于某種現(xiàn)象本身固有的正當(dāng)性去行動(dòng),從而將人們的義務(wù)和責(zé)任主觀化、普遍化和絕對化,并以此來限制和規(guī)范個(gè)體”〔21〕。其次,道德義務(wù)本身便是目的,是“為義務(wù)而義務(wù)”,從而對道德自身所蘊(yùn)含的尊嚴(yán)以及人格中的人性等基本價(jià)值予以肯認(rèn),因此,道義論所提出的義務(wù)是“絕對的和無條件的”。這即是說,在進(jìn)行選擇的時(shí)候,我們一開始便受到限制而不是隨心所欲的。如果賦予人工智能體以法律主體資格會(huì)對作為目的本身的人/人類之尊嚴(yán)造成貶損,那道德律令就將禁止我們這樣做。最后,道義論預(yù)設(shè)了“正當(dāng)優(yōu)先于善”。按照這一形式標(biāo)準(zhǔn),行動(dòng)的理由和根據(jù)不在于任何功利性的價(jià)值,相反,事物本身便能確定何種欲求是正當(dāng)?shù)?。盡管學(xué)界對于“正當(dāng)”存在不同的解釋,但卻能夠就以下觀點(diǎn)取得基本共識(shí),即“一個(gè)行為是否正確,是由它所固有的某些特點(diǎn)來確定的,或者是由與它相關(guān)的某個(gè)規(guī)則來確定的”〔22〕。

      在道義論理論中,當(dāng)前最具說服力的一種進(jìn)路表現(xiàn)為“犧牲者中心”〔23〕。它認(rèn)為,作為共同體中的每一個(gè)人,都有可能被他者或共同體傷害,即都可能成為潛在的犧牲者(victim),與此同時(shí),我們每一個(gè)人都擁有優(yōu)先于共同體本身的資格(status),這種資格使得我們有很強(qiáng)的理由避免成為他者或共同體本身的可能犧牲者。就人工智能法律主體這一事情而言,不管人工智能能否被授予法律主體資格,只要每一個(gè)個(gè)體本身的資格得到了保障,那這種設(shè)置就通過了合法性的檢驗(yàn),如果人工智能法律主體的制度設(shè)計(jì)危及或者是必定使每一個(gè)個(gè)體成為潛在的犧牲者,那它就不具備道德合法性。與之相關(guān)的另一種道義論理論即契約主義的道義理論認(rèn)為,“資格”概念的設(shè)置并不存在實(shí)質(zhì)意義上的必要性,因?yàn)樵谄跫s簽訂過程中,共同體中的每一個(gè)人只要具有“自由且平等”這個(gè)事實(shí)便足以對每一個(gè)主體施加保護(hù)。相應(yīng)地,能否被授予主體資格從而擁有一項(xiàng)權(quán)利只需取決于它能不能滿足共同體成員所設(shè)置的假設(shè)性契約條件。因此,人工智能體能否被授予法律主體資格,這必須取決于由理性的共同體成員所設(shè)置的條件要求:滿足其要求則被授予法律主體資格,不滿足其要求則不能被授予法律主體資格??梢园l(fā)現(xiàn),“犧牲者中心”和“契約主義”的道義理論在人工智能體能否成為法律主體的道路上設(shè)置了“防御性”的條件;與通過“預(yù)防原則”應(yīng)對科技風(fēng)險(xiǎn)不同,它所提供的方案具有根本性;與后果主義所訴諸的實(shí)質(zhì)利益不同,它所捍衛(wèi)的是形式性基本原則。這一方案不僅適用于人工智能法律主體資格問題,而且適用于關(guān)于人工智能的整個(gè)議題。

      (三)一個(gè)綜合評價(jià)

      由此,在人工智能立法科學(xué)性問題上,人們就擁有了功利論和道義論這兩套可供選擇的辯護(hù)方案,雖然它們各自在一些關(guān)鍵問題上針鋒相對,但這并不意味著只能非此即彼地進(jìn)行選擇,相反,我們可以而且應(yīng)當(dāng)對其予以綜合考察,并將其靈活地運(yùn)用于人工智能立法科學(xué)性的辯護(hù)議題上。這就好比說,人工智能的立法者必須左手握著道義論的“利劍”,右手握著后果主義的“天平”,在此二者之間來回地細(xì)致權(quán)衡和拿捏,并以此來保障人工智能立法問題的科學(xué)性。仍然以人工智能體法律主體地位立法問題為例,它內(nèi)在地要求:

      首先,人工智能立法必須全面權(quán)衡基于功利主義的整體利益的進(jìn)取型要求與基于道義論的個(gè)人資格的防御性要求之間的關(guān)系。如果人工智能法律主體地位與個(gè)人資格的道義論要求根本沖突,那就必須捍衛(wèi)“人類中心主義”;如果不相沖突,那就應(yīng)當(dāng)基于功利成本進(jìn)一步考慮是否賦予其主體資格。其次,在手段與目的關(guān)系問題上必須保證“人是目的”這一基礎(chǔ)性的道義論原則。雖然“從一個(gè)角度看,我們創(chuàng)造的機(jī)器人貌似只是機(jī)器而已,而從另一個(gè)角度看,它們似乎是復(fù)雜而具有適應(yīng)性的實(shí)體,甚至對我們在道德關(guān)心的問題有著或多或少的敏感性”〔24〕。人工智能體雖然不一定就只能作為一種工具存在,但由于“人是目的”這一絕對命令的存在,不管賦予還是不賦予其法律主體地位都不得逾越這一底線,一旦觸碰便是無效的,與之相關(guān)的是,在人機(jī)倫理關(guān)系中,立法者不僅要考量智能機(jī)器人的“外部進(jìn)攻”,同時(shí)還應(yīng)考量作為主體的人本身在主體問題上可能出現(xiàn)的“消極抵抗”。人工智能時(shí)代會(huì)引發(fā)一種危險(xiǎn),作為人類的我們不再將自我視為目的本身,而是視作為人所利用的裝置和被人利用的工具,從而僅僅只是像計(jì)算機(jī)那樣思考問題〔25〕。最后,在正當(dāng)與善的優(yōu)先性權(quán)衡上,正當(dāng)是根本,善是長遠(yuǎn)發(fā)展的指引。人工智能時(shí)代是大勢所趨,如果人工智能法律主體地位更符合長遠(yuǎn)發(fā)展的要求,至少就可以考慮賦予其主體資格,但這并不意味著丟棄其內(nèi)在的正當(dāng)性要求。

      四、人工智能立法中的“道義”與“功利”

      通過辯證看待功利論和道義論這兩種規(guī)范倫理學(xué)進(jìn)路并予以綜合審視,我們獲得了達(dá)致人工智能科學(xué)立法的一套辯護(hù)工具。在這里,二者在人工智能立法問題上絕非相互對立,而是可以相互補(bǔ)充,而且綜合出的這套辯護(hù)工具也并不囿于某一思想家的學(xué)說或某一學(xué)派的主張,而是以實(shí)事求是的姿態(tài)對其予以客觀評價(jià),具有切實(shí)的可行性。此外,我們還以“人工智能法律主體地位”這一當(dāng)下為學(xué)界廣泛關(guān)注的論題為例進(jìn)行了針對性的解讀和說明,但法律主體地位問題畢竟只是人工智能立法的面向之一,因此我們還需要進(jìn)一步考察如何將這一套辯護(hù)工具適用到人工智能立法中去。

      (一)人工智能立法科學(xué)性的“道義”考量

      有學(xué)者將新的立法思維歸結(jié)為“技術(shù)—社會(huì)+經(jīng)濟(jì)”,相較于既往的“技術(shù)—經(jīng)濟(jì)”范式,它更加強(qiáng)調(diào)人工智能引發(fā)的“強(qiáng)社會(huì)面向”,從而“展現(xiàn)了前所未有的社會(huì)規(guī)范需求性”〔6〕。實(shí)際上,“社會(huì)維度”在實(shí)際操作層面難以和“經(jīng)濟(jì)維度”進(jìn)行有效的區(qū)分,這不僅是因?yàn)榻?jīng)濟(jì)系統(tǒng)本身就是社會(huì)中一個(gè)重要的子系統(tǒng),更在于不管經(jīng)濟(jì)維度還是社會(huì)維度都可以被納入功利論范疇中進(jìn)行討論,新舊范式之間就無法進(jìn)行有效區(qū)分,從而無法揭示人工智能帶來的根本性挑戰(zhàn)。相反,在尊重道德法則的行為必然性意義上,只有“道義”維度的考量或許才能直接揭示和呈現(xiàn)出由人工智能引發(fā)的法律挑戰(zhàn)的特殊性。通過對這種挑戰(zhàn)進(jìn)行由外到內(nèi)的處理,相關(guān)道義論挑戰(zhàn)可以類型化為以下三個(gè)方面:

      1.安全問題

      安全問題包括人工智能技術(shù)本身所帶來的挑戰(zhàn),如由于“黑箱(black box)”系統(tǒng)的存在,輸入環(huán)節(jié)是透明的,輸出也得到了理解,但兩者之間發(fā)生的事情,連程序設(shè)計(jì)者在內(nèi)的人都無法確切地理解自己設(shè)計(jì)出來的人工智能的具體決策過程和決策邏輯〔26〕,從而致使技術(shù)本身可能就是不安全的。再者,當(dāng)自動(dòng)駕駛汽車脫離制造商控制而進(jìn)入流通領(lǐng)域后,由于新的數(shù)據(jù)輸入導(dǎo)致其行為和決策超出預(yù)先設(shè)置的規(guī)則,從而可能會(huì)打破原先設(shè)定的規(guī)則〔27〕。此類安全來自技術(shù)本身的“不確定性”維度,這使得我們“無法提前預(yù)估可能遇到的全部問題,也不可能絕對排除隨機(jī)生成的穩(wěn)定性故障,因而帶來不同于傳統(tǒng)技術(shù)運(yùn)用所制造的新型風(fēng)險(xiǎn)”〔28〕。對于此類不確定和不可知的現(xiàn)實(shí)問題,歐盟提出的立法動(dòng)議首先便強(qiáng)調(diào)要確定人工智能領(lǐng)域的倫理準(zhǔn)則,這既包括具有全局性的倫理框架設(shè)計(jì),也包括諸如“一鍵關(guān)閉”這樣的具體考量,可以說,人工智能技術(shù)本身的安全性問題將是立法者在進(jìn)行立法設(shè)計(jì)時(shí)繞不開的首要問題之一。

      與此同時(shí),“安全問題”也包括由于技術(shù)濫用所帶來的極大風(fēng)險(xiǎn),其中廣為人所憂慮的一個(gè)便是“人工智能武器”。倫理學(xué)界早已對此問題及其未來情勢表達(dá)過憂慮,這種武器及其濫用“很可能成為人類自作自受的掘墓人”〔29〕。技術(shù)濫用導(dǎo)致的危險(xiǎn)與技術(shù)不確定性導(dǎo)致的危險(xiǎn)具有本質(zhì)區(qū)別,立法無法規(guī)制技術(shù)本身的不確定,但卻完全有能力規(guī)制使用或?yàn)E用人工智能的人的行為,從后者尋求突破將最為可行。在國際范圍內(nèi),以“公約”的形式限制使用或禁止人工智能技術(shù)的濫用將是一個(gè)發(fā)展趨勢。就國內(nèi)來看,對于智能科技自身所存在的安全問題,“合理的對策就是為了保障技術(shù)進(jìn)步而適度容忍風(fēng)險(xiǎn),并立足于現(xiàn)有法律的基本體系,將風(fēng)險(xiǎn)進(jìn)行成本最低的分配”〔28〕。

      2.權(quán)利問題

      “權(quán)利問題”關(guān)涉人的地位和資格,因?yàn)闄?quán)利是現(xiàn)代人生存和生活的基本方式〔30〕。人工智能引發(fā)的相關(guān)新興(型)權(quán)利問題正在對現(xiàn)有權(quán)利義務(wù)體系提出挑戰(zhàn),如人工智能生成內(nèi)容的權(quán)利定性、自動(dòng)駕駛汽車引發(fā)的相關(guān)責(zé)任認(rèn)定等。在既有的權(quán)利意識(shí)形態(tài)中,“X有做φ的權(quán)利”或“X有關(guān)于φ的權(quán)利”表述中的“X”被默認(rèn)為是生物學(xué)意義上的人或以它為基礎(chǔ),既有權(quán)利體系的哲學(xué)基礎(chǔ)在于“人的主體性”,甚至可以說“當(dāng)代權(quán)利理論的發(fā)展過程正是主體性通過權(quán)利概念和法學(xué)話語的表征過程”〔31〕。人工智能所可能擁有的“認(rèn)識(shí)能力”與“控制能力”,即人工智能所可能涌現(xiàn)的自主性與主體性問題會(huì)通過挑戰(zhàn)現(xiàn)有權(quán)利體系對主體性哲學(xué)基礎(chǔ)構(gòu)成威脅,從而最終威脅到“人”本身這一權(quán)利的道義論根基。隨著人工智能的深入研究和推進(jìn),法學(xué)界終將面臨“人工智能能否擁有權(quán)利”以及“憑什么能擁有權(quán)利”這類法理學(xué)問題(實(shí)際上法理學(xué)界已經(jīng)在開始處理這一問題了)。

      如果這種挑戰(zhàn)因其具有基礎(chǔ)性以致目前還無法進(jìn)入立法視野的話,那伴隨著“算法權(quán)力”“算法規(guī)訓(xùn)”“算法歧視”等帶來的權(quán)利挑戰(zhàn)則無疑具有十足的現(xiàn)實(shí)性。人工智能的本質(zhì)是算法,由于算法的控制者與作為數(shù)據(jù)主體的個(gè)人之間存在信息不對稱,因此算法不斷增強(qiáng)的權(quán)力態(tài)勢會(huì)對個(gè)人權(quán)利形成霸權(quán)壓制,如對數(shù)據(jù)所有權(quán)以及數(shù)據(jù)隱私權(quán)的侵犯和歧視,它使得“個(gè)人越來越透明,而權(quán)力行使者卻變得越來越隱秘”〔32〕。如無算法治理的介入,人的權(quán)利將遭受全面打擊。面對此情勢,歐洲議會(huì)發(fā)布的《關(guān)于歐洲合作智能交通系統(tǒng)戰(zhàn)略協(xié)作、連接和自動(dòng)移動(dòng)性的決議》便指出:“必須使用戶確信他們的個(gè)人數(shù)據(jù)并非商品,用戶能夠有效控制數(shù)據(jù)的使用方式和目的”〔1〕。的確,算法的法律規(guī)則只不過是人工智能立法的方面之一,但算法對權(quán)利的挑戰(zhàn)卻已揭示出這一情勢的根本性,因而有必要以算法正義的立法理念為導(dǎo)引捍衛(wèi)表征人之自主性的權(quán)利的道義之維。

      3.人性問題

      阿西莫夫提出了“機(jī)器人三定律”,即“不得傷害人類,必須服從于人類,必須保護(hù)自己的生存”〔33〕。這三條規(guī)制機(jī)器人的定律預(yù)設(shè)了智能機(jī)器人已經(jīng)具備自我意識(shí)和自由意志的能力,這或許是過往立法實(shí)踐較少明確予以考量的問題,但卻是法哲學(xué)一直在面對和捍衛(wèi)的一個(gè)命題,即“人是目的”。然而,人工智能的深入研究卻揭示了另一番景象。在技術(shù)研究層面,這一問題表現(xiàn)在“深度學(xué)習(xí)”和“神經(jīng)網(wǎng)絡(luò)”所隱含的一個(gè)基本假設(shè),即智能及其思想意識(shí)本身均源于大腦的復(fù)雜性〔34〕,也即是“神經(jīng)元決定了思想”〔35〕。在具體研究中,它通過“虛擬神經(jīng)元”進(jìn)行人腦模擬并在此基礎(chǔ)上構(gòu)建“人工大腦”。基于對人之大腦的心智模擬,AI程序就能夠?qū)崿F(xiàn)“像”人類一樣地進(jìn)行認(rèn)知和思考,達(dá)到甚至超過人的智能水平。在當(dāng)代哲學(xué)前沿理論中,強(qiáng)人工智能與人的心靈皆被理解為一種“計(jì)算機(jī)功能主義”。該理論認(rèn)為,“整個(gè)系統(tǒng)工作的方式就是大腦是一個(gè)數(shù)字化的計(jì)算機(jī),而被我們稱為‘心靈’的東西則是一個(gè)數(shù)字化的計(jì)算機(jī)程序,或是一個(gè)程序序列”,即“心靈狀態(tài)乃是腦的計(jì)算狀態(tài)。腦是一個(gè)計(jì)算機(jī),而心靈是一個(gè)程序或程序序列”〔3〕。前沿量子力學(xué)對人之生命的解釋以及存在非碳基生命的理論可能性,諸如此類的研究嘗試和推進(jìn)與哲學(xué)層面的理論辯護(hù)間接性地強(qiáng)化了人工智能的主體性地位,同時(shí)也在很大程度上弱化了人之地位的道義論基礎(chǔ),于是,問題就逐漸地變?yōu)椤叭斯ぶ悄苁遣皇侨??如果它不具備人的地位,那么我們?yōu)槭裁匆驗(yàn)閾碛型瑯拥幕蝾愃频闹悄苣芰Χ唤凶魅??”?6〕正如趙萬一教授所言,“法學(xué)應(yīng)當(dāng)重新思考人”〔37〕,尤其是法律的人性基礎(chǔ)問題。

      在極端目的論支持者看來,上述三類議題都可以在功利范疇中進(jìn)行討論和解決。然而,不管是安全問題、權(quán)利問題還是人性問題實(shí)際上都無法簡單地適用最大多數(shù)人的最大幸福這一判準(zhǔn),因?yàn)樗诤艽蟪潭壬咸魬?zhàn)甚至?xí)郊扔蟹审w系賴以存在的基礎(chǔ),比如說,既有科技立法的對象本身是可控的,但人工智能技術(shù)愈加顯示其不可控的黑箱效應(yīng)。因此,有必要首先將此類問題置于道義論約束中予以審視,而不能仍停留于功利思維層面。就立法設(shè)計(jì)而言,“安全問題”中的技術(shù)濫用與“權(quán)利問題”中的算法利維坦現(xiàn)象是立法必須予以明確回應(yīng)的,而理論界則需要在技術(shù)的不確定性、權(quán)利的主體性挑戰(zhàn)以及人性問題上展開進(jìn)一步的研究,并在此基礎(chǔ)上為未來的立法回應(yīng)提供理論層面的支撐,結(jié)合功利取向進(jìn)行相應(yīng)立法。

      (二)人工智能立法科學(xué)性的功利考量

      人工智能之所以具有廣泛的熱度和關(guān)注度,不僅因?yàn)樗鼤?huì)引發(fā)上述道義層面的挑戰(zhàn),更在于它具有豐厚的功利價(jià)值,即創(chuàng)新驅(qū)動(dòng)和經(jīng)濟(jì)發(fā)展這一目的指向,可以說,誰率先占領(lǐng)了人工智能這一廣闊領(lǐng)域,誰就贏得了第四次工業(yè)革命的主導(dǎo)權(quán)。人工智能技術(shù)作為重要的生產(chǎn)力要素,對于推動(dòng)經(jīng)濟(jì)和社會(huì)發(fā)展發(fā)揮著無可替代的關(guān)鍵作用?!兑?guī)劃》將人工智能定位在“國際競爭的新焦點(diǎn)”“經(jīng)濟(jì)發(fā)展的新引擎”“社會(huì)建設(shè)的新機(jī)遇”的國家戰(zhàn)略高度,黨的十九大報(bào)告更是提出“推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合”的目標(biāo)要求??梢灶A(yù)見,隨著人工智能尤其是通用人工智能的發(fā)展,自動(dòng)駕駛、遠(yuǎn)程醫(yī)療等新領(lǐng)域正在逐步變?yōu)楝F(xiàn)實(shí),這都使得人工智能成為未來國家實(shí)力和國際競爭的一個(gè)關(guān)鍵所在。因此,“如何在確保人工智能技術(shù)不至于觸及法律底線和引發(fā)倫理道德問題的前提下,最大程度地發(fā)揮其促進(jìn)生產(chǎn)力發(fā)展、促進(jìn)社會(huì)進(jìn)步的功能,就必然成為亟待解答的時(shí)代課題”〔38〕。這一時(shí)代課題要求立法科學(xué)性進(jìn)行與之相適應(yīng)的制度跟進(jìn),要求人工智能的發(fā)展能夠有益于最廣大人民的根本利益,這是立法科學(xué)性的功利考量。具體而言,在經(jīng)由道義論約束的檢驗(yàn)之后,人工智能立法應(yīng)當(dāng)在以下三個(gè)階段進(jìn)行權(quán)衡設(shè)計(jì),以此來保證其科學(xué)性:

      1.研究和開發(fā)階段

      在人工智能的研究和開發(fā)階段,法律和政策的積極或消極態(tài)度將對其產(chǎn)生關(guān)鍵性的影響。現(xiàn)實(shí)中,不同的國家和地區(qū)對人工智能也是采取了不同的應(yīng)對思路。德國工程和機(jī)器人行業(yè)協(xié)會(huì)(VDMA)指出,人工智能目前給人類帶來的好處要遠(yuǎn)遠(yuǎn)勝于其弊端,立法者不應(yīng)該倉促出臺(tái)規(guī)制措施來阻礙其發(fā)展,更沒有必要制定詳細(xì)的法律規(guī)則。美國的《人工智能未來法案2017》更是旗幟鮮明地主張要大力發(fā)展人工智能,如建立有利環(huán)境、優(yōu)先發(fā)展人工智能、支持和推動(dòng)其發(fā)展應(yīng)用等。與之相反,歐盟議會(huì)則主張通過制定民事規(guī)范來限制機(jī)器人的生產(chǎn)。中國在《規(guī)劃》中進(jìn)行了“發(fā)展為主、控制潛在風(fēng)險(xiǎn)為輔”的戰(zhàn)略布局,就此而言,相關(guān)人工智能立法的基本取向應(yīng)當(dāng)是支持、賦權(quán)和引導(dǎo)并營造有利的法律環(huán)境,以便響應(yīng)“以提升新一代人工智能科技創(chuàng)新能力為主攻方向”的政策號召。

      科技發(fā)展有其自身的規(guī)律,立法者只有在此客觀基礎(chǔ)上進(jìn)行審視而不是基于主觀臆想,這樣才能符合科學(xué)立法中的功利考量。在鼓勵(lì)人工智能發(fā)展的前提下,立法者應(yīng)當(dāng)突出人工智能發(fā)展的重點(diǎn)方向和關(guān)鍵領(lǐng)域并進(jìn)行具體而有針對性的立法,這意味著,目前尚不具備足夠成熟的條件針對人工智能進(jìn)行體系化的立法,因而有必要為技術(shù)發(fā)展留下足夠廣闊的想象力空間〔39〕,這是體現(xiàn)當(dāng)下立法科學(xué)性的內(nèi)在要求。與之相關(guān),在弱人工智能時(shí)期或通用人工智能階段,立法者應(yīng)當(dāng)就具體領(lǐng)域進(jìn)行相應(yīng)的立法設(shè)計(jì)以便回應(yīng)系列現(xiàn)實(shí)問題。比如說,在自動(dòng)駕駛汽車立法問題上,既有法律體系和立法思路具有重要參考價(jià)值,而不需要完全重新開始,而是可以選擇諸如通過修改交通肇事罪、危險(xiǎn)駕駛罪或增設(shè)人工智能重大安全事故罪等方式來進(jìn)行局部性、針對性立法〔40〕。與此同時(shí),還可以通過立法解釋、法律修改、條文增設(shè)等法律技術(shù)手段將諸多涉及人工智能問題的分散性內(nèi)容有序地納入既有法律體系之中,以便于維持法律體系的穩(wěn)定性、保障立法的科學(xué)性,同時(shí)也能為將來人工智能立法提供一個(gè)緩沖。在更為細(xì)致的問題上,由政府制定標(biāo)準(zhǔn),省市進(jìn)行試點(diǎn),并在此基礎(chǔ)上通過總結(jié)經(jīng)驗(yàn)來凝練法律條文,這也不失為一條可行的進(jìn)路,且也符合中國當(dāng)下的相關(guān)實(shí)踐,如北京、深圳等地對自動(dòng)駕駛汽車就進(jìn)行了這種意義上的立法嘗試。

      2.運(yùn)用和轉(zhuǎn)化階段

      如果說人工智能的研究和開發(fā)階段,立法者可以通過支持或抑制來進(jìn)行“門檻把關(guān)”的話,那法律在人工智能運(yùn)用和轉(zhuǎn)化階段所要處理和回應(yīng)的則會(huì)相對比較復(fù)雜。在宏觀層面,雖然人工智能的研究和開發(fā)能力是國家軟實(shí)力的重要組成部分,但作為一門技術(shù)的人工智能只有通過轉(zhuǎn)化為現(xiàn)實(shí)的生產(chǎn)能力時(shí)才能真正發(fā)揮實(shí)效,因此,如何加快人工智能與經(jīng)濟(jì)、社會(huì)、國防等領(lǐng)域的深度融合,這是立法者在進(jìn)行立法設(shè)計(jì)時(shí)應(yīng)予考慮的問題。人工智能與經(jīng)濟(jì)的深度融合有助于經(jīng)濟(jì)的轉(zhuǎn)型升級,發(fā)展智能經(jīng)濟(jì),從而提升國家的綜合經(jīng)濟(jì)實(shí)力和生產(chǎn)力;人工智能與社會(huì)的深度融合有助于優(yōu)化社會(huì)資源,建設(shè)智能社會(huì),進(jìn)一步加快國家治理體系和治理能力的現(xiàn)代化;人工智能與國防領(lǐng)域的深度融合有助于維護(hù)國家安全,提升應(yīng)對國際風(fēng)險(xiǎn)挑戰(zhàn)的國家競爭力?!兑?guī)劃》指出的“發(fā)展智能經(jīng)濟(jì),建設(shè)智能社會(huì),維護(hù)國家安全”是人工智能立法在運(yùn)用和轉(zhuǎn)化階段的法理依據(jù)和基本的功利考量。在促進(jìn)人工智能良性轉(zhuǎn)化的同時(shí),立法者也應(yīng)考慮到人工智能在向現(xiàn)實(shí)轉(zhuǎn)化時(shí)所帶來的危機(jī)和挑戰(zhàn),這構(gòu)成了功利的背面。由于人工智能在向現(xiàn)實(shí)轉(zhuǎn)化時(shí)所帶來的危機(jī)和挑戰(zhàn)相對比較復(fù)雜和多樣,這會(huì)使得立法回應(yīng)同樣變得更為復(fù)雜,這也是立法者實(shí)踐智慧得以展現(xiàn)的契機(jī)。

      在經(jīng)濟(jì)層面,通用人工智能的大量應(yīng)用可能會(huì)導(dǎo)致大量失業(yè)問題,而現(xiàn)有的勞動(dòng)方面的法律并無相應(yīng)規(guī)定。此外,掌握人工智能先進(jìn)技術(shù)的大企業(yè)會(huì)使傳統(tǒng)制造業(yè)以及其他與互聯(lián)網(wǎng)不具直接相關(guān)性的行業(yè)明顯處于劣勢,中小企業(yè)同樣會(huì)面臨邊際效應(yīng)不斷遞減的情況,強(qiáng)者會(huì)越強(qiáng),弱者會(huì)越弱。在社會(huì)和國家安全層面,人工智能對社會(huì)治理所構(gòu)成的危害源于“算法”的非中立性和偏私性,“它毫不遮掩地服務(wù)于設(shè)計(jì)者植入其中的目的”〔41〕。通過人工智能進(jìn)行的社會(huì)治理很容易使得法律的行使和社會(huì)的監(jiān)管被牽著鼻子走,從而使得人被算法所統(tǒng)治,并導(dǎo)致社會(huì)治理的異化和國家安全存在本身之“目的因”的消退。如果說發(fā)展智能經(jīng)濟(jì)、智能社會(huì)和智能國家安全的最大功利在于最廣大人民的根本利益的話,那么人工智能在轉(zhuǎn)化階段的立法就必須回到最大幸福的承載者,即人本身,并以“以人為本”為底線防止人工智能對人造成的異化,進(jìn)而推動(dòng)人工智能的可持續(xù)發(fā)展和智能化成果的共享。

      3.評估階段

      由于“人工智能”這一事物本身的特殊性,立法者有必要在“評估”問題上對人工智能進(jìn)行設(shè)計(jì),以管理和監(jiān)督人工智能的可行性和安全性。評估是當(dāng)前法律認(rèn)知的重要途徑,人工智能評估更應(yīng)是法治評估的組成部分。法律層面的人工智能評估不同于技術(shù)評估,更不是對人工智能相關(guān)法律的評估,它主要是對“人工智能”這一對象及其活動(dòng)的風(fēng)險(xiǎn)評估。具體而言,評估包括事前評估、事中評估以及事后評估,所評估的內(nèi)容可分為安全性、經(jīng)濟(jì)性和倫理性三個(gè)方面。首先,在事前評估階段,根本性地侵犯倫理性的人工智能應(yīng)當(dāng)在事前評估階段就給予否定性評價(jià),就像對基因編輯技術(shù)的處理一樣,對于安全性不確定而經(jīng)濟(jì)效益巨大的人工智能應(yīng)基于功利的考慮進(jìn)行相對寬松的評估環(huán)境設(shè)置。其次,對人工智能在現(xiàn)實(shí)社會(huì)中運(yùn)用情況的事中評價(jià),立法設(shè)計(jì)應(yīng)主要集中在安全性和倫理性方面,如不安全使用的頻率、已造成的倫理風(fēng)險(xiǎn)等內(nèi)容,并以此使人工智能技術(shù)在安全的前提下創(chuàng)造更大的功利價(jià)值。最后,事后評估應(yīng)是綜合評估,立法設(shè)計(jì)應(yīng)在功利導(dǎo)向、安全為基、道義為輔的框架下進(jìn)行全面審視,并將信息反饋到新一輪的人工智能規(guī)劃中。應(yīng)該說,法律層面的人工智能評估從縱向上涵括了人工智能的整個(gè)階段,同時(shí)也有能力從橫向上對人工智能的整個(gè)內(nèi)容進(jìn)行評估化處理,因而同時(shí)可以兼顧倫理風(fēng)險(xiǎn)和經(jīng)濟(jì)發(fā)展問題。

      由于當(dāng)前的人工智能立法要響應(yīng)“發(fā)展為主、控制潛在風(fēng)險(xiǎn)為輔”的戰(zhàn)略布局,因此類似“人工智能法”之類的綜合性法律之制定肯定是不現(xiàn)實(shí)的(此前已作考察,故不贅述),但卻可以以“評估”為基本思路頒布或擬定“人工智能評估法”性質(zhì)的法律或部門規(guī)章,以便于實(shí)現(xiàn)對人工智能全過程的法律管理和監(jiān)督,這一路徑既能夠?qū)崿F(xiàn)發(fā)展的功利需求,也能夠容納道義論限制的內(nèi)容。這意味著,在通過道義論約束針對性地應(yīng)對人工智能引發(fā)的法律挑戰(zhàn)的特殊性之后,既有立法范式和思維在可見的一段時(shí)期內(nèi)仍大有可為。

      五、在“功利”與“道義”之間尋求立法的科學(xué)性

      人工智能兼具功利與道義的雙重屬性。作為一種日新月異的科技,它“具有為行業(yè)和社會(huì)創(chuàng)造巨大效益的潛能,因此有必要積極推動(dòng)其發(fā)展”〔1〕。對此,最有效的法律方式就是進(jìn)行支持、鼓勵(lì)和賦權(quán)式立法。但其潛在的道義論挑戰(zhàn)又使得立法者不得不保持一種“遠(yuǎn)慮”,因?yàn)樗赡軙?huì)使得“人類在世界存在系統(tǒng)中失去了地位,人類不再重要,歷史將失去意義,人類文明將成為遺跡,未來也不再屬于人類,人類文明數(shù)千年的創(chuàng)世紀(jì)將被終結(jié)而開始人工智能的‘創(chuàng)世紀(jì)’”〔29〕。此類“遠(yuǎn)慮”初看起來似乎有些危言聳聽,但也并非空穴來風(fēng),實(shí)際上這種遠(yuǎn)慮正是立法者憑借其實(shí)踐智慧應(yīng)予以重點(diǎn)關(guān)注的主要內(nèi)容所在。道義論論辯所提供的“絕對義務(wù)”或“絕對命令”會(huì)因?yàn)槿斯ぶ悄軐?shí)質(zhì)性挑戰(zhàn)的變現(xiàn)而消解功利價(jià)值的正當(dāng)性,從而轉(zhuǎn)入捍衛(wèi)人類中心主義的道路,但是,在弱人工智能階段,法律無疑會(huì)因其功利價(jià)值的刺激而予以鼓勵(lì),而實(shí)質(zhì)性挑戰(zhàn)的“潛在可能性”又不得不使立法者必須對其予以特殊對待。一方面,法律應(yīng)當(dāng)設(shè)置一些基本性的門檻檢驗(yàn)以捍衛(wèi)法律的安全、權(quán)利和人性基礎(chǔ),在未通過其檢驗(yàn)時(shí),無論功利價(jià)值如何巨大的人工智能都不能獲得成立;另一方面,如果通過了道義論的門檻檢驗(yàn),那么人工智能發(fā)展就可以基于功利要求尋求獲得肯定性支持。在具體問題的抉擇以及具體條文的設(shè)計(jì)上,立法科學(xué)性要求立法者必須充分發(fā)揮好“在功利與道義之間”的立法技藝,從而實(shí)現(xiàn)功利與道義的雙贏。

      參考文獻(xiàn):

      〔1〕龍衛(wèi)球.科技法迭代視角下的人工智能立法〔J〕.法商研究,2020,(1):59,65,65.

      〔2〕John Cheney-Lippold. We Are Date: Algorithms and the Making of Our Digital Selves〔M〕. New York: New York University Press, 2017:244-268.

      〔3〕約翰·塞爾.心靈導(dǎo)論〔M〕.徐英瑾,譯.上海:上海人民出版社,2019:108-193,64.

      〔4〕夏妍娜,趙勝.中國制造2025:產(chǎn)業(yè)互聯(lián)網(wǎng)開啟新工業(yè)革命〔M〕.北京:機(jī)械工業(yè)出版社,2016:146.

      〔5〕H. L. A. Hart. The Concept of Law〔M〕. Oxford: Clarendon Press, 1994: 40.

      〔6〕龍衛(wèi)球.人工智能立法的“技術(shù)-社會(huì)+經(jīng)濟(jì)”范式〔J〕.武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,(1):68,69,72.

      〔7〕王榮余.“機(jī)器人也是人”的法理拷問〔J〕.社會(huì)科學(xué)動(dòng)態(tài),2019,(11):18-23.

      〔8〕凱爾森.法與國家的一般理論〔M〕.沈宗靈,譯.北京:中國大百科全書出版社,1996:107.

      〔9〕馮潔.人工智能體法律主體地位的法理反思〔J〕.東方法學(xué),2019,(4):43-54.

      〔10〕王榮余.重訪法律制度主義:新舊之別與異同之辨〔J〕.學(xué)術(shù)月刊,2020,(9):114.

      〔11〕約翰·塞爾.人類文明的結(jié)構(gòu):社會(huì)世界的構(gòu)造〔M〕.文學(xué)評,盈俐,譯.北京:中國人民大學(xué)出版社,2014:44-64.

      〔12〕 Joseph Raz. The Authority of Law: Essays on Law and Morality〔M〕. Oxford: Oxford University Press, 1979:10.

      〔13〕 Lon L. Fuller. The Morality of Law〔M〕. New Haven: Yale University Press, 1969: 46-91.

      〔14〕德萊夫.后果主義〔M〕.余露,譯.北京:華夏出版社,2016:2,179-180.

      〔15〕張曦.后果主義與道德約束〔J〕.倫理學(xué)研究,2014,(4):15.

      〔16〕杰里米·邊沁.政府片論〔M〕.沈叔平,譯.北京:商務(wù)印書館,1995:92.

      〔17〕潘銘方.人工智能:從規(guī)劃邁向立法〔J〕.電子知識(shí)產(chǎn)權(quán),2018,(4):85.

      〔18〕弗蘭克納.倫理學(xué)〔M〕.關(guān)鍵,譯.北京:三聯(lián)書店,1987:28.

      〔19〕康德.道德形而上學(xué)原理〔M〕.苗力田,譯.上海:上海人民出版社,2018:72.

      〔20〕張曦.“道義論約束”與“行動(dòng)者中心”進(jìn)路〔J〕.哲學(xué)動(dòng)態(tài),2014,(3):64.

      〔21〕方毅.功利論與道義論的對立及其超越〔J〕.學(xué)術(shù)交流,2008,(8):21.

      〔22〕徐向東.自我、他人與道德:道德哲學(xué)導(dǎo)論〔M〕.北京:商務(wù)印書館,2016:357.

      〔23〕張曦.理解道義論:“犧牲者中心”進(jìn)路與人的道德地位〔J〕.道德與文明,2014,(1):41-48.

      〔24〕溫德爾·艾倫.道德機(jī)器〔M〕.王小紅,等,譯.北京:北京大學(xué)出版社,2017:188.

      〔25〕馬長山.人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制〔J〕.法律科學(xué),2018,(6):49.

      〔26〕詹姆斯·巴拉特.我們最后的發(fā)明:人工智能與人類時(shí)代的終結(jié)〔M〕.閭佳,譯.北京:電子工業(yè)出版社,2016:239.

      〔27〕司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)〔J〕.法律科學(xué),2017,(5):169-170.

      〔28〕李晟.人工智能的立法回應(yīng):挑戰(zhàn)與對策〔J〕.地方立法研究,2019,(5):65,68.

      〔29〕趙汀陽.人工智能“革命”的“近憂”與“遠(yuǎn)慮”:一種倫理學(xué)和存在論的分析〔J〕.哲學(xué)動(dòng)態(tài),2018,(4):8,10.

      〔30〕汪太賢.權(quán)利泛化與現(xiàn)代人的權(quán)利生存〔J〕.法學(xué)研究,2014,(1):7-9.

      〔31〕黃濤.主體性時(shí)代的權(quán)利理論〔J〕.法制與社會(huì)發(fā)展,2019,(1):52.

      〔32〕鄭戈.在鼓勵(lì)創(chuàng)新與保護(hù)人權(quán)之間:法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn)〔J〕.探索與爭鳴,2016,(7):79.

      〔33〕 Isaac Asimov. Runaround〔M〕. New York: Doubleday, 1950: 40.

      〔34〕皮埃羅·斯加魯菲.人工智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問題〔M〕.任莉,譯.北京:人民郵電大學(xué)出版社,2017:23.

      〔35〕喬治·扎卡達(dá)基斯.人類的終極命運(yùn):從舊石器到人工智能的未來〔M〕.陳朝,譯.北京:中信出版社,2017:276.

      〔36〕陳景輝.人工智能的法律挑戰(zhàn):應(yīng)該從哪里開始?〔J〕.比較法研究,2018,(5):144.

      〔37〕約翰·韋弗.機(jī)器人也是人:人工智能時(shí)代的法律〔M〕.鄭志峰,譯.臺(tái)北:元照出版公司,2018:中文序言.

      〔38〕武雪健.人工智能立法的海外狀況及難點(diǎn)分析〔J〕.互聯(lián)網(wǎng)經(jīng)濟(jì),2019,(4):49.

      〔39〕鄭戈.如何為人工智能立法〔J〕.檢察風(fēng)云,2018,(7):17.

      〔40〕李振林.人工智能刑事立法圖景〔J〕.華南師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018,(6):130-133.

      〔41〕鄭戈.人工智能與法律的未來〔J〕.探索與爭鳴,2017,(10):81.

      Between Deontology and Utilitarianism:

      The Scientificity of Chinas Artificial Intelligence Legislation

      WANG Rongyu

      Abstract: The challenges coming from Artificial Intelligence technology have the features of both Deontology and Utilitarianism, which requires that the lawmakers on Artificial Intelligence should go beyond the modern Techno-Economism pattern and turn to a new pattern which stands “between Deontology and Utilitarianism”, so as to guide and safeguard a scientific legislation of AI. The constrains of Deontology set the basic requirement that AI should be tested by Deontology firstly and then turned into utilitarian considerations, otherwise it will not work. Specifically, Artificial Intelligence legislation should focus on the Deontology challenges coming from the issues of Security, Right and Humanity, and then make a legislation choice to encourage, to support and to guide during all the stages of researches, exploitations and applications. In addition, it should be managed and supervised supported by the AI evaluation before, in and after. At the matter of special issues, scientific Artificial Intelligence legislation requires legislators to make a balance legislation between Deontology and Utilitarianism so as to acquire win-win results.

      Key words: Artificial Intelligence; scientific legislation; Deontology; Utilitarianism

      (責(zé)任編輯:陳艷艷)

      保留英文單位

      猜你喜歡
      功利主義功利人工智能
      康有為早期政治思想的功利主義解讀
      新高考改革選科制下功利取向分析
      2019:人工智能
      人工智能與就業(yè)
      法律解釋的功利主義傾向
      不能將功利主義標(biāo)簽化
      數(shù)讀人工智能
      淺析西方現(xiàn)代功利主義
      下一幕,人工智能!
      從古典到功利:“公民美德”的立法化拯救
      靖西县| 黔江区| 宽城| 济源市| 南靖县| 饶阳县| 拉萨市| 平山县| 军事| 宣威市| 噶尔县| 灵石县| 卢氏县| 汉阴县| 平顶山市| 云龙县| SHOW| 怀仁县| 濉溪县| 柞水县| 汽车| 仪征市| 六安市| 凤阳县| 新郑市| 东丽区| 东平县| 樟树市| 元氏县| 宁安市| 甘孜县| 华坪县| 邵阳县| 贵南县| 聊城市| 安徽省| 襄汾县| 呼和浩特市| 新民市| 双桥区| 万盛区|