• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能情境下的行政裁量存在嗎?
      ——兼論行政裁量治理的技術(shù)挑戰(zhàn)

      2022-11-21 10:33:37侍海艷
      關(guān)鍵詞:裁量要件行政

      劉 星, 侍海艷

      (1.東南大學(xué) 法學(xué)院,南京 211189;2.淮陰師范學(xué)院 法政學(xué)院,江蘇淮安 223001)

      當(dāng)下,人工智能儼然成為法學(xué)研究的學(xué)術(shù)熱點(diǎn),無論是法理學(xué)還是各部門法,基于人工智能的法學(xué)研究已占據(jù)著各類學(xué)術(shù)期刊的版面(1)。人工智能情境下的行政裁量問題,就是在這種研究熱潮中被提出的。然而,正如有學(xué)者所指出的,雖然人工智能法學(xué)研究空前繁盛,但卻出現(xiàn)了違反人類智力常識(shí)的反智化現(xiàn)象,概念附會(huì)現(xiàn)象嚴(yán)重,不少成果只是基于“AI+法律”的任意性組合,“泛人工智能化”研究正在產(chǎn)生大量學(xué)術(shù)泡沫[1]。這不得不引起我們的反思:人工智能情境下的行政裁量是人工智能法學(xué)研究中“AI+法律”式的概念附會(huì)嗎;人工智能情境下的行政裁量真的存在嗎;如若存在,在何種情形下存在;其具體形態(tài)有哪些;人工智能是否對當(dāng)下的行政裁量治理提出了根本性挑戰(zhàn)?

      正如美國行政法學(xué)家科克教授所言,“行政法已被裁量的術(shù)語所統(tǒng)治”[2]469。身處智能的新時(shí)代,無論是行政主體還是行政相對人,都能時(shí)時(shí)感受到人工智能與大數(shù)據(jù)、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、區(qū)塊鏈、云計(jì)算等現(xiàn)代新興技術(shù)結(jié)合所帶來的公共行政革命式變遷,以公共行政為研究對象的行政法將理論視野投射至人工智能,并考察其與行政裁量的關(guān)系,便成為水到渠成、自然而然的事情了。然而,“行政的生命在于裁量,行政法的核心在于通過法治實(shí)現(xiàn)對行政裁量問題的有效治理”[3]121,故而,在考察人工智能與行政裁量之間的關(guān)系時(shí),我們要格外理性、細(xì)致、審慎,不僅要厘清基礎(chǔ)性概念的內(nèi)涵與外延,從而避免出現(xiàn)常識(shí)性謬誤以及學(xué)術(shù)研究的“偽問題”,而且應(yīng)該盡可能納入現(xiàn)有的行政法教義分析框架,避免就問題論問題所導(dǎo)致的對策論代替教義論?;谝陨峡紤],筆者嘗試在梳理相關(guān)國內(nèi)外文獻(xiàn)的基礎(chǔ)上,從人工智能的界分、人工智能下行政行為的成立條件以及行政裁量的內(nèi)在結(jié)構(gòu)三個(gè)方面對人工智能與行政裁量的關(guān)系進(jìn)行考察,探討行政裁量治理所面臨的技術(shù)挑戰(zhàn)。

      一、研究綜述

      雖然當(dāng)前人工智能法學(xué)研究蔚為大觀,行政裁量的研究成果也日益豐碩,但是關(guān)于人工智能與行政裁量關(guān)系的系統(tǒng)性研究并不多,因此有必要圍繞此主題對已有的國內(nèi)外文獻(xiàn)進(jìn)行綜述,以展現(xiàn)當(dāng)前的研究進(jìn)展,明確研究的創(chuàng)新起點(diǎn)。

      (一)國內(nèi)文獻(xiàn)

      就國內(nèi)而言,無論是我國大陸還是臺(tái)灣地區(qū)(2),關(guān)于人工智能與行政裁量關(guān)系的系統(tǒng)性研究并未出現(xiàn),但并不是說沒有學(xué)者關(guān)注此問題,只不過關(guān)于此問題的論述在文獻(xiàn)中都是片段式地提及,尚未做專項(xiàng)研究。從已有的文獻(xiàn)看,涉及該主題的研究內(nèi)容主要集中在兩個(gè)方面:一是人工智能條件下行政裁量存在與否;二是人工智能情境下行政裁量的控制問題。

      一方面,部分學(xué)者從行政裁量的綜合性與復(fù)雜性出發(fā)否定人工智能行政裁量的存在,傾向于認(rèn)為人工智能只能作為行政裁量的輔助工具。宋華琳等認(rèn)為,在當(dāng)前的公共行政中,人工智能的引入相對更多集中于事實(shí)認(rèn)定環(huán)節(jié),相對更多適用于羈束行為而非裁量行為?,F(xiàn)實(shí)行政情境都涉及個(gè)案中的復(fù)雜權(quán)衡,而人工智能能否勝任此項(xiàng)工作,能力存疑,因此否定人工智能裁量的存在[4]82-90。以行政許可為例,宋華琳認(rèn)為,人工智能系統(tǒng)的引入并不能完全取代行政許可機(jī)關(guān)的裁量判斷,面對特定個(gè)案中多元利害關(guān)系主體和錯(cuò)綜復(fù)雜的利益沖突,行政許可機(jī)關(guān)需要脫離人工智能系統(tǒng)和電子化許可規(guī)則的束縛,轉(zhuǎn)而回歸傳統(tǒng)的行政裁量[5]。

      另一方面,部分學(xué)者認(rèn)為人工智能條件下存在行政裁量,應(yīng)考慮人工智能情境下行政裁量的控制問題。查云飛認(rèn)為既然裁量基準(zhǔn)能在同案同處理和個(gè)案處理之間保持適當(dāng)平衡,從而被行政法所允許,那么,行政機(jī)關(guān)依賴全自動(dòng)設(shè)備做出具體行政行為也未嘗不可??梢园凑詹煌姓顒?dòng)類型綜合考慮相關(guān)因素,將裁量基準(zhǔn)在算法規(guī)則中提前預(yù)制,從而實(shí)施自動(dòng)化裁量[6]167-179。作者以此次新冠疫情中的健康碼為例,深入分析健康碼的管理規(guī)定的裁量基準(zhǔn)功能,明確作為人工智能工具的健康碼在個(gè)案行政中的裁量壓縮作用[7]。馬顏昕認(rèn)為,自動(dòng)化行政應(yīng)該區(qū)分為自動(dòng)化輔助行政、部分自動(dòng)化行政、無裁量能力的完全自動(dòng)化行政、有裁量能力的完全自動(dòng)化行政等多個(gè)級別[8]。作者以自動(dòng)化行政方式下的行政處罰為例,系統(tǒng)考察行政處罰中完全自動(dòng)化行政中的裁量情形,并且提出必須對自動(dòng)化輔助異化保持警惕。在歸責(zé)上,近期自動(dòng)化行政處罰的賠償責(zé)任宜采用無過錯(cuò)責(zé)任原則,長遠(yuǎn)看將自動(dòng)化系統(tǒng)錯(cuò)誤導(dǎo)致的責(zé)任予以單獨(dú)類型化,從而確定專門的責(zé)任構(gòu)成要件[9]。

      (二)國外文獻(xiàn)

      國外關(guān)于人工智能的法學(xué)研究早在20世紀(jì)80年代已經(jīng)開啟,盡管曾因人工智能技術(shù)研究陷入低潮而一度沉寂,然而近年人工智能的飛躍式發(fā)展再次掀起法學(xué)研究的熱潮。有關(guān)數(shù)字行政裁量的問題在國外行政法研究中已有較為豐富的知識(shí)沉淀。

      在德國,行政法學(xué)家的主流觀點(diǎn)認(rèn)為人工智能情形下的自動(dòng)化系統(tǒng)參與行政活動(dòng)并不影響行政行為的成立。關(guān)于這一點(diǎn),毛雷爾教授很早就給予了相關(guān)論述[10]。然而,對人工智能是否能夠進(jìn)行行政裁量,學(xué)者們的觀點(diǎn)仍然存在分歧。Wolff等認(rèn)為,行政機(jī)關(guān)在作成裁量決定或于判斷余地從事活動(dòng)時(shí),需合理斟酌有關(guān)個(gè)案之一切情況,電腦自動(dòng)作業(yè)受規(guī)格化之限制,不能符合此要求,所為決定屬違法。此外,以電腦對當(dāng)事人做成決定,無異以機(jī)器決定人之命運(yùn),亦抵觸憲法對一般人格權(quán)之保障[11]。與之相反,Badura認(rèn)為,行政機(jī)關(guān)得依行政規(guī)則(裁量準(zhǔn)則)作成裁量決定。在以電腦自動(dòng)化作業(yè)時(shí),考慮各種因素之作業(yè)程式即無異于行政規(guī)則。因此,并不完全排除裁量決定之自動(dòng)處理[12]。從德國當(dāng)前的制定法上看,人工智能領(lǐng)域的行政裁量并未獲得認(rèn)可,相關(guān)立法嚴(yán)格地排除行政行為中存有不確定法律概念和裁量的情形,人工智能下的全自動(dòng)行政行為只允許存在于羈束行政之中(3)。當(dāng)然,這很可能是因?yàn)楫?dāng)時(shí)的立法者并未意識(shí)到人工智能會(huì)發(fā)展如此迅速,因此不排除今后立法可能產(chǎn)生松動(dòng)。

      在英美,由于對行政裁量界定的寬泛性,人工智能能否參與行政裁量經(jīng)歷了從全盤否定適用到局部肯定適用的過程,并已開始探討人工智能裁量的控制技術(shù)與責(zé)任歸屬問題。Lipsky基于裁量過程中人的意識(shí)判斷過程,否定公共行政中數(shù)字裁量的可能性[13]。Busch等梳理了1998年至2017年有關(guān)數(shù)字裁量與街頭官僚之間關(guān)系的44篇文獻(xiàn),反駁了Lipsky“公共行政服務(wù)提供需要人類的判斷,而這無法編程,機(jī)器無法替代人類”的觀點(diǎn),并明確當(dāng)前的研究任務(wù)是評估數(shù)字自由裁量權(quán)的影響,解釋不同類型的現(xiàn)代信息技術(shù)如何影響街頭官僚數(shù)字裁量權(quán)[14]。Barth在系統(tǒng)梳理人工智能文獻(xiàn)的基礎(chǔ)上,提出了包括回應(yīng)、判斷和問責(zé)在內(nèi)的與行政裁量權(quán)有關(guān)的經(jīng)典困境,并認(rèn)為,人工智能領(lǐng)域的進(jìn)步將引領(lǐng)計(jì)算的新水平,人工智能系統(tǒng)將有能力做出自主代理,并學(xué)會(huì)獨(dú)立學(xué)習(xí),評估周邊環(huán)境,并具有用價(jià)值觀、動(dòng)機(jī)和情感來進(jìn)行思考的能力[15]。Bullock詳細(xì)分析了人工智能、裁量和官僚之間的關(guān)系,并得出結(jié)論:盡管有證據(jù)表明,自由裁量權(quán)可能會(huì)縮小,但需要更多的理論和實(shí)證研究來更好地理解這種變化的全部影響。復(fù)雜性和不確定性低的任務(wù)最有可能被人工智能自動(dòng)處理,而復(fù)雜性和不確定性高的任務(wù)應(yīng)該保留在人類主導(dǎo)的范圍內(nèi)[16]。另外,Bullock等通過對美國預(yù)測警務(wù)和醫(yī)療保險(xiǎn)中的典型數(shù)字裁量系統(tǒng)考察,發(fā)現(xiàn)人工智能對行政裁量的影響已呈現(xiàn)出非線性結(jié)構(gòu)[17]。Suksi認(rèn)為,為防范自動(dòng)決策帶來的裁量風(fēng)險(xiǎn),所有國家都有必要審查其行政正當(dāng)程序規(guī)則,以便使這些規(guī)則在自動(dòng)決策的要求方面跟上時(shí)代的步伐,只有基于規(guī)則的自動(dòng)化決策系統(tǒng)才能與法治相兼容[18]。劍橋大學(xué)Cobbe教授也持類似觀點(diǎn),并且強(qiáng)調(diào)通過法律規(guī)制提高算法技術(shù)透明度,從而規(guī)避自動(dòng)化行政決策風(fēng)險(xiǎn)[19]。

      綜上所述,人工智能情境下的行政裁量是否存在,無論是國內(nèi)還是國外并未達(dá)成統(tǒng)一。在探討這一問題時(shí),或許出于對技術(shù)的信任與期待,在英美等國家人工智能裁量的存在似乎已不言自明。再者,英美法系國家由于不像大陸法系國家一樣需要對法律要件做嚴(yán)謹(jǐn)細(xì)致的法教義學(xué)分析,整體上偏向討論如何治理人工智能裁量。然而,籠統(tǒng)地講人工智能行政裁量又給具有法教義學(xué)傳統(tǒng)的國家?guī)矸▽W(xué)理論上的挑戰(zhàn),正因如此,部分學(xué)者否認(rèn)人工智能行政裁量的存在,故而有必要對人工智能做類型學(xué)分析,進(jìn)而探討行政裁量問題。

      二、探討裁量存在與否的前提:人工智能情境下的行政行為能否證立?

      以往不少研究在探討人工智能行政裁量時(shí),往往忽略了一個(gè)前提條件:探討行政裁量存在與否的前提是人工智能情境下的行政行為能否成立。倘若行政行為不成立,又如何談行政裁量?即便從語義學(xué)的角度,分析人工智能情境下的行政裁量問題也必須對人工智能的內(nèi)涵有較為清晰的認(rèn)識(shí)。

      (一)人工智能的層級:意思表示能力存無的界分標(biāo)準(zhǔn)

      眾所周知,因人工智能太熱門而導(dǎo)致各行業(yè)都競相追趕、奮力融入相關(guān)的開發(fā)與應(yīng)用?!暗扇巳绾我驊?yīng)?面對這一波AI崛起,當(dāng)然也不能缺席!然有鑒于AI牽涉到相關(guān)的數(shù)學(xué)統(tǒng)計(jì)層面,所以對一般不具理工背景的法律人,要切入確有技術(shù)面上的障礙。即使如此,就算不去學(xué)AI相關(guān)之電腦語言和演算法,法律人也應(yīng)掌握基本的技術(shù)內(nèi)涵,具有一定認(rèn)知,再來看法律問題才比較容易切中要害!”[20]的確如此,當(dāng)前的人工智能法學(xué)研究熱潮之所以有為追趕熱點(diǎn)而制造學(xué)術(shù)泡沫的嫌疑,恐怕與尚未厘清人工智能等基礎(chǔ)概念的內(nèi)涵與外延存在莫大的關(guān)系。因此,有必要對人工智能做出層級上的界分。

      雖然法律人不能像AI開發(fā)者一樣對人工智能的方方面面都要有精深的理解和把握,但是對于人工智能的基本原理及其發(fā)展層級要有清醒的認(rèn)識(shí)。就人工智能的發(fā)展而言,其大致可以劃分為三個(gè)層級。第一層級,弱人工智能,只專注于完成某個(gè)特定的任務(wù),例如語音識(shí)別、圖像識(shí)別和翻譯,即擅長單個(gè)方面的人工智能。它們只是用于解決特定的具體類的任務(wù)問題而存在,大都是統(tǒng)計(jì)數(shù)據(jù),以此從中歸納出模型。由于弱人工智能只能處理較為單一的問題,且發(fā)展程度并沒有達(dá)到模擬人腦思維的程度,所以弱人工智能仍然屬于“工具”的范疇,與傳統(tǒng)的“產(chǎn)品”在本質(zhì)上并無區(qū)別。包括近年來出現(xiàn)的IBM的Watson和谷歌的Alpha Go,它們雖然是優(yōu)秀的信息處理者,但都屬于受到技術(shù)限制的弱人工智能。第二層級,強(qiáng)人工智能,屬于人類級別的人工智能,在多個(gè)方面都能和人類比肩。它能夠進(jìn)行思考、計(jì)劃、解決問題、抽象思維、理解復(fù)雜概念、快速學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)等操作,并且和人類一樣得心應(yīng)手。強(qiáng)人工智能系統(tǒng)包括了學(xué)習(xí)、語言、認(rèn)知、推理、創(chuàng)造和計(jì)劃,目標(biāo)是使人工智能在非監(jiān)督學(xué)習(xí)的情況下處理前所未見的細(xì)節(jié),并同時(shí)與人類開展交互式學(xué)習(xí)。在強(qiáng)人工智能階段,由于人工智能技術(shù)已經(jīng)可以比肩人類,同時(shí)也具備了具有“人格”的基本條件,因此機(jī)器可以像人類一樣獨(dú)立思考和決策。第三層級,超人工智能。牛津哲學(xué)家、知名人工智能思想家尼克·波斯特洛姆把超級智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學(xué)創(chuàng)新、通識(shí)和社交技能”[21]。在超人工智能階段,人工智能已經(jīng)跨過“奇點(diǎn)”,其計(jì)算和思維能力已經(jīng)遠(yuǎn)超人腦,此時(shí)的人工智能已經(jīng)不是人類可以理解和想象的。人工智能將打破人腦受到的維度限制,其所觀察和思考的內(nèi)容,人腦已經(jīng)無法理解,人工智能將形成一個(gè)新的社會(huì)。

      之所以要對人工智能進(jìn)行層級上的區(qū)分,原因在于這將決定不同人工智能情境下意思表示能力的存無,而意思表示能力的存無關(guān)系法律行為能否成立。很顯然,在弱人工智能階段,人工智能不具有獨(dú)立的意思表示能力,而只有在強(qiáng)人工智能階段以及超強(qiáng)人工智能階段意思表示能力才成為可能。

      (二)有無意思表示是否影響行政行為的證立?

      判定行政裁量存在與否的前提條件是裁量本身所依附的行政行為本身能否成立(4),但目前的學(xué)術(shù)爭論往往忽略了這一點(diǎn)而徑直討論裁量問題。整個(gè)大陸法系的行政法學(xué)都是由行政行為作為支柱性概念所構(gòu)筑起來的,而奧托·邁耶是借鑒民法中的意思表示構(gòu)筑行政行為概念時(shí),將行政行為界定為行政機(jī)關(guān)對臣民在個(gè)案中作出的決定其權(quán)力的高權(quán)宣示[22]。因而,意思表示成為行政行為能否成立的要素之一。正因如此,人工智能是否具有意思表示能力往往成為討論行政行為能否成立的條件。例如,德國法學(xué)家蔡德勒20世紀(jì)50年代即指出,即便將來機(jī)器能夠代替人工開展行政活動(dòng),但從行政法角度而言也應(yīng)該禁止,原因便是人的意思形成或意思表示無法由機(jī)器做出,因此應(yīng)當(dāng)區(qū)分人類活動(dòng)與機(jī)器活動(dòng)并構(gòu)建不同的責(zé)任體系[6]167-179。當(dāng)然,蔡德勒所處的時(shí)代并不是人工智能蓬勃發(fā)展的時(shí)代,目之能及的機(jī)器只是某種程度的機(jī)械自動(dòng)化,和當(dāng)前的人工智能不可同日而語。

      如果承認(rèn)人工智能系統(tǒng)是否具有意思表示能力關(guān)系行政行為的成立與否,那么前文中的人工智能層級的劃分就具有實(shí)質(zhì)意義了。在弱人工智能階段,由于人工智能并不具有獨(dú)立的意思表示能力,因此此時(shí)所謂的人工智能行政行為不能成立;在強(qiáng)人工智能階段和超強(qiáng)人工智能階段,由于人工智能具有獨(dú)立的意思表示能力,行政行為便能成立。就目前而言,人類所處的智能時(shí)代處于弱人工智能階段,因此我們可以得出結(jié)論:弱人工智能只能輔助公務(wù)人員做出行政決策,并不能獨(dú)立開展行政執(zhí)法活動(dòng),因?yàn)樾姓袨榈某闪⒁蕾嚨氖亲鳛楣珓?wù)人員的意思表示。這在現(xiàn)實(shí)立法中也得到印證?!兜聡?lián)邦程序法》立法過程中圍繞自動(dòng)行政是否具有意思表示能力,曾經(jīng)展開過激烈的爭論,立法的最終結(jié)果實(shí)際上否定了自動(dòng)行政行為具有意思表示的能力。由于自動(dòng)行政系統(tǒng)不具有“人性”(主要指心性、感情與靈性等),與作為公務(wù)人員的“人”存在本質(zhì)上的差異,因此無法形成自身的意思表示。向前再推進(jìn)一步,按照當(dāng)前的人工智能發(fā)展速度,假如人工智能發(fā)展到強(qiáng)人工智能階段,具有了獨(dú)立的意思表示能力,那結(jié)論還是如此嗎?由此即引出行政行為概念的主體資格問題。

      當(dāng)前的行政行為概念的主體構(gòu)建始終是圍繞行政主體而展開。不過,行政主體類似“法人”概念,只是行政法上的擬制概念。行政主體的運(yùn)作過程必須依賴一定的載體和手段,比如行政機(jī)關(guān)的公務(wù)人員即是行政主體得以運(yùn)作的“活的載體”。然而,作為自然人的公務(wù)人員雖然是行政機(jī)關(guān)開展行政活動(dòng)最主要的載體,但絕不是唯一的載體和手段。機(jī)器作為行政活動(dòng)的載體在現(xiàn)實(shí)中早已司空見慣,例如當(dāng)前的互聯(lián)網(wǎng)自動(dòng)審批系統(tǒng)即脫離人工的行政載體。由此觀之,無論是作為自然人的公務(wù)員,還是當(dāng)前所探討的“可能”具有法律人格的人工智能,都只是行政主體之下的行政行為載體而已,其只有得到行政主體的授權(quán)才能開展行政活動(dòng)。從這一角度出發(fā),人工智能是否具有意思表示能力并不影響行政行為的成立。而之所以產(chǎn)生意思表示能力有無是否影響行政行為證立的分歧,可能與行政法上行政行為的意思表示要素與民法上的民事行為意思表示要素未加嚴(yán)格區(qū)分有關(guān)[23]。無論是公務(wù)員的意思表示,還是人工智能的意思表示,其在行政行為的做出過程中都應(yīng)視為行政主體的意思表示?!凹幢闶褂每勺孕懈兄?、思考和行動(dòng)的人工智能機(jī)器,雖然會(huì)出現(xiàn)行政機(jī)關(guān)不可預(yù)測的情形,但根據(jù)行政行為意思表示的客觀推定原理,此時(shí)行政機(jī)關(guān)的意思將從機(jī)器對相對人權(quán)利義務(wù)是否直接產(chǎn)生影響的角度予以推定。無論如何,在行政法上,全自動(dòng)具體行政行為都不會(huì)因缺乏意思表示要素而不被證立?!盵6]174因此,有學(xué)者認(rèn)為,自動(dòng)化行政行為,乃至完全自動(dòng)化行政行為在我國也并不存在理論障礙[8]。即便自動(dòng)化行政與人工智能行政不能完全等同,由于是否具有意思表示能力并不成為行政行為成立與否的要素,因此人工智能情境下的行政行為是當(dāng)然成立的。

      三、人工智能能否在行政裁量的內(nèi)在構(gòu)造中得以實(shí)現(xiàn)?

      盡管人工智能是否具有意思表示能力并不影響行政行為的成立與否,但并不意味著行政法能夠承認(rèn)人工智能進(jìn)行行政裁量。行政裁量所具有的內(nèi)在構(gòu)造結(jié)構(gòu)制約著人工智能條件下的行政裁量。

      (一)行政裁量的內(nèi)在構(gòu)造

      行政裁量的內(nèi)部構(gòu)造即裁量存在于何處的問題。只有明確行政裁量是什么,才能知曉行政裁量存于何處。因此,探討人工智能能否進(jìn)行行政裁量,必須厘清行政裁量的內(nèi)在構(gòu)造。傳統(tǒng)上,關(guān)于行政裁量的內(nèi)部構(gòu)造,產(chǎn)生過裁量“一元論”和“二元論”的區(qū)分。裁量二元論堅(jiān)持將裁量問題與法律問題區(qū)別開來,裁量一元論正好相反,認(rèn)為裁量問題與法律問題并非各自獨(dú)立的二元,所有的行政裁量都是法律授權(quán)的結(jié)果 ,根本不存在不受法律約束的自由裁量[24]。但是不管是裁量一元論還是裁量二元論,在裁量的構(gòu)成上都存在著效果裁量與要件裁量,只不過一元論將效果裁量與要件裁量統(tǒng)合在一元之中,都要接受法律的約束以及司法監(jiān)督,而二元論則將效果要件排除在司法審查之外。探討人工智能行政裁量問題有必要在效果裁量與要件裁量的架構(gòu)下進(jìn)行。

      所謂“要件裁量”,其主要過程包括以下幾個(gè)步驟:第一步,在行政過程中通過查找證據(jù)來確定法律事實(shí);第二步,根據(jù)初步確定的法律事實(shí)搜尋對應(yīng)的法律規(guī)定,同時(shí)針對不確定的法律概念進(jìn)行法律解釋;第三步,將確定的法律事實(shí)帶入法律規(guī)范,判定其是否符合相關(guān)的法律要件,即要件裁量的實(shí)質(zhì)就是法律的“涵攝”(或稱為“等置”)過程。所謂“效果裁量”是指行政主體完成法律涵攝過程之后在選擇行為的效果上所享有的裁量自由。具體而言,效果裁量包括決定裁量和選擇裁量,前者指行政主體選擇做出或者不做出某種行政決定,后者指在做出行政決定時(shí)在時(shí)間、程序以及內(nèi)容上的不同選擇[25]31-40。以《中華人民共和國治安管理處罰法》第二十六條為例,“有下列行為之一的,處五日以上十日以下的拘留,可以并處五百元以下罰款;情節(jié)較重的,處十日以上十五日以下拘留,可以并處一千元以下罰款:(一)結(jié)伙斗毆的;(二)追逐、攔截他人的;(三)強(qiáng)拿硬要或者任意損毀、占用公私財(cái)物的;(四)其他尋釁滋事行為?!焙螢椤扒楣?jié)較重”就涉及要件裁量中的不確定法律概念,“處五日以上十日以下的拘留,可以并處五百元以下罰款”“處十日以上十五日以下拘留,可以并處一千元以下罰款”等屬于效果裁量。以《突發(fā)事件應(yīng)對法》第五十條,“社會(huì)安全事件發(fā)生后,組織處置工作的人民政府應(yīng)當(dāng)立即組織有關(guān)部門并由公安機(jī)關(guān)針對事件的性質(zhì)和特點(diǎn),依照有關(guān)法律、行政法規(guī)和國家其他有關(guān)規(guī)定,采取下列一項(xiàng)或者多項(xiàng)應(yīng)急處置措施……”“事件的性質(zhì)和特點(diǎn)”即是要件裁量中的不確定法律概念,可采取多種措施則是效果裁量。無論是要件裁量中不確定法律概念的解釋以及法律要件的判斷補(bǔ)充,還是效果裁量中行為的選擇,都涉及人的認(rèn)知問題,若以人工智能代替人類進(jìn)行判斷則可能會(huì)帶來不同的效果。

      (二)行政裁量內(nèi)在結(jié)構(gòu)制約人工智能的發(fā)揮

      盡管近年來我國的行政法適用多未對法規(guī)范的邏輯構(gòu)成進(jìn)行分析,在行政實(shí)務(wù)中以及司法審判中并沒有對行政裁量中的不確定法律概念與效果裁量做出二元區(qū)分,而是籠統(tǒng)地將行政主體適用法律規(guī)范的自由選擇視為行政裁量,傾向于支持“統(tǒng)一裁量觀”。但是,無論是行政實(shí)務(wù)部門制定的行政裁量基準(zhǔn),還是司法部門對行政裁量怠惰、逾越以及濫用的司法審查,其基本框架都是在要件裁量和效果裁量的架構(gòu)下進(jìn)行的。就人工智能參與當(dāng)前的行政活動(dòng)開展而言,其更多地適用于羈束行為中的事實(shí)認(rèn)定,即非裁量行為居多。受制于人工智能目前發(fā)展的技術(shù)局限性,人工智能尚未能有效滲透于行政裁量。但是伴隨著人工智能的迅速發(fā)展,人工智能是否能夠進(jìn)行行政裁量逐漸有了探討的空間。因此,有必要在法教義學(xué)的框架下,從行政裁量內(nèi)在構(gòu)造中的要件裁量和效果裁量出發(fā)進(jìn)行分析。

      首先,就行政裁量中的要件裁量而言,其核心在于對法律要件中的不確定法律概念進(jìn)行判斷認(rèn)知。盡管有學(xué)者否定要件裁量的存在,認(rèn)為不確定法律概念的解釋和適用實(shí)質(zhì)上只有唯一的正解,對正解的求解過程本質(zhì)上就是主觀認(rèn)識(shí)與客觀實(shí)際相符合的過程,并不涉及人的意志[26]。但是,正如有學(xué)者分析的那樣,不確定法律概念始終存在蓋然性的判斷,要最終確定法律適用的內(nèi)涵,不可避免摻雜著人的價(jià)值判斷等意志作用,“所謂的認(rèn)識(shí)作用和意志作用并不能作出明確的區(qū)分,故而否定要件裁量的學(xué)說是缺乏足夠的證據(jù)的”[25]33??梢姡瑢τ诓淮_定法律概念的理解,始終包含著人的主觀認(rèn)知和意志作用。行政法中的諸如公共利益、公益事業(yè)、情節(jié)嚴(yán)重、必要性、公共服務(wù)、公共安全等不確定法律概念的法律適用過程,必然涉及行政主體的主觀認(rèn)知與意志作用,更確切地說要依賴于行政主體的載體——得到授權(quán)的作為自然人的公務(wù)人員的權(quán)衡。而作為自然人的公務(wù)人員,只有在全面謹(jǐn)慎評估和權(quán)衡各種要素的前提下,才有可能公平公正進(jìn)行行政裁量,促進(jìn)裁量均衡。而綜合權(quán)衡的過程,必然會(huì)涉及個(gè)案的深層情況以及錯(cuò)綜復(fù)雜的利益衡量,人的價(jià)值觀、情感等主觀因素都可能滲入行政裁量之中。作為人工智能,有這個(gè)能力嗎?有學(xué)者認(rèn)為,“不確定法律概念會(huì)影響法律要件中事實(shí)認(rèn)定的準(zhǔn)確性,人工智能對此難以個(gè)案權(quán)衡,有可能加劇事實(shí)認(rèn)定的不準(zhǔn)確”[4]86。但正如前文所言,籠統(tǒng)地談人工智能是否有類似人的權(quán)衡能力是無意義的,人工智能的層級劃分中,弱人工智能毫無疑問尚不具備這樣的能力,但是強(qiáng)人工智能的情境下不排除會(huì)具有此項(xiàng)能力。

      其次,就行政裁量中的效果裁量而言,由人工智能進(jìn)行決定裁量和選擇裁量可能更難。按照目前學(xué)者們的多數(shù)看法,“效果裁量=要件裁量+適當(dāng)選擇”以及與之類似的“統(tǒng)一裁量觀”已經(jīng)占據(jù)主流觀點(diǎn)。也是說,效果裁量以要件裁量為前提,甚至在部分行政法學(xué)者的眼中,效果裁量是不存在的,一旦法律要件得到補(bǔ)充,所謂的效果選擇就是唯一的[27]。行政機(jī)關(guān)固然有權(quán)決定是否在實(shí)際的行政實(shí)踐中引入人工智能技術(shù),甚至決定是否采取裁量措施,但是如果法律要件裁量中的不確定法律概念尚不能得到人工智能的準(zhǔn)確界定,那么此時(shí)探討人工智能是否能夠進(jìn)行效果裁量就是毫無意義的。人工智能參與行政決策必然包含三個(gè)環(huán)節(jié): 第一個(gè)環(huán)節(jié),信息獲取,即人工智能技術(shù)將行政過程中的人、時(shí)、地等要素轉(zhuǎn)化為有待進(jìn)一步識(shí)別和處理的信息,本質(zhì)上是進(jìn)行初步的事實(shí)認(rèn)定; 第二個(gè)環(huán)節(jié),信息處理,即將第一步獲取的案件事件進(jìn)行抽象處理,并將其與所儲(chǔ)備的法律要件進(jìn)行匹配;第三個(gè)環(huán)節(jié),信息輸出,即根據(jù)對應(yīng)的法律規(guī)范輸出相應(yīng)的法律效果。理想中的模式是人工智能系統(tǒng)能夠如“自動(dòng)售貨機(jī)”一樣進(jìn)行輸出,從而提高行政效率。不過,人工智能算法中的這種代碼規(guī)則會(huì)忽視問題的復(fù)雜性,即便在強(qiáng)人工智能階段其能否應(yīng)對問題的復(fù)雜性仍然是存疑的。

      綜上所述,探討人工智能系統(tǒng)能否進(jìn)行行政裁量,始終繞不過法律規(guī)范中的要件裁量,其核心在于人工智能系統(tǒng)能否對不確定法律概念進(jìn)行認(rèn)知和判定。在當(dāng)前個(gè)案中的行政裁量中,人工智能都是處于弱人工智能階段,只能發(fā)揮輔助作用,只能參與相對簡單而重復(fù)的行政活動(dòng),而不能發(fā)揮實(shí)質(zhì)性的決定作用。雖然不排除伴隨著人工智能的迅速發(fā)展,今后人工智能具有實(shí)質(zhì)參與行政裁量的可能性,但是就目前以及可以預(yù)期的較長時(shí)間內(nèi)而言,探討人工智能行政裁量問題顯得過于超前,對當(dāng)前的行政實(shí)踐指導(dǎo)意義不大(見表1)[28]。

      四、人工智能所帶來的行政裁量治理技術(shù)新挑戰(zhàn)

      雖然當(dāng)前的人工智能技術(shù)尚未對行政裁量治理帶來根本性挑戰(zhàn),人工智能當(dāng)前所扮演的角色仍然僅僅只是助手,但是人工智能迅速發(fā)展所帶來的技術(shù)進(jìn)步確實(shí)對行政裁量治理研究提出了新的課題。

      (一)算法偏見可能導(dǎo)致裁量不公

      行政法上行政行為的建構(gòu)主要通過行政主體概念的擬制來實(shí)現(xiàn),因此正如前文所述,有無意思表示能力并不影響行政行為的證立。但是人工智能情境下,行政主體實(shí)施行政行為的載體由自然人變?yōu)槿斯ぶ悄芟到y(tǒng),也就是我們所謂的智能機(jī)器,卻可能帶來裁量治理的新問題,即便處于弱人工智能輔助階段。這其中扮演關(guān)鍵角色的就是算法偏見與歧視。

      算法可以理解為人類和機(jī)器交互的決策,即人類通過代碼設(shè)置、數(shù)據(jù)運(yùn)算與機(jī)器自動(dòng)化判斷進(jìn)行決策的一套機(jī)制[29]。算法從數(shù)據(jù)輸出的角度看是公平的,同樣的數(shù)據(jù)輸入得出同樣的輸出結(jié)果,并且效率更高,推送的服務(wù)更加精準(zhǔn),但是如果從算法本身設(shè)計(jì)的角度看,算法設(shè)計(jì)之初便可能存在歧視與偏見。例如,2020年引起社會(huì)廣泛關(guān)注的外賣騎手拼命送餐事件就是例證。配送外賣騎手在強(qiáng)大的系統(tǒng)驅(qū)動(dòng)下,為避免差評、維持收入,不得不超速、違章,直接導(dǎo)致外賣員遭遇交通事故的數(shù)量急劇上升。這實(shí)際上就是由于算法設(shè)計(jì)的不合理所導(dǎo)致的。算法本身并不是一種價(jià)值完全中立的活動(dòng),算法設(shè)計(jì)雖然依賴于數(shù)理統(tǒng)計(jì)和大數(shù)據(jù),但其中也難免存在價(jià)值判斷,不同的對象、不同的風(fēng)險(xiǎn)所給予的權(quán)重是不同的。設(shè)計(jì)者的局限與偏見、信息不充分等因素會(huì)滲入算法系統(tǒng)之中,甚至開發(fā)者和設(shè)計(jì)者本身也未必能夠意識(shí)到。

      就行政活動(dòng)而言,算法行政將導(dǎo)致專家意見的主導(dǎo)地位讓位于數(shù)據(jù)和算法,軟件編碼和統(tǒng)計(jì)操作趨向于取代法律規(guī)則的現(xiàn)實(shí)困境。以往,行政主體在進(jìn)行行政裁量時(shí),特別是涉及行政領(lǐng)域重大問題的行政裁量時(shí),往往會(huì)聽取專家意見,但是如果數(shù)據(jù)和算法在行政決策咨詢中占據(jù)主導(dǎo)地位,那么算法偏見與歧視必然影響行政決策的公平性與公正性。特別是,由于算法具有形式上的中立性,算法之中潛藏的偏見和歧視并不是行政公務(wù)人員能夠輕易發(fā)現(xiàn)的,只有出現(xiàn)嚴(yán)重后果后才能引起行政主體的關(guān)注。同時(shí),有學(xué)者認(rèn)為,根據(jù)以往行政經(jīng)驗(yàn)所積累的數(shù)據(jù)并結(jié)合其他重要因素,將行政裁量基準(zhǔn)提前在電腦程序中予以設(shè)定,能夠促使裁量行為更為精準(zhǔn)[30]。固然,算法作用于行政裁量從形式看確實(shí)能夠促進(jìn)裁量基準(zhǔn)更為公平,但是就實(shí)際行政實(shí)務(wù)而言,裁量基準(zhǔn)設(shè)置的格次大小、裁量的社會(huì)效果以及倫理問題等這些都是算法程序所無法解決的。以行政處罰為例,罰款處罰往往還需要考慮相對人的經(jīng)濟(jì)承受能力并且要遵照處罰與教育相結(jié)合的原則,而這些都是算法行政所無法達(dá)到的。行政自動(dòng)化帶來個(gè)案正義的喪失,以及事后修正所帶來的行政成本的增加,這些問題都是需要進(jìn)一步探討解決的。

      (二)自動(dòng)化技術(shù)所帶來的行政程序權(quán)利侵蝕

      人工智能所帶來的自動(dòng)化技術(shù)無論是對行政相對人的實(shí)體性權(quán)利,還是對程序性權(quán)利都帶來了挑戰(zhàn)。例如,現(xiàn)實(shí)行政執(zhí)法中的自動(dòng)化技術(shù),雖然顯著提高了行政執(zhí)法效率,但是也帶來行政處罰執(zhí)法密度的失衡。在杜寶良案中,由于當(dāng)事人在同一地點(diǎn)被電子監(jiān)控反復(fù)抓拍105次,交通執(zhí)法部門對其處以罰款10500元的行政處罰[31]。但相比較來說,自動(dòng)化技術(shù)所帶來的程序權(quán)利侵蝕問題更為突出。由于行政程序的建構(gòu)都是圍繞作為“活著”的自然人展開,而非自動(dòng)系統(tǒng)的機(jī)器,因此面對行政行為過程中“載體”的變化,傳統(tǒng)的行政正當(dāng)程序受到新的挑戰(zhàn)。

      首先,自動(dòng)化行政導(dǎo)致聽證程序的缺失。在行政活動(dòng)涉及行政相對人的重大利益時(shí),行政主體在進(jìn)行行政裁量時(shí),遵循行政正當(dāng)程序原則,應(yīng)當(dāng)聽取相對人的意見,從而平衡行政行為所關(guān)聯(lián)的利害關(guān)系人的利益,維護(hù)法律的正義價(jià)值。以《中華人民共和國行政處罰法》為例,在第三十一條、三十二條中,對告知、陳述、申辯、聽證等程序制度進(jìn)行了具體規(guī)定,而諸如此類的具體行政程序在保護(hù)行政相對人權(quán)益、限制行政權(quán)等方面具有重要作用。然而,人工智能系統(tǒng)自動(dòng)化卻帶來此類程序在具體行政活動(dòng)中難以適用的困境,更確切地是說是自動(dòng)化行政導(dǎo)致聽證程序的缺失。德國聯(lián)邦《行政程序法》雖然免除了行政主體的聽證義務(wù),但是僅僅局限于簡單可重復(fù)的行政行為。

      其次,自動(dòng)化行政導(dǎo)致說明理由等程序性制度在時(shí)間上向后推移。說明理由作為良好行政的基本要求,有助于實(shí)現(xiàn)程序性權(quán)利的工具性價(jià)值與非工具性價(jià)值[32]。人工智能自動(dòng)化情境下,由于算法針對特定的事項(xiàng),不針對特定的人,在信息輸入進(jìn)行識(shí)別和分析之后,就能按照算法程序輸出確定的結(jié)果。但是,這一過程中,無法像以“人”為中心構(gòu)造的行政程序一樣,說明理由能夠與行政活動(dòng)同時(shí)進(jìn)行。類似的說明理由、陳述申辯等程序只能從事前、事中向事后推移。這種推移,一方面可能會(huì)因?yàn)闀r(shí)間的延后,無形之中增加行政的時(shí)間成本和物質(zhì)成本;另一方面,此時(shí)行政行為可能已經(jīng)生效,通過事后的溝通能否達(dá)到事前溝通的效果值得懷疑,特別是在負(fù)擔(dān)性行政行為之中則更難實(shí)現(xiàn)。

      當(dāng)然,自動(dòng)化技術(shù)所帶來的程序權(quán)利侵蝕并不意味著不能通過新的程序設(shè)計(jì)進(jìn)行彌補(bǔ)。比如,交通執(zhí)法過程中,自動(dòng)處罰系統(tǒng)對違法行政相對人的行為作出處罰,在自動(dòng)處罰系統(tǒng)獲取證據(jù)之后,按照算法參數(shù)就能自行決定做出處罰決定。此時(shí),可以通過網(wǎng)絡(luò)、短信等方式發(fā)送通知,如果相對人不服,可以提出申辯,要求人工介入。由于自動(dòng)化技術(shù)對程序的挑戰(zhàn)是多方面的,包括聽證、調(diào)查、閱卷等多種程序性權(quán)利,因此如何設(shè)計(jì)此類彌補(bǔ)性程序,將成為一項(xiàng)挑戰(zhàn)。

      (三)行政行為司法審查面臨“知識(shí)匱乏”的困境

      行政裁量并不是純粹的行政主體的自由行為,也要接受司法審查,這一點(diǎn)無論是在實(shí)務(wù)界還是學(xué)術(shù)界都已經(jīng)達(dá)成共識(shí),問題的關(guān)鍵是司法審查給予行政裁量的尊重程度該如何把握。伴隨著行政專業(yè)化越來越強(qiáng),司法審查常常面對專業(yè)知識(shí)審查時(shí)的難題,而人工智能技術(shù)的發(fā)展無疑更增加了這種難度,作為外部監(jiān)督的一種方式,很可能已經(jīng)面臨“知識(shí)匱乏”的現(xiàn)實(shí)困境。

      一方面,人工智能技術(shù)與行政領(lǐng)域?qū)I(yè)化的深度結(jié)合增加了司法審查的難度。人工智能行政的核心是算法,算法能否成為審查的對象?雖然有學(xué)者指出,算法可以被審查,但是面對復(fù)雜的算法規(guī)則,司法機(jī)關(guān)有能力進(jìn)行審查嗎?如何判斷算法是否尊重法律規(guī)范?特別是在算法缺乏透明性的情況下,如何對其進(jìn)行審查[33]?行政的領(lǐng)域劃分越來越細(xì),專業(yè)性程度越來越高,而人們又將技術(shù)與行政的專業(yè)性深深地捆綁在一起,這無形之中導(dǎo)致司法審查行政行為合法性和合理性的難度加大。并且,技術(shù)是否完全中立并不能得到證立,破解技術(shù)中立難題依然是法律面臨的重大挑戰(zhàn)。盡管在美國有學(xué)者試圖用“技術(shù)性正當(dāng)程序”來解決這一問題,寄希望于通過編碼公開、軟件測試和評估程序等手段來實(shí)現(xiàn)問責(zé)的目標(biāo)[34]。但是關(guān)于編碼的理解,即使編碼能夠得到公開,其審查的難度也相當(dāng)大,必須借助專業(yè)技術(shù)才能夠?qū)幋a程序進(jìn)行解讀,而公眾能在多大程度上接受這種解釋恐怕也是未知之?dāng)?shù)。

      另一方面,人工智能技術(shù)導(dǎo)致行政裁量責(zé)任歸屬難以確定。在自然人作為行政行為的載體時(shí),行政行為整個(gè)過程中的責(zé)任歸屬是比較清晰的,但是在人工智能的情境下,則帶來責(zé)任歸屬上的難題。在行政主體與行政相對人的法律關(guān)系中,無論是作為自然人的公務(wù)員,還是人工智能系統(tǒng),都僅僅是行政主體開展行政活動(dòng)的載體,行政行為的法律責(zé)任主體都是行政主體,由行政主體對行政相對人承擔(dān)法律責(zé)任。這一點(diǎn)在理論上已得到證立。不過,問題在于,人工智能情形下,作為行政主體的行政機(jī)關(guān)在承擔(dān)法律責(zé)任后如何進(jìn)行內(nèi)部追責(zé)?在德、日等大陸法系行政賠償制度中,行政賠償?shù)脑蚩蓜澐譃楣珓?wù)員違法侵權(quán)的“人的行為”、公共設(shè)施設(shè)置和管理“物的瑕疵”兩類。究竟將人工智能歸為哪一類呢?由于人工智能與一般的靜態(tài)的公共設(shè)施差別較大,歸為哪一類恐怕都不合適,存在難以周延的矛盾。人工智能技術(shù)帶來的責(zé)任歸屬困境,或許需要另外建立一套歸責(zé)體系。

      五、結(jié)語

      正如美國資深人工智能學(xué)者錢德拉賽拉克所言,“近些年,人工智能在很大程度上集中于統(tǒng)計(jì)學(xué)和大數(shù)據(jù)。我同意由于計(jì)算能力的大幅提高,這些技術(shù)曾經(jīng)取得過某些令人印象深刻的成果。但是我們完全有理由相信,雖然這些技術(shù)還會(huì)繼續(xù)改進(jìn)、提高,總有一天這個(gè)領(lǐng)域(指AI)會(huì)對它們說再見,并轉(zhuǎn)向更加基本的認(rèn)知科學(xué)研究”(5)。當(dāng)前所有人工智能的探討都是建立在大數(shù)據(jù)的數(shù)理統(tǒng)計(jì)基礎(chǔ)之上,而以此為出發(fā)點(diǎn),人工智能無論如何也不可能擁有人的“自主意識(shí)”和“心性”,因此人工智能與“人”存在本質(zhì)上的區(qū)別。就人工智能與行政裁量的關(guān)系而言,有無意思表示能力雖然并不影響行政行為的證立,但是受制于行政裁量內(nèi)在構(gòu)造結(jié)構(gòu)的制約,當(dāng)前的人工智能僅僅能夠在簡單且重復(fù)性強(qiáng)的行政活動(dòng)中,基于行政裁量基準(zhǔn)提前預(yù)制算法程序輔助人工進(jìn)行行政裁量。因此,我們可以得出結(jié)論:雖然人工智能對行政裁量治理提出了新課題,但是當(dāng)前基于人工智能主體資格論的行政裁量并不存在??茖W(xué)技術(shù)作為一種工具理性的存在,僅是達(dá)成目的的手段,它無法證明目的的正當(dāng)性。在人類可理解的人工智能范疇內(nèi),作為一種科學(xué)技術(shù)存在的人工智能,始終無法逃避倫理的約束,或許這才是人工智能與行政裁量所面臨的根本性哲學(xué)問題。

      注釋:

      (1)據(jù)不完全統(tǒng)計(jì),北京大學(xué)、清華大學(xué)、中國政法大學(xué)、浙江大學(xué)、華東政法大學(xué)、西南政法大學(xué)、東南大學(xué)等國內(nèi)諸多院校都開始設(shè)立人工智能法學(xué)院、法律與大數(shù)據(jù)研究中心等學(xué)術(shù)機(jī)構(gòu)。

      (2)目前,我國臺(tái)灣地區(qū)法學(xué)界也有對人工智慧的關(guān)注(臺(tái)灣地區(qū)一般稱人工智能為“人工智慧”),但更多的是探討人工智慧醫(yī)事法律問題與刑事法律問題,從行政法角度研究人工智慧的并不多見。行政法學(xué)者李建良主編的《法律思維與制度的智慧轉(zhuǎn)型》也主要是基于法理學(xué)角度的分析。參見李建良:《法律思維與制度的智慧轉(zhuǎn)型》,元照出版公司2020年版。

      (3)參見2017年修訂的《德國聯(lián)邦程序法》第35a條。

      (4)此處“行政行為”是就具體行政行為而言的,不包括抽象行政行為。

      (5)這段話來自中國科學(xué)院陸汝鈴院士的轉(zhuǎn)述,錢德拉賽拉克教授曾在給陸汝鈴院士的來信中提及此觀點(diǎn)。參見周志華:《機(jī)器學(xué)習(xí)》,清華大學(xué)出版社,2016年版序言。

      猜你喜歡
      裁量要件行政
      行政學(xué)人
      行政論壇(2022年5期)2022-10-25 04:47:00
      論行政自由裁量的“解釋性控權(quán)”
      法律方法(2021年4期)2021-03-16 05:35:16
      美國職場性騷擾的構(gòu)成要件
      反歧視評論(2021年0期)2021-03-08 09:13:18
      Mesenchymal stromal cells as potential immunomodulatory players in severe acute respiratory distress syndrome induced by SARS-CoV-2 infection
      行政調(diào)解的實(shí)踐與探索
      第三人撤銷之訴要件的適用及其方法
      法律方法(2018年3期)2018-10-10 03:21:48
      應(yīng)如何確定行政處罰裁量基準(zhǔn)
      應(yīng)受行政處罰行為構(gòu)成要件的反思與重構(gòu)——從“三要件”到“三階層”
      論抽象危險(xiǎn)犯構(gòu)成要件符合性的判斷
      法大研究生(2017年2期)2017-04-18 09:06:05
      行政為先 GMC SAVANA
      車迷(2015年12期)2015-08-23 01:30:48
      苗栗市| 开江县| 容城县| 图片| 顺义区| 垦利县| 华安县| 通榆县| 浦东新区| 孙吴县| 拜泉县| 建瓯市| 襄汾县| 嘉荫县| 汪清县| 二连浩特市| 宝丰县| 马龙县| 常德市| 横山县| 丹巴县| 兴业县| 绵竹市| 高密市| 大洼县| 银川市| 双峰县| 廉江市| 郯城县| 漳州市| 墨玉县| 孝感市| 三门县| 张掖市| 获嘉县| 潜山县| 吴堡县| 桑日县| 宣汉县| 渝北区| 柞水县|