• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能的可解釋性與AI的法律責(zé)任問題研究

      2022-10-26 03:48:58劉艷紅
      社會觀察 2022年4期
      關(guān)鍵詞:解釋性法律責(zé)任決策

      文/劉艷紅

      (作者系中國政法大學(xué)刑事司法學(xué)院教授;摘自《法制與社會發(fā)展》2022年第1期)

      2018年9月,美國國防高級研究計劃局(DARPA)啟動了被稱為“加速第三波”的人工智能探索(Artificial Intelligence Exploration,AIE)項目,探索人工智能類人水平的交流和推理能力,以實現(xiàn)人工智能對新環(huán)境的自適應(yīng)。自此之后,人工智能的可解釋性成為人工智能領(lǐng)域的一個研究熱點。2019年4月8日歐盟委員會發(fā)布的《人工智能道德準(zhǔn)則》(Ethics Guidelines for Trustworthy AI,以下簡稱《準(zhǔn)則》),和2021年1月6日歐洲議會和理事會制定的《關(guān)于人工智能的統(tǒng)一規(guī)則(人工智能法)并修正某些聯(lián)合立法行為》,均從不同程度上對人工智能的可解釋性進(jìn)行了強調(diào)。鑒于人工智能的可解釋性已經(jīng)成為人工智能推廣和應(yīng)用以及解決其法律責(zé)任問題的前提條件,并成為人工智能研究領(lǐng)域的下一個前沿問題,本文即以人工智能的可解釋性這一全新視角展開對人工智能法律責(zé)任問題的探討。

      人工智能法律責(zé)任的最基本要素:主體行為具有可解釋性

      為了避免遭受諸如“你們的哲學(xué)家沒有付出哪怕最小的努力去理解非個體的存在和思想”的指責(zé),人類必須主動放下身姿,關(guān)注人工智能的“存在與思想”,分析其行為是否具有可解釋性。為了避免人工智能的行為充滿不安全性與不確定性,人類必須主動思考,關(guān)注人工智能的可解釋性與可詮釋性,以合理實現(xiàn)對人工智能法律責(zé)任的制度安排。

      當(dāng)下學(xué)界在探討人工智能的法律問題時,主要圍繞人工智能的權(quán)利與義務(wù)這對范疇進(jìn)行,也即討論人工智能是否具有法律地位,能否成為權(quán)利的享有者和義務(wù)的承擔(dān)者。但遺憾的是,這些學(xué)說均未有效回答人工智能為何有或者沒有法律地位,為何以及如何承擔(dān)法律責(zé)任,以至于學(xué)界圍繞這兩個問題一直爭論不休,甚至導(dǎo)致人工智能法學(xué)研究呈現(xiàn)出“泡沫化”傾向。事實上,確立人工智能的法律地位是為了解決權(quán)利能力與義務(wù)承擔(dān)問題,只要解決了權(quán)利與義務(wù)問題,也就解決了法律責(zé)任承擔(dān)問題?!耙话阈苑膳c基本權(quán)利的交互性影響,系通過解釋與實踐調(diào)和的方式來平衡基本權(quán)利主體之間的利益,為基本權(quán)利的內(nèi)在限制?!边@意味著,在法哲學(xué)層面,權(quán)利理論的科學(xué)性指標(biāo)有兩個,一是可解釋性,二是可實踐性。只有具有可解釋性的權(quán)利,才具有可實踐性,可解釋性是根本。行為只有具有可解釋性,行為主體才能成為權(quán)利主體,才能承擔(dān)法律責(zé)任,履行法律義務(wù)。因此,探討人工智能的法律責(zé)任問題,應(yīng)該基于人工智能行為的可解釋性展開,而不是糾纏于各種不同的主體論與責(zé)任理論。換言之,探討人工智能的法律責(zé)任問題,應(yīng)采用權(quán)利理論的視角和可解釋性的標(biāo)準(zhǔn),按此全新路徑來推進(jìn)對人工智能法律問題的探討。

      人工智能作為類人類智能,無論我們是否賦予其主體資格,在解決其法律責(zé)任問題時,都必須解釋其是如何行為的。如果人們愿意將人工智能理解為法律科技的核心技術(shù),就意味著“對人工智能的理解是建立人工智能相關(guān)法律關(guān)系不可或缺的前提條件”。因此,只有人工智能的行為具有可解釋性,人工智能才能與人類主體一樣成為法律責(zé)任的承擔(dān)主體,否則,不可解釋的行為將會使人工智能成為煉金術(shù)或者魔幻,不可言說,不可理解,并最終導(dǎo)致法律責(zé)任無法得到精準(zhǔn)確立與分配。

      法律主體要對自己的行為承擔(dān)責(zé)任,還意味著需要對人工智能的行為的可解釋性予以法教義學(xué)的探討,也即“以人類可理解的術(shù)語去解釋或描述人類與人工智能之間的相互交流”。只有通過人工智能行為的可解釋性,才能實現(xiàn)人工智能與人類的交互理解,進(jìn)而將人工智能發(fā)展為可能的新型責(zé)任主體類型。

      要解決人工智能的法律責(zé)任問題,就必須解決法律適用問題。按照卡爾·拉倫茨的觀點,法律適用“是一種對向交流的過程”,因此,“必須考慮在可能適用的法條之下,由‘未加工的案件事實’形成作為陳述之終局的案件事實,同時也必須考慮在終局的案件事實之下,將應(yīng)予適用的規(guī)范內(nèi)容盡可能精確化”。對于人臉識別、醫(yī)療診斷、自動駕駛等領(lǐng)域的人工智能法律責(zé)任問題,僅通過結(jié)果難以導(dǎo)向?qū)Π讣聦嵉娜娑K局性的了解,必須經(jīng)由對人工智能做出的識別、診斷、駕駛等行為的解釋,了解行為過程的全貌,方能找到準(zhǔn)確的適用規(guī)范,進(jìn)而解決人工智能的法律責(zé)任問題。法學(xué)是探究法的客觀意義的科學(xué),無論是法教義學(xué),還是法解釋學(xué),其內(nèi)核都是要求對法律規(guī)范進(jìn)行解釋,解釋者的目光在案件事實與法律規(guī)范之間往返逡巡,最終得出結(jié)論。法學(xué)的歷史就是法解釋的歷史,自然法學(xué)派、概念法學(xué)派、自由法學(xué)派、利益法學(xué)派、社會法學(xué)派、歷史法學(xué)派、分析法學(xué)派等各種學(xué)派之間的區(qū)別,無非是在解釋理念與解釋方法上的區(qū)別。探討人工智能法律責(zé)任問題的前提在于,必須合理解決人工智能行為的可解釋性,只有運用解釋學(xué)的方法進(jìn)行人工智能法律問題研究,才能使人工智能的行為所產(chǎn)生的事實具有法律上的意義。因為“規(guī)范對于行動具有重大意義”,人工智能的行為無論是適用現(xiàn)有法律規(guī)范,還是適用未來新制定的法律規(guī)范,我們都“必須用解釋學(xué)或內(nèi)在觀點來理解它,盡管我們對于規(guī)范的規(guī)范性基礎(chǔ)有著不同的意見,但使用能夠為人類主體懂得的詞語來理解和解釋顯得尤為必要”。只有對人工智能的行為進(jìn)行解釋并使其為人類所理解,才能準(zhǔn)確適用法律規(guī)范,確立人工智能的法律主體地位及相應(yīng)法律責(zé)任。基于法律解釋思維,只有將人工智能的“識、判、動、作”亦即自主識別、自動判斷、自主行動以及自主創(chuàng)作的過程予以清晰解釋,才能證立或正當(dāng)化某一結(jié)論。

      法教義學(xué)的立場認(rèn)為,“解決一個具體的法律問題,也就意味著將某一法律規(guī)范適用于具體的個案之中,但案件的解決必須建立在理由建構(gòu)的基礎(chǔ)之上”。這樣的理由,對于人工智能而言,當(dāng)然是指向AI是如何識別數(shù)據(jù)并進(jìn)行判斷進(jìn)而作出某種決策的,這是決定人工智能能否對自己的行為承擔(dān)法律責(zé)任的實質(zhì)性理由。比如,在動態(tài)定價領(lǐng)域,人工智能可以適時根據(jù)消費者喜好、商品的市場價格、商品銷量、購物車的停放數(shù)量、顧客評價等計算出理想的價格,實現(xiàn)全新的差異化定價。然而,如果因為定價前后不一而引發(fā)顧客對價格欺詐的投訴和索賠,那么,就必須解釋清楚,在人工智能的定價決策過程中是否存在算法歧視。為了避免人工智能不被接受,通過解釋,可以建構(gòu)人工智能和人類之間的對話機制,從而使人工智能與人類之間具有更強的社會關(guān)聯(lián)性以及社會可接受性。人工智能的行為只有具有可解釋性,才能使人們對AI的認(rèn)識達(dá)成共識。法律解釋本身就是通過使用特定語言并遵守一定規(guī)則進(jìn)行言說的方式,促進(jìn)共識的達(dá)成,減少人們在人工智能是否具有法律主體資格以及如何承擔(dān)法律責(zé)任問題上的分歧。

      總之,在人工智能的法律責(zé)任問題上,如果人類能夠理解人工智能的決策和行為,那么,對人工智能法律責(zé)任的制度安排與評判就會正當(dāng)而合理。“這就意味著,對人工智能的理解是建立人工智能相關(guān)法律關(guān)系不可或缺的前提條件?!狈韶?zé)任的承擔(dān)意味著行為主體的行為能夠被闡釋和說明。

      可解釋性:人工智能的行為即算法決策是否可理解?

      既然要討論人工智能的法律責(zé)任,就必須討論人工智能行為的可解釋性。那么,人工智能的行為是否具有可解釋性呢?如果說人的行為是意識的外在表現(xiàn),那么人工智能的行為就是算法決策。人工智能具有可解釋性,就是人工智能的行為亦即算法決策能夠被解釋,易言之,就是我們能夠解釋人工智能如何在大數(shù)據(jù)的基礎(chǔ)上進(jìn)行算法決策。

      人工智能的行為應(yīng)該具有可解釋性?!稓W盟通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation)規(guī)定,使用者應(yīng)具有“要求解釋的權(quán)力”。2021年9月25日,我國國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》第12條規(guī)定,要在算法設(shè)計、實現(xiàn)、應(yīng)用等環(huán)節(jié),提升透明性、可解釋性、可理解性。易言之,人工智能應(yīng)該具有可解釋性。但隨著AI的研究與應(yīng)用不斷取得突破性進(jìn)展,“高性能的復(fù)雜算法、模型及系統(tǒng)卻普遍缺乏決策邏輯的透明度和結(jié)果的可解釋性,導(dǎo)致在涉及需要作出關(guān)鍵決策判斷的國防、金融、醫(yī)療、法律、網(wǎng)安等領(lǐng)域中,或在要求決策合規(guī)的應(yīng)用中,AI技術(shù)及系統(tǒng)難以大范圍應(yīng)用”。同時,對于人工智能在未來可能主導(dǎo)人類的生活,人類既期待,又恐慌,而恐慌的來源正在于,人工智能的行為似乎不具有可解釋性,AI更類似于一個自循環(huán)的封閉系統(tǒng),無法言說,且難以被理解??山忉屝猿蔀槿斯ぶ悄芗夹g(shù)普及的重要因素,也成為決定人工智能在法律場景應(yīng)用中是否應(yīng)當(dāng)承擔(dān)法律責(zé)任的關(guān)鍵因素。

      在當(dāng)下,是否存在一個可解釋的人工智能即XAI?從現(xiàn)有技術(shù)來看,人工智能的行為不具有可解釋性。在人工智能領(lǐng)域,輸入數(shù)據(jù)和輸出答案之間存在著一個不可被觀察的空間,這個空間通常被稱為信息黑箱,正是它引發(fā)出了AI是否具有可解釋性的問題。人工智能“黑箱問題的根源并非人工智能采用了人看不到的方式‘思考’,而是當(dāng)前人工智能因采取了神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等算法而導(dǎo)致數(shù)據(jù)極其復(fù)雜。當(dāng)前,人工智能科學(xué)亦致力于提高數(shù)據(jù)的可解釋度”。然而事實上,不僅僅是數(shù)據(jù)的復(fù)雜導(dǎo)致了人工智能的信息黑箱問題,人工智能本身的思考方式也確實無法被看到。因此,2020年2月19日,歐盟委員會發(fā)布《人工智能白皮書》,將提高人工智能的可解釋性作為因應(yīng)下一波數(shù)據(jù)浪潮的重要內(nèi)容。盡管學(xué)習(xí)算法在自然和人類行為領(lǐng)域開辟了新天地,但它們?nèi)员换\罩在神秘之中,“計算機‘吞入’數(shù)以萬億的字節(jié),并神奇地產(chǎn)生新的觀點,關(guān)于大數(shù)據(jù)的書籍甚至也避談‘這個過程到底發(fā)生了什么’”。在AI領(lǐng)域,以深度學(xué)習(xí)為代表的人工智能技術(shù)雖然已取得了令人矚目的成就,但如何在機器學(xué)習(xí)中實現(xiàn)可解釋性的目標(biāo),亦即如何“確??梢苑羌夹g(shù)性的方式向最終用戶和其他利益相關(guān)方解釋算法決策以及任何驅(qū)動這些決策的數(shù)據(jù)”,仍是一個無法得到解決的難題。從當(dāng)前的研究情況來看,AI領(lǐng)域的研究者已紛紛意識到人工智能的可解釋性的重要性,并已展開了很多研究。比如,有研究提出了評價人工智能可解釋性的若干標(biāo)準(zhǔn),具體如算法結(jié)果具有合理性,算法可被改進(jìn),算法能提供學(xué)習(xí)的啟迪,算法要符合法規(guī)要求等。然而,結(jié)果具有合理性以及算法可被改進(jìn)等評價標(biāo)準(zhǔn)只是針對人工智能進(jìn)行解釋,而如何實現(xiàn)可解釋性,才是真正的難點。為此,AI領(lǐng)域的研究者又在解釋模型上進(jìn)行探索。然而,無論科學(xué)家如何努力,人們都不得不接受一個并不樂觀的現(xiàn)實,即可解釋性研究還處于初級階段,依然還有大量的科學(xué)問題尚待解決。“在解釋模型為什么有效及如何運作方面,目前學(xué)界的研究還處于非常初級的階段”,“對于可解釋性的本質(zhì)、研究手段,還未能形成統(tǒng)一認(rèn)識,未能找到最佳方案”。并且,“不同學(xué)者解決問題的角度不同,對可解釋性所賦予的含義不同,所提出的解釋方法也各有側(cè)重。迄今為止,學(xué)術(shù)界對模型可解釋性仍缺乏統(tǒng)一的認(rèn)識,可解釋性研究的體系結(jié)構(gòu)仍不明確”。毫無疑問,隨著人工智能的發(fā)展,理解和解釋深度神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí),是未來人工智能可解釋性研究的重要目標(biāo)。然而,由于人工智能深度學(xué)習(xí)和算法決策的不可預(yù)測性,以及機器自身無法進(jìn)行言說,我們認(rèn)為,未來對深度學(xué)習(xí)可解釋性的研究仍會遭遇瓶頸。人類與機器建立“知其然”且“知其所以然”的人機互動的互信關(guān)系,恐難實現(xiàn),人工智能具有可解釋性,注定是人類不切實際的夢想。

      法律責(zé)任否定論:基于人工智能行為的不可解釋性

      關(guān)于人工智能法律責(zé)任的全部問題在于,人工智能應(yīng)否成為法律系統(tǒng)中的法律責(zé)任人。人工智能的可解釋性直接決定著人工智能的法律責(zé)任的有無,不具有可解釋性的人工智能難以被問責(zé),因此人工智能的法律責(zé)任論也應(yīng)該被否定。

      法律責(zé)任的本質(zhì)是答責(zé)或者說應(yīng)答,即“行為人需要對其試試的某些行為作出應(yīng)答”,“負(fù)有責(zé)任與自我說明實踐具有本質(zhì)聯(lián)系”,應(yīng)答法律責(zé)任是責(zé)任主體的自由意志與決定論的體現(xiàn)。人具有自由意志,“意志自律是一切道德法則以及合乎這些法則的職責(zé)的獨一無二的原則;與此相反,意愿的一切他律非但沒有建立任何職責(zé),反而與職責(zé)的原則,與意志的德性,正相反對”。這意味著,在實際生活中,人有不受外界約束的意志自由。康德指出,人不是根據(jù)規(guī)律來行動的,而是根據(jù)對規(guī)律的觀念(Vorstellung) 來行動的,人是具有意志的理性生物?!霸谧匀唤缰?,每一物件都是按照規(guī)律起作用。唯獨有理性的東西有能力按照對規(guī)律的觀念,也就是按照原則而行動,或者說,具有意志。”“人身上具有一種獨立于感性沖動的強迫而自行規(guī)定自己的能力?!焙诟駹栆仓赋觯骸白杂傻臇|西就是意志。意志而沒有自由只是一句空話;同時,自由只有作為意志,作為主體,才是現(xiàn)實的?!边@是自康德和黑格爾以來即已奠定的法律責(zé)任論的基石,即人類只對通過自由意志所選擇的行為承擔(dān)責(zé)任,或者說,人類只對自己所決斷的行為承擔(dān)責(zé)任。重要的是,對于自身的行為,人類是可以解釋其原因的。因此,以自我決定為根據(jù)并可以對決定過程予以解釋的自我答責(zé),是法律歸責(zé)的基本原理,“行為人違反‘自我決定’這個一般的實踐原則而設(shè)定了任意、行為、結(jié)果的統(tǒng)一性時,行為人就應(yīng)該自己對所發(fā)生的損害后果承擔(dān)完全的刑事責(zé)任”。當(dāng)然,這一點在被侵權(quán)人或者被害人的行為導(dǎo)致了結(jié)果的發(fā)生時除外。人工智能不具有自由意志,從設(shè)計到運行,從啟動到結(jié)果,人工智能均處于人類指令的操控之下,而非作出自我決定。至于那些脫離人類操控的算法,其又因決策過程的不可解釋性而無法實現(xiàn)對責(zé)任的承擔(dān)。

      總之,責(zé)任的本質(zhì)是應(yīng)答,而應(yīng)答即行為人對自己行為的自我答責(zé),它是以自由意志和自我決定為前提的,由于人工智能并不具有自我意志和自我決定,故其無法對自己的行為作出應(yīng)答。人工智能只對人類輸入的指令有算法反應(yīng),對于自己造成的侵權(quán)或損害的責(zé)任并無認(rèn)識,更談不上反應(yīng),其算法決策行為的不可解釋性意味著其對于責(zé)任承擔(dān)不可能有任何反應(yīng),這導(dǎo)致人工智能的法律責(zé)任基礎(chǔ)是不存在的。

      確立法律責(zé)任,既是為了懲處行為人的違法或犯罪行為,更是為了實現(xiàn)對違法或犯罪行為的預(yù)防。如果在法律責(zé)任領(lǐng)域一直存在著關(guān)于報應(yīng)主義的懲罰和教育主義的預(yù)防之爭,那么,在當(dāng)下風(fēng)險社會的現(xiàn)實中,預(yù)防主義無疑具有更重要的地位,預(yù)防已成為對行為人的行為施加法律責(zé)任的主要目的。不具有可解釋性的人工智能無法實現(xiàn)法律責(zé)任的預(yù)防目的。人工智能的設(shè)計者也許能夠說明設(shè)計原理和每個環(huán)節(jié)的細(xì)節(jié),但沒有人能夠解釋清楚,一旦進(jìn)入算法決策過程,人工智能是根據(jù)什么來作出判斷的。這導(dǎo)致人工智能的諸多錯誤一再發(fā)生,這意味著,不可解釋的人工智能的算法決策錯誤是不可被預(yù)防的。如此一來,即便肯定人工智能具有法律責(zé)任,對于實現(xiàn)法律責(zé)任的預(yù)防目的,也是毫無助益的。

      讓人工智能承擔(dān)法律責(zé)任并實現(xiàn)法律責(zé)任的預(yù)防目的,也許可以通過模型來實現(xiàn)。比如,“在刑事司法領(lǐng)域,人工智能有潛力更好地評估再次犯案的風(fēng)險,并減少與犯罪和監(jiān)禁有關(guān)的成本。但是,當(dāng)使用刑事判決模型在法庭上預(yù)測再次犯罪的風(fēng)險時,我們必須確保該模型以公平、誠實和非歧視的方式行事”。換言之,如何實現(xiàn)模型本身的公平公正,也是一個問題。模型也是通過科技研發(fā)的產(chǎn)品,其本身也需要得到解釋,故將之應(yīng)用于解釋人工智能并評估其再次發(fā)生犯罪的可能性,很不現(xiàn)實。而且,就法律行為而言,所有侵權(quán)或違法犯罪行為的成立均需要由證據(jù)來證明,然而,“我們現(xiàn)在沒有明顯的證據(jù)理論來解釋專家機器人產(chǎn)生的結(jié)果”,所有人工智能犯罪都是事后的結(jié)果,而不是能夠通過證據(jù)來解釋的結(jié)果,這使得對人工智能違法犯罪的認(rèn)定極為困難。在人工智能的設(shè)計者、程序的編程者、機器人的操作者等當(dāng)中,如果其中的任何人都能夠代表機器人來解釋人工智能的算法決策行為,那么恰恰說明,機器人缺乏專門的理由或證據(jù)來解釋其決策、行為及結(jié)果,這給預(yù)防侵權(quán)或犯罪提出了難題。如果模型的作用有限,那么,為了更好地解釋人工智能的行為并為預(yù)防違法犯罪提供良策,是否可以在未來充分發(fā)揮專家機器人的作用?有觀點指出,“為了確保未來的專家機器人能夠在發(fā)生訴訟時充分解釋他們的行為,律師應(yīng)該與機器人專家合作”。然而,關(guān)于專家機器人的期待更多的是一種美好的設(shè)想,人類專家可以很好地解釋他們?nèi)绾螆?zhí)行某些任務(wù),但機器做不到,“如果一個機器人不能提供連貫的解釋,它又怎么能發(fā)揮專家的作用呢”?

      總之,如果人工智能的決策過程不能如同韋伯式的官僚決策那樣得到理解,那么,現(xiàn)今廣為傳播的預(yù)防理論對人工智能來說就是無效的,因為無論是積極的預(yù)防理論,還是消極的預(yù)防理論,都要求責(zé)任主體的行為可以被解釋。唯有如此,才能說明對責(zé)任主體適用法律規(guī)范是有意義的?!爸挥小悄苤黧w’的行動被視為‘違反規(guī)范’,才能通過對‘替代者’施以刑罰實現(xiàn)這一目的”,否則,人工智能是不能成為法律責(zé)任的適格主體的。

      結(jié)語

      人工智能之所以會做出侵權(quán)或損害行為,并非人工智能的設(shè)計者通過規(guī)范其設(shè)計和部署過程就可以解決,因為在機器人接收所有數(shù)據(jù)之后,其內(nèi)部的數(shù)據(jù)消化吸收與反饋過程會于數(shù)秒鐘之內(nèi)完成,其作出決策的過程并不完全可控,人類設(shè)計出的人工智能的行為并非完全按照人的意志去發(fā)展并可以得到解釋。對于不可解釋的人工智能,即便令其承擔(dān)法律責(zé)任,在下一起事故中,同樣的錯誤或者新型的錯誤仍然不可避免,因為算法是一個黑洞。此外,人工智能的可解釋性還存在著一個話語轉(zhuǎn)化的問題,即如何將人工智能數(shù)學(xué)表述式的可解釋性話語轉(zhuǎn)化為法學(xué)話語?“從法學(xué)角度看,這種對解釋的要求不可或缺,人們用這種研究方法來探索能夠使應(yīng)用算法構(gòu)成一種可擔(dān)責(zé)行為的必要條件。然而,在轉(zhuǎn)化時需要注意,對從大數(shù)據(jù)中獲得的診斷進(jìn)行解釋與對基于法學(xué)知識說理的爭議性結(jié)論進(jìn)行解釋有所不同?!倍@個問題更具有超前性,它是在人工智能的可解釋性問題得到解決之后,人工智能法學(xué)研究領(lǐng)域的下一個前沿問題。

      猜你喜歡
      解釋性法律責(zé)任決策
      著力構(gòu)建可解釋性模型
      為可持續(xù)決策提供依據(jù)
      論行政自由裁量的“解釋性控權(quán)”
      法律方法(2021年4期)2021-03-16 05:35:16
      性騷擾的用人單位法律責(zé)任研究
      反歧視評論(2021年0期)2021-03-08 09:13:16
      決策為什么失誤了
      融媒體時代解釋性報道的發(fā)展之路
      傳播力研究(2017年5期)2017-03-28 09:08:30
      非解釋性憲法適用論
      強化生產(chǎn)者環(huán)境保護(hù)的法律責(zé)任
      依法治國須完善和落實法律責(zé)任追究機制
      從一例招投標(biāo)糾紛中引發(fā)的法律責(zé)任
      松溪县| 青海省| 江孜县| 桐庐县| 类乌齐县| 含山县| 乃东县| 晋江市| 黄浦区| 盐源县| 介休市| 灵宝市| 呼和浩特市| 南丰县| 崇信县| 河北省| 芜湖市| 昌平区| 呼图壁县| 都兰县| 兴仁县| 德江县| 阳江市| 高邮市| 安阳县| 灌南县| 新巴尔虎左旗| 渑池县| 泉州市| 昭通市| 侯马市| 南昌市| 长宁县| 曲周县| 鱼台县| 延川县| 灵武市| 大余县| 葫芦岛市| 兰州市| 清远市|