• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      新一代人工智能的風(fēng)險防范和高質(zhì)量發(fā)展

      2020-12-06 10:49孫大偉張淑芬
      海峽科技與產(chǎn)業(yè) 2020年8期

      孫大偉 張淑芬

      摘要:當(dāng)前,以算法、數(shù)據(jù)和計算能力為核心驅(qū)動力的新一代人工智能發(fā)展迅速,但是算法面臨著算法歧視、“過濾氣泡”、算法黑箱等問題,數(shù)據(jù)存在數(shù)據(jù)濫用、數(shù)據(jù)泄露、數(shù)據(jù)污染等多重風(fēng)險。因此,應(yīng)當(dāng)加強(qiáng)人工智能發(fā)展的潛在風(fēng)險研判和防范,明確人工智能的發(fā)展應(yīng)遵循人類利益原則、人類自主原則、責(zé)任原則,完善相關(guān)法律規(guī)則,強(qiáng)化監(jiān)管,推動新一代人工智能高質(zhì)量發(fā)展。

      關(guān)鍵詞:新一代人工智能;算法風(fēng)險;數(shù)據(jù)風(fēng)險

      中圖分類號:TP18 文獻(xiàn)標(biāo)識碼:A

      未來學(xué)家阿爾文·托夫勒認(rèn)為,現(xiàn)代人是第三次浪潮的參與者。較之1萬年前掀起的第一次農(nóng)業(yè)革命浪潮以及300年前驚天動地的第二次工業(yè)革命浪潮,第三次浪潮帶給人們的是“有史以來最強(qiáng)烈的社會變動和創(chuàng)造性的重組”的“超級工業(yè)社會”(阿爾文·托夫勒,2018)[1]。這個“超級工業(yè)社會”的特點(diǎn)之一就是高新科技發(fā)展日新月異。其中,新一代人工智能以及與之相關(guān)的物聯(lián)網(wǎng)、區(qū)塊鏈、云計算、大數(shù)據(jù)便被認(rèn)為是當(dāng)前最具有標(biāo)志性的新興科技。

      1 新一代人工智能被廣泛應(yīng)用

      近年來,我國已經(jīng)在新一代人工智能的五大核心技術(shù):圖像識別、語音識別、自然語言處理、知識圖譜、機(jī)器人技術(shù)等領(lǐng)域取得重大進(jìn)展,并將其廣泛應(yīng)用到了社會生產(chǎn)生活當(dāng)中。

      當(dāng)前,在針對新型冠狀病毒感染肺炎疫情防控中,新一代人工智能技術(shù)就發(fā)揮了重要作用。依托人工智能技術(shù)的儀器能快速精準(zhǔn)地測量體溫、識別高溫人群,人工智能機(jī)器人可以承擔(dān)消毒、清潔、藥物配送等工作,極大地減少了人與人之間的接觸概率,降低了感染風(fēng)險。利用人工智能技術(shù)還可以進(jìn)行病毒樣本比對以及自動化診斷和分析等,提升精準(zhǔn)篩查比例。

      需要強(qiáng)調(diào)的是,技術(shù)是中性的,技術(shù)的發(fā)展會帶來正反兩方面的效應(yīng)。新一代人工智能是以計算為中心,其核心驅(qū)動力是算法、數(shù)據(jù)和計算能力。推陳出新的算法、海量的數(shù)據(jù)、驚人的算力以及巨大的應(yīng)用需求,深刻影響著人類的生產(chǎn)生活的同時,在其發(fā)展過程中也存在著諸多風(fēng)險和挑戰(zhàn)。

      2 新一代人工智能的算法風(fēng)險

      眾所周知,算法是人工智能的根基。隨著算法模型的推陳出新,算法的自主決策性逐漸提高,人工智能技術(shù)得到廣泛應(yīng)用,極大解放了人類的勞動力,提高了工作效率。但是,算法同時也存在算法歧視、“過濾氣泡”“信息繭房”和“回音室效應(yīng)”、算法黑箱等問題。

      2.1 算法歧視

      算法帶有一定的主觀性。算法歧視是指在人工智能系統(tǒng)研發(fā)過程中,研發(fā)人員將其主觀的價值判斷植入人工智能系統(tǒng),導(dǎo)致系統(tǒng)在編碼、收集、選擇或使用數(shù)據(jù)時,產(chǎn)生了帶有偏見或歧視性的結(jié)果。

      算法歧視主要分為三類:人為造成的歧視、數(shù)據(jù)驅(qū)動的歧視和機(jī)器自我學(xué)習(xí)的歧視(郭銳,2019)[2]。人為造成的歧視是指研發(fā)人員在研發(fā)人工智能時植入帶有偏見或歧視的價值觀。數(shù)據(jù)驅(qū)動的歧視是指采集的數(shù)據(jù)本身包含偏見與歧視。機(jī)器自我學(xué)習(xí)造成的歧視是指人工智能機(jī)器在學(xué)習(xí)過程中自我學(xué)習(xí)到數(shù)據(jù)的不同特征,并將某些偏見或歧視引入到?jīng)Q策過程中。以上這些偏見與歧視可能會導(dǎo)致人工智能系統(tǒng)在決策過程中對某些群體或個人的直接或間接的偏見與歧視。

      在人工智能應(yīng)用中,搜索引擎、電子商務(wù)、社交媒體等平臺均可能存在算法歧視問題。比如電子商務(wù)平臺為向客戶進(jìn)行精準(zhǔn)營銷,往往會根據(jù)已有數(shù)據(jù)和算法,進(jìn)一步挖掘客戶的消費(fèi)數(shù)據(jù),產(chǎn)生價格歧視和“大數(shù)據(jù)殺熟”等問題。

      2.2 “過濾氣泡”

      在信息爆炸的當(dāng)下,人們需要通過“算法推薦”為自己提供個性化服務(wù)。但是搜索引擎平臺、電子商務(wù)平臺、社交媒體平臺等網(wǎng)絡(luò)平臺使用“推薦算法”,容易制造“過濾氣泡”問題,引發(fā)“信息繭房”和“回音室效應(yīng)”。

      “過濾氣泡”指的是計算機(jī)記錄用戶進(jìn)行網(wǎng)上搜索、瀏覽留下的痕跡,根據(jù)這些痕跡推斷出用戶的信息偏好,通過算法進(jìn)行計算并向用戶進(jìn)一步推送相關(guān)信息,以實(shí)現(xiàn)用戶信息的個性化定制,保證用戶黏性(Eli Pariser,2011)。[3]“信息繭房”是指用戶更愿意根據(jù)自己的需求,選擇接觸自己感興趣并樂于接受的固定領(lǐng)域的信息,但這就像“繭房”一樣封閉,充滿了與自己意見一致的觀點(diǎn),雖然溫暖而舒適,但是也會形成毫無根據(jù)的極端主義、偏激錯誤的觀念甚至過度自卑的心態(tài)(凱斯·桑斯坦,2008)[4]6?!盎匾羰倚?yīng)”則是指用戶在互聯(lián)網(wǎng)上就某一話題或觀點(diǎn)進(jìn)行互動,一些相近或相同的信息會不斷重復(fù)、強(qiáng)化、夸張和扭曲,從而讓處于封閉環(huán)境中的大多數(shù)人認(rèn)為這些不斷重復(fù)的信息是事實(shí)的全部(凱斯·桑斯坦,2008)[4]。

      “過濾氣泡”引發(fā)的“信息繭房”和“回音室效應(yīng)”,限制用戶接觸信息的范圍和途徑,使公眾接收到的多是同質(zhì)化的信息,難以獲取全面信息,很難突破信息壁壘尋找其他類型的信息,容易導(dǎo)致用戶信息窄化,甚至有可能會出現(xiàn)“網(wǎng)絡(luò)群體極化”現(xiàn)象。

      2.3 算法黑箱

      “黑箱”是控制論的概念,作為一種隱喻,是指那些不為人知的不能打開、不能從外部直接觀察其內(nèi)部狀態(tài)的系統(tǒng)(張淑玲,2018)[5]。“黑箱”中的整個技術(shù)操作過程并不透明,決策過程不可解釋,決策結(jié)果不可預(yù)測。用戶既不了解算法的目標(biāo)和意圖,也不知道算法的研發(fā)人員、實(shí)際控制者以及人工智能系統(tǒng)生成內(nèi)容的責(zé)任歸屬等信息(葉韋明,2016)[6],只能被動接受通過算法所產(chǎn)生的決策結(jié)果。但是,算法的研發(fā)人員、實(shí)際控制者等卻可以利用所掌握的數(shù)據(jù)和算法技術(shù),生成符合其自身需要的決策結(jié)果。

      算法黑箱會產(chǎn)生很多問題:一方面,會在用戶與算法、數(shù)據(jù)的實(shí)際控制者之間形成信息壁壘和數(shù)字鴻溝,導(dǎo)致用戶難以了解個人信息的處理情況,無法掌握個人信息,而數(shù)據(jù)、算法的實(shí)際控制者則會擁有大量數(shù)據(jù),并通過清洗、加工和分析數(shù)據(jù),更新算法,獲得重要的商業(yè)資源和競爭優(yōu)勢。另一方面,帶來監(jiān)管困難,一旦出現(xiàn)數(shù)據(jù)泄露、數(shù)據(jù)濫用、數(shù)據(jù)操縱、個人隱私權(quán)受到侵害等問題,很難得到救濟(jì)。

      3 新一代人工智能的數(shù)據(jù)風(fēng)險

      在實(shí)際的社會生活運(yùn)行中,通過新一代人工智能技術(shù),大數(shù)據(jù)使用者可以采集到用戶的各種信息,在萬物互聯(lián)、大數(shù)據(jù)和人工智能三層疊加后,人類隱私似乎無所遁形(何波,2018)[7]。同時,政府和企業(yè)決策盡管對大數(shù)據(jù)采用了匿名化、加密化等預(yù)防措施,但是依然面臨著多重數(shù)據(jù)風(fēng)險。

      3.1 數(shù)據(jù)濫用

      數(shù)據(jù)是人工智能發(fā)展的基礎(chǔ),但同時,數(shù)據(jù)濫用問題也日益突出,特別是違法違規(guī)使用個人信息的問題十分嚴(yán)重。

      首先,在人工智能時代,企業(yè)出于商業(yè)或其他目的,要求用戶在互聯(lián)網(wǎng)平臺或手機(jī)APP上注冊個人信息,這些海量信息經(jīng)加工后形成巨大的數(shù)據(jù)庫。部分企業(yè)會將此作為重要資源和競爭優(yōu)勢,用于商業(yè)化,從而引發(fā)諸如“大數(shù)據(jù)殺熟”、過度營銷等問題。

      其次,社交媒體平臺為用戶分享信息提供平臺的同時,也有可能成為制造和傳播謠言、進(jìn)行人身攻擊的重要渠道。由于現(xiàn)階段個人信息保護(hù)乏力,且大多數(shù)用戶缺乏個人信息保護(hù)意識,給網(wǎng)絡(luò)暴力、人肉搜索、深度偽造、流量造假、操縱賬號等非法行為帶來了一定的可乘之機(jī)。

      3.2 數(shù)據(jù)泄露

      當(dāng)前,數(shù)據(jù)泄露事件層出不窮。在人工智能應(yīng)用中,如果相關(guān)主體操作不當(dāng),或黑客非法對人工智能系統(tǒng)進(jìn)行攻擊,都有可能導(dǎo)致海量數(shù)據(jù)泄露,對個人、企業(yè)和政府信息安全帶來極大風(fēng)險。

      數(shù)據(jù)泄露具有以下特點(diǎn):一是泄露范圍廣泛。個人數(shù)據(jù)、企業(yè)數(shù)據(jù)、政府?dāng)?shù)據(jù)在內(nèi)的海量數(shù)據(jù)都具有泄露風(fēng)險。二是泄露原因復(fù)雜。既有內(nèi)部管理疏漏或操作不當(dāng)導(dǎo)致泄露,也有不法分子非法攻擊造成泄露;既有管理缺陷,也有技術(shù)漏洞。三是危害嚴(yán)重。數(shù)據(jù)一旦泄露,極有可能會超越技術(shù)范疇和組織邊界,嚴(yán)重危害個人、企業(yè)甚至國家的信息安全,侵害商業(yè)安全和國家安全,改變政治進(jìn)程。

      3.3 數(shù)據(jù)污染

      當(dāng)前人工智能處于海量數(shù)據(jù)驅(qū)動知識學(xué)習(xí)階段,數(shù)據(jù)集的規(guī)模和質(zhì)量決定著人工智能模型的質(zhì)量(張宇光等,2019)[8]。對于人工智能系統(tǒng)來說,數(shù)據(jù)是其進(jìn)行分析、判斷、輸出決策結(jié)果并進(jìn)行行動的依據(jù),如果通過數(shù)據(jù)投毒等方式污染訓(xùn)練數(shù)據(jù)集,將會影響人工智能模型的準(zhǔn)確率,產(chǎn)生的決策結(jié)果可能完全不同。

      一般來說,數(shù)據(jù)污染有兩種方式。一種是訓(xùn)練數(shù)據(jù)集的污染,包括訓(xùn)練數(shù)據(jù)集本身已經(jīng)被污染和被黑客攻擊污染。另一種是人工智能模型的污染。一旦數(shù)據(jù)被污染,將會產(chǎn)生人工智能決策失誤,出現(xiàn)對人工智能的信任危機(jī),甚至?xí)l(fā)安全問題。

      4 推進(jìn)我國新一代人工智能高質(zhì)量發(fā)展的建議

      習(xí)近平總書記高度重視我國人工智能技術(shù)和產(chǎn)業(yè)的發(fā)展。他在2018年中共中央政治局第九次集體學(xué)習(xí)時強(qiáng)調(diào)指出,要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控。因此,我們應(yīng)積極應(yīng)對新一代人工智能發(fā)展面臨的一系列問題和挑戰(zhàn),積極推進(jìn)我國新一代人工智能的高質(zhì)量發(fā)展,助力經(jīng)濟(jì)高質(zhì)量發(fā)展。

      4.1 明確人工智能發(fā)展原則

      不同國家、地區(qū)、國際組織等主體就人工智能發(fā)展原則發(fā)布的聲明、報告、規(guī)劃、指南等文件不勝枚舉,其中規(guī)定不盡相同,但也有共通之處??傮w而言,新一代人工智能發(fā)展應(yīng)當(dāng)遵循以下基本原則。

      第一,遵循人類利益原則。這是人工智能發(fā)展的重要原則,任何技術(shù)都應(yīng)當(dāng)以人類的根本利益作為目標(biāo)。

      一是在算法方面,應(yīng)當(dāng)確保算法的透明性和可解釋性,避免算法歧視和偏見,解決算法黑箱問題;制定公平的利益分配機(jī)制和機(jī)會平等的算法模型,縮小數(shù)字鴻溝。二是在數(shù)據(jù)方面,應(yīng)當(dāng)注意隱私保護(hù),防止數(shù)據(jù)泄露、數(shù)據(jù)濫用、數(shù)據(jù)污染給人類造成損害,做到安全可控。三是應(yīng)當(dāng)尊重人類尊嚴(yán),保障人的基本權(quán)利和自由,促進(jìn)正義、公平、團(tuán)結(jié)和民主。人工智能應(yīng)當(dāng)造福人類,不能損害人類利益,注意防止人工智能武器的軍備競賽。

      第二,人類自主原則。即人類應(yīng)當(dāng)能夠了解、控制和監(jiān)督人工智能的每一個決策,不能反被人工智能系統(tǒng)操縱。

      從科幻小說家阿西莫夫提出“機(jī)器人三法則”起,對人工智能是否具有主體性就一直存在爭議。很多學(xué)者對此持支持態(tài)度:科林·艾倫(Colin Allen,2000)[9]認(rèn)為,人工智能越來越接近自主智能體的標(biāo)準(zhǔn),希望設(shè)計能通過道德圖靈測試的人工道德智能體。肖恩·拜仁(Shawn Bayern,2017)[10]等認(rèn)為,機(jī)器人的法律地位可以借鑒公司人格的形式,被納入法律主體之中。王榮余(2019)[11]認(rèn)為,人工智能的本質(zhì)是算法,基于算法的“深度學(xué)習(xí)”和“神經(jīng)網(wǎng)絡(luò)”使智能機(jī)器人有可能成為非完全的主體或獨(dú)立主體。劉憲權(quán)(2019)[12]認(rèn)為,將具有辨認(rèn)能力和控制能力的強(qiáng)智能機(jī)器人作為刑事責(zé)任主體不僅有其合理性,且有利于發(fā)揮刑法的機(jī)能。

      更多學(xué)者認(rèn)為人工智能尚不具有自主性,不需要賦予其主體地位。巴爾托什·布羅熱克(Bartosz Brozek)和馬利克·杰庫比克(Marek Jakubiec)(2017)[13]認(rèn)為,從技術(shù)角度來看,賦予人工智能法律主體地位具有可能性,但是實(shí)踐上不具有可行性。李醒民(2019)[14]認(rèn)為,強(qiáng)人工智能嵌入的倫理算法或程序不是實(shí)踐倫理學(xué)的具體道德行為;強(qiáng)人工智能的行動不具有道德意義,不具有道德主體地位。

      人類自主原則的基本要求如下:一是人工智能要以人為本,尊重人類選擇,由人類決定是否、如何、何時、何地將何種事項(xiàng)委托給人工智能系統(tǒng)進(jìn)行決策和行動,人工智能不能脫離人類的控制。二是人工智能模擬、增強(qiáng)、深化、拓展、補(bǔ)充人的智能——包括認(rèn)知、識別、記憶、學(xué)習(xí)、理解、推理、行動等——應(yīng)以促進(jìn)人類社會發(fā)展為目的,不能欺騙、操縱人類。三是人工智能要具有透明性和可預(yù)測性,即人類應(yīng)當(dāng)知道人工智能技術(shù)、決策過程以及能夠預(yù)測其決策結(jié)果。

      第三,責(zé)任原則。責(zé)任原則是人工智能研發(fā)和應(yīng)用的基礎(chǔ),具體是指人工智能在研發(fā)和應(yīng)用中都應(yīng)當(dāng)有明確的責(zé)任體系。

      一是從技術(shù)層面來說,應(yīng)當(dāng)明確人工智能研發(fā)、設(shè)計和制造過程中的責(zé)任主體。人工智能的研發(fā)、設(shè)計和制造者對人工智能在使用、誤用和產(chǎn)生決策結(jié)果時產(chǎn)生的倫理影響以及人身或財產(chǎn)損害,應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。二是從應(yīng)用層面來說,應(yīng)當(dāng)建立合理的責(zé)任分配和承擔(dān)機(jī)制,遵循權(quán)責(zé)一致的原則。首先,人工智能的數(shù)據(jù)、算法、運(yùn)行過程、決策結(jié)果、應(yīng)用情況等應(yīng)當(dāng)被合理記錄并受到監(jiān)督,一旦出現(xiàn)問題可以進(jìn)行相關(guān)審查。其次,應(yīng)當(dāng)明確人工智能使用過程中的責(zé)任主體。人工智能的參與者應(yīng)當(dāng)根據(jù)其角色,場景和所起的作用,對人工智能的使用、誤用和產(chǎn)生決策結(jié)果負(fù)責(zé)。

      4.2 完善人工智能的法律規(guī)則

      目前,我國與人工智能發(fā)展相適應(yīng)的法律法規(guī)相對滯后,這在一定程度上制約了新一代人工智能的高質(zhì)量發(fā)展和應(yīng)用。因此,我們應(yīng)當(dāng)加強(qiáng)相關(guān)立法工作,建立健全保障新一代人工智能高質(zhì)量發(fā)展的法律體系。

      第一,當(dāng)前對智能的概念、特征、技術(shù)水平、標(biāo)準(zhǔn)化體系、應(yīng)用模式等尚沒有形成統(tǒng)一意見,人工智能發(fā)展所帶來的正負(fù)效應(yīng)也有待時間檢驗(yàn),因此人工智能相關(guān)法律法規(guī)的建立健全,制度體系的完善也需要一定的時間,需要充分論證、考察、調(diào)研。

      第二,應(yīng)當(dāng)充分關(guān)注人工智能的法律地位,設(shè)置合理的責(zé)任分配和承擔(dān)機(jī)制。目前,人工智能尚不具備自主性,不應(yīng)賦予其主體地位,應(yīng)當(dāng)根據(jù)人工智能研發(fā)、制造、使用等各過程中各方的職責(zé)、過錯等,確定法律責(zé)任的分配和承擔(dān)問題。

      第三,關(guān)于算法規(guī)范問題。要通過立法增強(qiáng)算法的可解釋性和透明性,應(yīng)禁止采用帶有偏見與歧視的算法,確保人工智能系統(tǒng)不會因?yàn)樘囟ㄒ蛩禺a(chǎn)生不同的決策結(jié)果。此外,還應(yīng)確保各類網(wǎng)絡(luò)平臺向用戶進(jìn)行定向推送時,首先征得用戶同意,并公開說明其應(yīng)用的算法,保障用戶的知情權(quán)。

      第四,關(guān)于數(shù)據(jù)保護(hù)問題。進(jìn)一步建立健全保障數(shù)據(jù)安全的法律法規(guī)和制度體系。應(yīng)當(dāng)對數(shù)據(jù)的采集、分析、存儲、流轉(zhuǎn)、使用等全過程進(jìn)行規(guī)制,保障數(shù)據(jù)安全。強(qiáng)化個人隱私信息保護(hù),未經(jīng)個人同意,不得收集和向他人提供個人隱私信息,并對個人隱私信息采取延伸式保護(hù),不得非法使用和存儲個人信息,不得非法通過重組、關(guān)聯(lián)、交叉等方式分析挖掘個人信息。

      4.3 強(qiáng)化人工智能監(jiān)管

      對于人工智能的監(jiān)管,不同國家采取了不同的監(jiān)管模式。日本注重推動科技創(chuàng)新,傾向于“無需批準(zhǔn)式”監(jiān)管模式,除非有足夠充分證據(jù)證明高新科技和新的商業(yè)模式的危險性,否則不被禁止;英國、法國等國家更注重安全性,采用了“審慎監(jiān)管”模式,需先證明高新科技和新的商業(yè)模式不具有危險性,才允許被使用(張富利,2019)[15]。前者有利于推動科技發(fā)展和應(yīng)用,但對高新科技和新的商業(yè)模式存在的風(fēng)險監(jiān)管有疏漏。后者可從源頭監(jiān)管,但對高新科技和新的商業(yè)模式的發(fā)展會產(chǎn)生一定負(fù)效應(yīng)。我國應(yīng)當(dāng)立足本國國情,充分總結(jié)“無需批準(zhǔn)式”監(jiān)管和“審慎監(jiān)管”經(jīng)驗(yàn)教訓(xùn),統(tǒng)籌規(guī)劃人工智能監(jiān)管體系。

      第一,加快構(gòu)建人工智能監(jiān)管體系。制定人工智能的發(fā)展規(guī)劃和監(jiān)管策略,實(shí)施符合我國國情和人工智能發(fā)展規(guī)律的監(jiān)管措施,對人工智能技術(shù)發(fā)展中存在的風(fēng)險挑戰(zhàn)問題進(jìn)行治理,引領(lǐng)人工智能安全、健康的發(fā)展。

      第二,政府、企業(yè)、行業(yè)等各主體協(xié)同一體。一方面,政府應(yīng)當(dāng)加強(qiáng)監(jiān)管。政府應(yīng)當(dāng)對人工智能研發(fā)、制造、應(yīng)用等全過程進(jìn)行全面監(jiān)管,防止人工智能被非法利用。加大對人工智能領(lǐng)域的算法歧視、“過濾氣泡”、算法黑箱、數(shù)據(jù)濫用、數(shù)據(jù)泄露、數(shù)據(jù)污染等行為的懲戒力度。另一方面,應(yīng)當(dāng)推動人工智能行業(yè)自律,強(qiáng)化企業(yè)和行業(yè)對人工智能技術(shù)的算法風(fēng)險、數(shù)據(jù)風(fēng)險等責(zé)任意識,防止人工智能的研發(fā)、制造和使用偏離既定目的。

      第三,分層次監(jiān)管。對于不同的人工智能技術(shù)采用不同的監(jiān)管策略。對于可能引發(fā)嚴(yán)重倫理、法律、社會風(fēng)險及安全問題的人工智能技術(shù)及應(yīng)用,采取更嚴(yán)厲的監(jiān)管措施。對于僅有可能引發(fā)一般風(fēng)險及安全問題的人工智能技術(shù)及相關(guān)應(yīng)用,可以采取相對寬松的監(jiān)管措施。

      參考文獻(xiàn)

      [1] 阿爾文·托夫勒.第三次浪潮[M].黃明堅(jiān),譯.北京:中信出版社.2018:1-10.

      [2] 郭銳.人工智能的倫理與治理[J].人工智能,2019(4):14.

      [3] 郭小安,甘馨月.“戳掉你的泡泡”——算法推薦時代“過濾氣泡”的形成及消解[J].全球傳媒學(xué)刊,2018,5(2):77.

      [4] 凱斯 · 桑斯坦.信息烏托邦:眾人如何生產(chǎn)知識[M],畢競悅,譯.北京:法律出版社.2008:6.

      [5] 張淑玲.破解黑箱:智媒時代的算法權(quán)力規(guī)制與透明實(shí)現(xiàn)機(jī)制[J].中國出版,2018(7):50.

      [6] 葉韋明.機(jī)器人新聞:變革歷程與社會影響[J].中國出版,2016(10):19.

      [7] 何波.人工智能時代數(shù)據(jù)保護(hù)莫淪為皇帝新衣[N].人民郵電報,2018-1-31(5).

      [8] 張宇光,孫衛(wèi),劉賢剛,等.人工智能安全研究[J].保密科學(xué)技術(shù),2019(9):9.

      [9] Colin A,GARY V,Jason Z. Prolegomena to Any Future Artificial Moral Agent[J]. Journal of Experimental Theory of Artificial Intelligence,2000,12(3):251.

      [10] Bayern S,Burri T,Grant T D,et al. Company Law and Autonomous Systems: A Blueprint for Lawyer,Entrepreneurs,and Regulators[J]. Hastings Science and Technology Law Journal,2017,9(2):135-162.

      [11] 王榮余.“機(jī)器人也是人”的法理拷問[J].社會科學(xué)動態(tài),2019(11):22.

      [12] 劉憲權(quán).對強(qiáng)智能機(jī)器人刑事責(zé)任主體地位否定說的回應(yīng)[J].法學(xué)評論,2019,217(5):113.

      [13] Brozek B,Jakubiec M. On the Legal Responsibility of Autonomous Machines(J).Artificial Intelligence and Law,2017,25(3):293.

      [14] 李醒民.人工智能技性科學(xué)與倫理[J].社會科學(xué)論壇,2019(4):188-189.

      [15] 張富利.全球風(fēng)險社會下人工智能的治理之道——復(fù)雜性范式與法律應(yīng)對[J].社會科學(xué)文摘,2019(9):73.

      杭锦后旗| 德庆县| 东平县| 永顺县| 华坪县| 六安市| 靖江市| 板桥市| 安丘市| 太仆寺旗| 密山市| 瓮安县| 大同市| 华安县| 鄂温| 鹰潭市| 江孜县| 乌什县| 镇平县| 石嘴山市| 繁昌县| 威远县| 万源市| 韩城市| 西和县| 石楼县| 韶关市| 枞阳县| 张北县| 德令哈市| 都兰县| 玉龙| 樟树市| 梅州市| 南丰县| 和田市| 宁晋县| 保定市| 西安市| 麟游县| 祁门县|